• Sonuç bulunamadı

Bu tez çalışmasında biyomedikal imge verilerinin sınıflandırılması üzerine farklı derin öğrenme mimarileri araştırılmış ve analiz edilmiştir. Dört adet imge veri seti, üç adet derin öğrenme ağ mimarisi ve bu mimarilere ait hiper parametrelere bağlı olarak farklı yapılar uygulanmıştır. Bu uygulamalara bağlı olarak çeşitli sonuçlar elde edilmiştir. Tez çalışmasına katkıları ve sonuçları aşağıda maddeler halinde ifade edilmektedir:

Derin öğrenme yöntemlerinde ağı eğitirken veri seti miktarının önemli olduğu bilinmektedir ne kadar eğitim ve test verisi olursa başarı artmaktadır. Bunula birlikte ikinci veri setinde görüldüğü üzere yeteri kadar veri olmadığında bile hiper parametre değişkenlerinin epoch, mini-batch, katman sayısı, optimizer yöntemi gibi değişkenlerin doğru şekilde değiştirilmesiyle az veri setinde bile başarılı sonuçlar sergilemiştir.

Biyomedikal röntgen imgelerinde üçüncü veri setinde görüldüğü gibi derin öğrenme yöntemlerinde daha iyi sonuçlar göstermiştir. Retina röntgenlerinde çoklu sınıflandırma yöntemi olarak %95 üzerinde başaralı sonuçlar sergilemiştir. LeNET ve AlexNET yöntemlerinin gri tonlamalı görüntülerde daha başarılı sonuçlar sergilediği saptanmıştır.

Mikroskobik görüntülerde Adam aktivasyon fonksiyonun başarımı artırdığı saptanmış ve çoklu sınıflandırmalarda daha iyi sonuçlar verdiği görülmüştür. Renkli görüntülerde Adam aktivasyon fonksiyonun sgd ve rmsprop gibi diğer aktivasyon fonksiyonlarına göre daha başarılı sonuçlar sergilediği saptanmıştır.

Veri setindeki karmaşıklığa bağlı olarak veri seti miktarı veri fazla olsa da beklenen sonuçlar sergilemediği görülmüş ancak ek bilgiler hastalığın konumu gibi ek verilerle daha iyi sonuçlar verdiği görülmüştür.

Bu tez çalışması sonucunda biyomedikal imgelerin derin öğrenme yöntemiyle saptanmasında başarılı sonuçlar verdiği görülmüştür. Özellikle röntgen görüntülerinde mikroskobik görüntülere nazaran daha iyi performans sergilemiştir.

Yapmış olduğumuz çalışmalar biyomedikal imgelerin derin öğrenme teknikleri kullanılarak sınıflandırmada iyi sonuçlar sergilediği göstermiştir. Bu alanda ileriki çalışmalarda biyomedikal imgelerle birlikte ek bilgiler yada etiketlerle daha iyi sonuçlar sergileneceği düşünülmektedir.

KAYNAKLAR

[1] Sejnowski, T.J.,and Tesauro,G., 1989. “The Hebbian rule for synaptic plasticity:

algorithms and implementations. In: Neural models of plasticity: Experimental and theoretical approaches”, San Diego California Academic Press, pp.94- 103.

[2] USCS Working Group - United States Cancer Statistics Working Group, 2017. “United States cancer statistics: 1999–2014 incidence and mortality web-based report. Atlanta: US Department of Health and Human Services, Centers for Disease Control and Prevention and National Cancer Institute”.

[3] LEE, T. S., and MUMFORD, D., 2003. “Hierarchical Bayesian inference in the visual cortex.” JOSA A, 20(7): 1434-1448.

[4] BENGIO, Y., 2009. “Learning deep architectures for AI. Foundations and trends, in Machine Learning”, Dept. IRO, Universite de Montreal, 2(1): 1-127.

[5] Tesauro, G., 1992. “Practical issues in temporal difference learning. Machine Learning”,

IBM Thomas J. Watson Research Center,pp. 8, 257-277.

[6] Uzun E., 2007. “İnternet Tabanlı Bilgi Erişimi Destekli Bir Otomatik Öğrenme Sistemi”,

Doktora Tezi., T.C. Trakya Üniversitesi Fen Bilimleri Enstitüsü.

[7] Öztemel E., 2003. “Yapay Sinir Ağları”. İstanbul, Türkiye, Papatya Yayıncılık. [8] Elmas Ç., 2003 .“Yapay Sinir Ağları Kuram, Mimari, Eğitim, Uygulama”, 1. Baskı,

Ankara, Türkiye, Seçkin Yayıncılık.

[9] Aslan O., Cheng H., Schuurmans D. And Zhang X., 2013. “Convex two-layer

modeling”, In Proceedings of Neural Information Processing Systems(NIPS). [10] Cho Y. and Saul L., 2009.“Kernel Methods for Deep Learning”, In Proceedings of

Neural Information Processing Systems(NIPs), pages 342-350.

[11] Deng L., Tur G. and Hakkani-Tur D., December 2012 . “Use of Kernel Deep Convex Networks and End-To-End Learning for Spoken Language Understanding”, In

Proceedings of IEEE Workshop on Spoken Language Technologies.

[12] Viyals O., Jia Y., Deng L. and Darrell T., 2012 .“Learning with Recursive Perceptual Representations”, In Proceedings of Neural Information Processing

Systems(NIPs).

[13] Li Deng, Dong Yu, 2014.“Deep Learning Methods and Applications”, Foundations and

Trends Signal Processing ,vol.7 ,198-250.

[14] George D., 2008. “How to Brain Might Work: A Hierarchical and Temporal Model for Learning and Recognition”, Ph.D. Thesis, Standford University.

[15] Salakhutdinav R. And Hinton G., 2009. “Semantic Hashing”, Int. J. Approx. Rason., vol. 50, pp. 969-978.

[16] C.Y. Liou, W.C. Cheng, J.W. Liou, and D.R. Liou, 2014. “Autoencoder for Words”,

Neurocomputing, vol. 139, pp. 84-96.

[17] A. Krizhevsky and G.E. Hinton, 2011. “Using Very Deep Autoencoders for Content Based Image Retrivel”, in European Symposium on Artificial Neural Networks, pp 489-494.

[18] R. Salakhutdinov and G. Hinton, 2009. “Deep Boltzmann Machines”, in International

Conference on Artificial Intelligence and Statistics, pp 3-11.

[19] Sebastian B., Stefan J. Kiebel, 2012. “Recognizing Recurrent Neural Network (rRNN): Bayesian inference for recurrent neural networks”, Cornell University.

57

[20] K. Fukushima, 1980. “Neocognitrion: a self organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”, Biol.

Cybern. Vol. 36 no. 4, pp. 193-202.

[21] D. Cireşan, U. Meier, J. Schmidhuber, 2012. “Multi-column Deep Neural Networks for Image Classification”, Computer Vision and Pattern Recognition, pp 3642- 3649.

[22] Srivastava N., G. E. Hinton, A.Krizhevsky, I. Sutskever and R. Salakhutdinov, 2014. “Dropout: a simple way to prevent neural networks fro overfitting”,

Journal of Machine Learning Research 15(1),1929-1958.

[23] Srivastava N., G. E. Hinton, A.Krizhevsky, I. Sutskever and R. Salakhutdinov, 2012. “Improving Neural Networks by Preventing Co-adaptation of Feature Detectors”, Depertment of Computer Sience,University of Toronto.

[24] URL-1, http://buyukveri.firat.edu.tr/2018/04/17/derin-sinir-aglari-icin-aktivasyon- fonksiyonlari/, Derin Sinir Ağları İçin Aktivasyon Fonksiyonları-Büyük Veri ve Yapay Zekâ Laboratuvarı. 10 Mayıs 2018.

[25] Long J., Shelhamer E. and Darrell T., 2014.“Fully Convolutional Networks for Semantic Segmentation” ,IEEE.

[26] Jiajun W., Yinan Y., Chang H., Kai Y., 2015.“Deep Multiple Instance Learning for Image Classificatin and Auto-Annotation”, CVPR2015, 3460-3469.

[27] Emmanuel M., Yuliya T., Guillaume C., February 2017.“Convolutional Neural Networks for Large-Scale Remote-Sensing Image Classification”, IEEE, 645- 657.

[28] Lijun W., Wanli O., Xiaogang W., Huchuan L., 2015. “Visual Tracking with Fully Convolutional Networks”, IEEE, 3119-3127.

[29] Karen S., Andre V., Andrew Z., Apr 2014.“Deep Inside Convolutional Networks: Visualing Image Classification Models and Saliency Map”,Visual Geometry

Group, University of Oxford.

[30] LU Y., and HAN J., 2003. “Cancer classification using gene expression data”,

Information System 28(4),Elsevier: 243-268.

[31] LI K., LI X., ZHANG Y., and ZHANG A., 2013. “Affective state recognition from EEG with deep belief networks”. In Bioinformatics and Biomedicine (BIBM),

2013 IEEE International Conference on, pp. 305-310, IEEE.

[32]DAYONG W., ADİTYA K.,RİSHAP G.,HUMAYUN I., ANDREW H B., 2016. “Deep Learning for Identifying Metastatic Breast Cancer”, Beth Israel

Deaconess Medical Center, Harvard Medical School.

[33]Yan Xu, Tao Mo, Qiwei F., and others, 2014. “DEEP LEARNING OF FEATURE REPRESENTTATION WITH MULTIPLE INSTANCE LEARNING FOR MEDICAL IMAGE ANALYSIS”, IEEE International Conference on

Acoustic,Speech and Signal Processing(ICASSP), IEEE, 1626-1630.

[34]Yaniv B., Idit D., Lior W., Sivan L., Eli K., Hayit G., 2015. “CHEST PATHOLOGY DETECTİON USING DEEP LEARNING WITH NON-MEDICAL

TRAINING”, The Blavatnik School of Computer Science,Tel-Aviv University

,IEEE, 294-297.

[35]Korsuk S., Shan E Ahmed R.,Yee-Wah T.,David R.J. S.,Ian A.C.,Nasir M. R., May 2016. “Locality Sensitive Deep Learning For Detection and Classification of Nuclei in Routuine Colon Cancer History Images”,IEEE Transactions on

58

[36]Shadi A., Christoph B., Felix A., Vasileios B., Stefanie D., Nassir N., 2016. “AggNet: Deep Learning From Crowds for Mitosis Deteciton in Breast Cancer Histology Images”, IEEE Transactions on Medical Imaging ,1313-1322.

[37]Fausto M., Nassir N., Seyed-Ahmad A., 2016. “V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation”, Fourth International

Conference on 3D Vision, IEEE, 565-571.

[38]Greet L., Thijs K., Babak E. B., Arnoud A. S., Francesco C., Mohsen G., Jeroen

A.W.M. van der L., Bram van G., Clara I. S., 2017. “A survey on deep

learning in medical image analysis”, Diagnostic Image Analysis Group

Radboud University Medical Center Nijmegen, The Netherlands, ELSEVİER.

[39] Yann L., Leon B., Yoshua B. and Patrick H., 1998. “Gradient-Based Learning Applied to Document Recognition”, Proc. of The IEEE.

[40] Alex K., Ilya S., and Geoffrey E.Hinton, 2012. “ImagiNet Classification with Deep Convolutional Neural Network”, Universty of Toronto.

[41] Karen S. And Andrew Z., 2015. “VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION”, Conference Paper at ICLR. [42] URL-2,https://www.medicalpark.com.tr/zaturre-nedir/hg-152, Zatürre(Pnömoni) Nedir?

Zatürre Belirtileri Nelerdir?- Medical Park. 8 MAYIS 2018.

[43] URL-3, https://www.kaggle.com/paultimothymooney/chest-xray-pneumonia/data , Chest X-Ray Images(Pneumonia) | Kaggle. 22 NİSAN 2018.

[44] URL-4, https://www.kaggle.com/kmader/siim-medical-images, CT Medical Images | Kaggle. 1 OCAK 2018.

[45] Albertina, B., Watson, M., Holback, C., Jarosz, R., Kirk, S., Lee, Y., Lemmerman, J., 2016. Radiology Data from The Cancer Genome Atlas Lung

Adenocarcinoma [TCGA-LUAD] collection. The Cancer Imaging Archive. http://doi.org/10.7937/K9/TCIA.2016.JGNIHEP5

[46] Clark K, Vendt B, Smith K, Freymann J, Kirby J, Koppel P, Moore S, Phillips S,

Maffitt D, Pringle M, Tarbox L, Prior F. , December, 2013. “The Cancer

Imaging Archive (TCIA): Maintaining and Operating a Public Information Repository”, Journal of Digital Imaging, Volume 26, Number 6, , pp 1045- 1057.

[47] URL-5, https://neolife.com.tr/akciger-kanseri/, Akciğer Kanseri Belirtileri Nelerdir? Akciğer Kanserinin Tedavi Yöntemleri Nelerdir? 1 MAYIS 2018.

[48]EA Swanson, JG Fujimoto, 2017. “The Ecosystem That Powered The Translation of OCT From Fundamental Research to Clinic and Commercial Impact”,

Osapublishing, pp. 1638-1664.

[49] URL-6, https://www.kaggle.com/paultimothymooney/kermany2018, Retinal OCT Images (Optical Coherence Tomogrophy) | Kaggle. 1 MAYIS 2018. [50] URL-7, https://data.mendeley.com/datasets/rscbjbr9sj/2, Mendeley Data - Labeled

Optical Coherence Tomograpy(OCT) and Chest X-Ray Images for Classification. 1 MAYIS 2018.

[51]Daniel S. Kermany, Micheal G., Wenjia C., Carolina C.S. Valentim, Huiying L.,

Sally L. Baxter, Alex M., Ge Y., Xiaokang W.,Fanging Y.Justin D., Made K. Prasadha, Jacqueline P., Madalene Y.L. Ting, Jie Z., Christina L., Sierra H., Jason D., Lan Z., Alexander S., Runze Z., Lianghong Z., Rui H., William S., Xin F., Yaou D., Viet A.N. Huu, Cindy W., Edward D. Zhang, Charlotte L. Zhang, Oulan Li, Xiaobo W., Micheal A. Singer, Xiaodıng Sun, Jie Xu, Ali Tafreshi, M. Anthony L., Huimin X.,Kang Zhang, 22 Feb.

59 Deep Learning”,Elsevier,pp. 1122-

1131, https://doi.org/10.1016/j.cell.2018.02.010

[52] URL-8, https://www.news-medical.net/health/Symptoms-of-ocular-histoplasmosis- (Turkish).aspx , Oküler Histoplazmoz Belirtileri. 1 MAYIS 2018.

[53]Burak T., Nagehan B., Ülkü Ç., Tamer D., Fetih Cem G., 2015. “Diyabetik Makuler Ödemde Seröz Makula Dekolmanı Sıklığı”, Fırat Tıp Dergisi, pp.137-139. [54]Tranos PG.,Wickremasinghee SS., Stangos NT., et al, 2004. “Maculer Edema”, Surv

Ophtalmol;49, pp. 470-490.

[55]Klein R., Klein BE., Moss SE., Cruickshanks KJ., 1995. “The Long-Term Incidence of Maculer Edema”, The Wisconsin Epidemiologic Study of Diabetic Retinopathy. XV,102, pp. 7-16.

[56] URL-9, http://www.mastereyeassociates.com/retinal-drusen, Retina Drusen. 1 MAYIS 2018.

[57] URL-10, https://www.kaggle.com/paultimothymooney/blood-cells, Blood Cell Images | Kaggle. 1 MAYIS 2018.

[58] URL-11, https://www.cincinnatichildrens.org/service/c/eosinophilic-

disorders/conditions/eosinophil, What is an Eosinophil? | Definition & Function | CCED. 1 MAYIS 2018.

[59] URL-12, https://www.ncbi.nlm.nih.gov/pubmedhealth/PMHT0022058/, Neutrophils – National Library of Medicine – PubMed Health. 1 MAYIS 2018.

[60] URL-13, https://www.ncbi.nlm.nih.gov/pubmedhealth/PMHT0022057/, Monocytes - National Library of Medicine – PubMed Health. 1 MAYIS 2018.

[61] URL-14, https://www.ncbi.nlm.nih.gov/pubmedhealth/PMHT0022042/, Lymphocyte - National Library of Medicine – PubMed Health. 1 MAYIS 2018.

ÖZGEÇMİŞ

Mehmet Emre SERTKAYA

KİŞİŞEL BİLGİLER Adres: Telefon: E-posta: Doğum Yeri/Tarihi: Medeni Hali:

Mustafapaşa Mah. HacıOsman Cami Sok. No:16/4, Merkez-Elazığ 0(507) 404 68 62 mehmetemresertkaya@gmail.com Elazığ-20.07.1991 Bekar EĞİTİM BİLGİLERİ Lisansüstü: Lisans: Lise:

2018,Fırat Üniversitesi Mühendislik Fak. Bilgisayar Müh. Donanım abd. 2014, Fırat Üniversitesi Mühendislik Fakültesi Bilgisayar Müh.,Elazığ 2009,Korgenaral Hulusi Sayın Lisesi, Elazığ

BİLDİĞİ YABANCI DİLLER

İngilizce(B1)

ARAŞTIRMA DENEYİMİ

Programlama Dilleri

Java , C# , LISP , JS, Assembler, Python, Jsp

SQL Server , MYSQL Server , ORACLE Database

Netbeans ,Eclipse, JDeveloper, Visual Studio, MATLAB 2013, EWB (Electronics Workbench) 10.0, TOAD for Oracle, Proteus, Mplab, Apache Tomcat,PyCharm,

JSF, J2ME, JQuery, Java Script, HTML5, Angular JS CSS, JSON, XML, JS Kütüphaneleri ,Web Services, Android Development,DevExpress componentleri

Benzer Belgeler