• Sonuç bulunamadı

Derin Öğrenme Metodu Kullanarak BT Görüntülerinden Akciğer Kanseri Teşhisi Deep Learning for Diagnosis of Lung Cancer from CT Images

N/A
N/A
Protected

Academic year: 2022

Share "Derin Öğrenme Metodu Kullanarak BT Görüntülerinden Akciğer Kanseri Teşhisi Deep Learning for Diagnosis of Lung Cancer from CT Images"

Copied!
14
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

487

Bandırma Onyedi Eylül Üniversitesi, Mühendislik ve Doğa Bilimleri Fakültesi, Balıkesir, Türkiye Sorumlu Yazar / Corresponding Author *: mcifci@bandirma.edu.tr

Geliş Tarihi / Received: 16.06.2021 Kabul Tarihi / Accepted: 08.10.2021

Araştırma Makalesi/Research Article DOI:10.21205/deufmd.2022247114

Atıf şekli/ How to cite: ÇIFÇI, M.A. (2022) . Derin Öğrenme Metodu Kullanarak BT Görüntülerinden Akciğer Kanseri Teşhisi. DEUFMD, 24(71), 487-500.

Öz

Derin Öğrenmenin (DÖ) teknikleriyle erken kanser tanısı son dönemlerde araştırmacılar arasında en çok üzerinde durulan konu olmuştur. Ayrıca pek çok araştırmada görüldüğü üzere DÖ’nün tıp alanında kullanımı günümüzde daha da önem kazanmaktadır. Araştırmacılar sağlık alanında kanser ve kanser türlerini teşhis etmede genellikle DÖ tekniklerinden yararlanmaktadır. Akciğer kanseri tanısında Bilgisayarlı Tomografi (BT) görüntülerinin net olmamasından dolayı, doğru karar vermede uzmanlar görüş ayrılıkları yaşamaktadır. Bu ve benzeri hastalıkları erken ve doğru tanılayabilen ve daha güvenilir sonuçlar verebilen DÖ karar verme mekanizmaları bir seçenek haline gelmiştir. Yapılan araştırmalara göre akciğer kanseri, dünya çapındaki ölümlerin önde gelen nedenleri arasındadır. Akciğer kanseri, sadece 2019 yılında tahmini 1,76 milyon insanın ölümüne sebep olmuştur. Akciğer kanserinin sebepleri arttıkça bu hastalıktan ölüm oranının %80'in üzerine çıktığı gözlemlenmiştir. Olgular erken tanı konup, tedavi edilirse kanser kaynaklı ölümlerin oranının azalmakta olduğu görülmüştür. Hastalığın doğru saptanması, tedavi edilmesinde önemli rol oynamaktadır.

Bu çalışmada DÖ tekniği ile, 6053 akciğer tomografi veri seti üzerinde işlem yapılmıştır. Hastanın kanser olup olmadığına, kanser ise bunun iyi huylu (benign) ya da kötü huylu (malign) olduğuna karar verilmesine çalışılmaktadır. Akciğer BT veri kümesinde görüntü işleme aşamalarının ardından öznitelik çıkarımı yapılıp elde edilen veriler DÖ ’de girdi verisi olarak kullanılmaktadır. Bu çalışmada iki metot önerilmiştir: Birinci yöntemde VGG-16, Inception v4, MobileNet v3 kullanılırken ikinci yöntemde AlexNet yöntemi uygulanmaktadır. İki farklı aşamanın sebebi verinin farklı oranlarda bölünmesidir. Bu çalışma, iki aşamalı olması yönüyle yaygın kullanılan diğer tekniklerden farklıdır. Deneysel sonuçların yüksek performans gösterdiği ve AlexNet’in 0.96, MobileNet v3’ün 0.81, VGG-16 0.84, Inception v4’ün ise 0.86 doğrulukta sonuç verdiği belirlenmiştir. Böylece akciğer hastalarının BT görüntülerinde kanser olup olmadığı, kanser ise hastalığın hangi aşamada olduğu konusunda ön bilgi elde edilebilmektedir.

Anahtar Kelimeler: BT, Derin Öğrenme, VGG-16, MobileNet, AlexNet, Inception v4, Evrişimli Sinir Ağları, Akciğer kanseri

Abstract

Early cancer diagnosis with Deep Learning (DL) techniques has been the most emphasized subject

Derin Öğrenme Metodu Kullanarak BT Görüntülerinden Akciğer Kanseri Teşhisi

Deep Learning for Diagnosis of Lung Cancer from CT Images

Mehmet Akif Çifçi

(2)

488

among researchers recently. In addition, as seen in many studies, the use of DL in the field of medicine is gaining more importance today. Researchers generally use DL techniques to diagnose cancer and cancer types in the health field. In the diagnosis of lung cancer, due to the inconsistency of Computed Tomography (CT) images, experts have disagreements in making the right decision. DL decision-making mechanisms that can diagnose these and similar diseases early and accurately and provide more reliable results have become an option. Studies show that lung cancer is among the leading causes of death worldwide. Lung cancer caused an estimated 1.76 million deaths in 2019. It has been observed that as the causes of lung cancer increase, the average mortality rate increases by more than 80%. It has been remarked that the rate of cancer-related deaths decreases if the cases are diagnosed and treated early. Accurate detection of the disease plays an important role in its treatment.

In this study, the 6053 lung CT data set was processed with the DL techniques. It is tried to decide whether the patient has cancer and if it is cancer, it is benign or malignant. In the lung CT dataset, after the image processing stages, feature extraction is performed, and the data obtained are used as input data in DL. In this study, two methods are proposed: VGG-16, Inception v4, MobileNet v3 are used in the first method, while the AlexNet method is used in the second method. This study differs from other commonly used techniques in that it has two stages. It was determined that the experimental results showed high performance and AlexNet gave 0.96 accuracies, MobileNet v3 0.81, VGG-16 0.84, Inception v4 0.86 accuracies. Thus, preliminary information can be obtained about whether there is cancer in the CT images of lung patients, and if it is cancer, at what stage the disease is.

Keywords: Computed Tomography (CT), Lung cancer, Deep Learning (DL), VGG-16, MobileNet v3, AlexNet, Inception v4, Convolutional Neural Networks (CNN)

1. Giriş

Tıbbi görüntü analizinin sağlık alanında, özellikle invaziv olmayan tedavi ve klinik muayenede olağanüstü başarı sağladığı görülmüştür [1]. X-ışınları, Bilgisayarlı Tomografi (BT) ve ultrason görüntüleme gibi restoratif görüntüler, spesifik tanı için kullanılmaktadır. Tıbbi görüntülemede BT, filmlerde lezyonlu bölge görüntüsünü yakalamak için kullanılan çok önemli görüntüleme mekanizmalarından biridir [2].

Kanser gibi ölümcül bir hastalık düşünüldüğünde BT görüntülerinin önemi daha da artmaktadır. Akciğer kanseri, BT görüntülerinin analizine rağmen yılda 1,61 milyon insanın ölümüne yol açmaktadır [3].

Bilgisayar Destekli Tanıya (BDT) rağmen sadece 2019'da akciğer kanseri 1,76 milyon ölüme sebep olmuştur [4]. Akciğer kanseri, tanısı yeni konulan hasta ölümlerinin %13'ünü, tüm kanser ölümlerinin ise %24'ünü oluşturmaktadır. Kanserden ölümlerin yaklaşık

%70'i düşük ve orta gelirli ülkelerde meydana gelmektedir [5]. BT taraması ile konan erken tanı, akciğer kanseri kaynaklı ölüm vakalarını azaltabilir fakat bu taramalar yüksek maliyetlidir. Bu yüzden, düşük ve orta gelirli

ülkeler için akciğer kanseri vakaları daha büyük risk taşımakta ve hekimlerin görüş ayrılıklarından dolayı hastalık yanlış teşhisle sonuçlanabilmektedir.

Bu sorunlarla başa çıkabilmek için BT taramalarında, otomatik lezyon saptama yöntemleri ve otomatik akciğer hastalıkları sınıflandırma yöntemleri geliştirmek, son yirmi yılda aktif bir araştırma alanı haline gelmiştir [6]. Son yıllarda BT görüntüleri kullanılarak yapılan akciğer kanseri taramalarının sayısı artmakla beraber BDT sistemleri, yorumlamada çok önemli bir rol almıştır [7]. Birçok BDT sistemi, görüntülerden öznitelik çıkarımı temel alınarak geliştirilmiştir. Çoğu geleneksel BDT sisteminin manuel tasarlanmış olmasından dolayı görüntüden çıkarılan öznitelikler ideal olabilir veya yeterli olmayabilir [5]. Dolayısıyla BDT sistemlerinde istenen düzeyde başarı yakalanamamıştır.

Derin Öğrenme (DÖ) son zamanlarda görüntü tanıma ve biyomedikal görüntü analizi başta olmak üzere birçok alanda yoğun ilgi toplamıştır [8]. DÖ, Makine Öğrenme (MÖ) algoritmalarından en yaygın kullanılanıdır. DÖ çeşitli alanlarda başarıyla uygulanmakla birlikte, görüntü tanımada ve sınıflandırmada

(3)

489 en gelişmiş performansı elde etmiştir [9].

Normalde DÖ görüntü sınıflandırması, ön işlem yapılmamış görüntü piksellerine doğrudan uygulanabilir. Ancak bu durumda görüntünün spektral bilgi içeriği sınıflandırmada kullanılmamış olur. Görüntü sınıflandırma performansını yükseltmek üzere, görüntü özniteliklerinin değişmezliğini artırmak için spektral öznitelik bilgisinin göz önüne alınması gerekmektedir [10].

Bu çalışmada BT görüntülerinin öz nitelik çıkarımı yapılmakta ve görüntü işleme yöntemleri uygulanmaktadır. Elde edilen verilere DÖ yöntemi uygulanarak kişinin hasta olup olmadığı, hasta ise hastalığın iyi veya kötü huylu olduğu saptanabilmektedir.

Bu makalenin ikinci bölümünde, benzer çalışmalardan örnekler verilerek, bu yayın ile bulguların karşılaştırılması yapılacaktır. Bölüm 3’te akciğer kanserinin saptanmasında göz önüne alınan yöntemler üzerinde durulacaktır.

Bölüm 4’te önerilen modelle ilgili uygulamaya yer verilecektir. Bölüm 5’te ise spesifik sonuçlar üzerinde durulacaktır. Şekil 1. Akciğer kanseri nodülü gösterilmektedir.

Şekil 1. a. Akciğer kanseri nodülü görüntüsü, b.

Bu 1,25 mm kalınlığında BT yaklaşık 2 mm akciğer nodülü [11].

Şekil 1’de Akciğer kanseri nodülü görüntüsü ve bu görüntüleirn kalınlığı gösterilmektedir.

2. Literatür Çalışması

Bu bölümde akciğer kanseri tanımlama yöntemi, prosedürleri, DÖ yöntemi ile ilgili farklı görüşler ve BT görüntülerinin işlenme aşamaları ele alınmıştır. Yutong Causey vd., [10]

çalışmalarında doku, şekil ve DÖ tekniğiyle öğrenilen verileri ele alarak akciğer nodülü sınıflandırması için bir algoritma önermişlerdir.

Bu algoritmada, nodüllerin heterojenliğini simüle etmek için bir “gri seviye eş oluşum matrisleri” tabanlı yüzey tanımlayıcı, bir

Fourier-şekil tanımlayıcı ve düğümlerin özelliklerini eğitmek için bir Evrişimli Sinir Ağlarından (ESA) faydalanılmıştır.

Lakshmanaprabu vd., [12] bir BDT üzerine odaklanmış ve bu sistem manuel tasarlanmış olduğundan çözüm için ideal veya yeterli değildir.

YANG, Gelan, vd., [13] sınıflandırıcı olarak Destek Vektör Makinelerinden (DVM) faydalanmışlardır. Çalışmalarında miRNA (mikroRNA) biyobelirteçleri, klinik semptomlar ve epidemiyoloji materyali temel alarak akciğer kanseri tanısı için bir DVM modeli oluşturmuşlardır. Sharma vd., [14] lineer bir yöntem üzerine odaklanmışlardır. Doğrusal ayırıcı analiz (DAA), sınıflandırmadan önce özelliklerin sayısını daha yönetilebilir bir sayıya indirmekte kullanılır. DAA tekniği düzleştirme parametresinin geleneksel çapraz doğrulama algoritmasından yararlanmaktadır. Yani daha çok, boyut indirgemede kullanılmaktadır.

Bunun yanı sıra kanser hastalığının teşhisi için tıbbi verileri araştırmaya uygun özellik kümesine ihtiyaç duyulmuştur. Optimum özellik seçimini elde etmek için birçok evrimsel algoritma uygulanmıştır. Gunavathi vd., [15] BT görüntüleri için Yapay Sinir Ağları (YSA) bazlı bir kanser sınıflandırması geliştirmiştir.

Sınıflandırma modeli için kullanılan istatistik kısmi olarak başarı sağlamıştır. Wang vd., [16]

geleneksel LDA prosedüründeki mevcut dezavantajları yenmek için ELDA yöntemi adı verilen Öklid normuna dayanan bir LDA yöntemi önermiştir.

Song ve Zhao [17] çalışmalarında Gauss dağılımı ve olasılık dağılımı işlevini hesaplayarak görüntüde bulunan piksellerin dağılımını incelemişlerdir. Piksel dağılımı yapıldıktan sonra, komşu piksellerin benzerliğinin hesaplanması önemlidir. Benzer pikseller küme halinde oluşturulur ve etkilenen bölgede meydana gelen kümeden yararlanılır. Ayrıca Shakeel vd., [18] BT görüntülerinden akciğer kanserini saptamak için BDT sisteminin oluşturulmasında etkilenen akciğer tümör bölgesinin üzerine odaklanmışlardır. .Rahman vd., [19] akciğer kanserini erken evrelerde saptayabilmek için Hopfield Sinir Ağı (HSA) ve Bulanık C-Ortalama (BCM) kümeleme algoritması olmak üzere iki bölümleme yöntemi sunmaktadır. Zhong vd., [20] çalışmasında ESA yöntemini kullanarak BT tarama görüntülerinden akciğer nodülleri üzerine

(4)

490 çalışma yapmışlardır. Bu işlem sırasında LIDC IDRI veri tabanı görüntüleri elde edildikten sonra bu veriler üzerine işlem yapılmaktadır.

Akciğer kanseri ile ilgili hastalığın iyi huylu veya kötü huylu olarak sınıflandırılması için Derin Sinir Ağı (DSA) tekniğinden yararlanmışlardır.

Alakwaa vd., [21] akciğer kanseri analizi ve 3D- ESA ile sınıflandırma yapmışlardır.

Çalışmalarında BT taraması için BDT sisteminden yararlanarak akciğer nodüllerinin sınıflandırmasını yapmışlardır. Song ve Zhao, vd., [22] özellikle akciğer kanseri sınıflandırması için tasarlanmış üç tip Derin Sinir Ağları (DSA) üzerinde çalışarak sınıflandırma yöntemi sunmaktadır.

Pandiangan, Bali, vd., [23] Akciğer Kanseri belirtilerini saptamak için Hücresel Sinir Ağları (HSA) algoritmasını geliştirmişlerdir. Bu araştırmada, ESA algoritması kullanılarak akciğer kanserinin saptanması için X-Ray görüntülerinden faydalanılmıştır. Heeneman vd., [24] BT taramalarında akciğer kanseri taraması için ESA’nın geliştirilmesi üzerine yoğunlaşmışlardır. Abdelwadood ve Mesleh, vd., [25] bağımsız bileşen analizi ile çok katmanlı sinir ağları kullanarak akciğer kanseri tanısı üzerinde durmuşlardır.

Dey, vd., [26] çalışmalarında 3D-ESA kullanarak akciğer nodüllerinin tanısal sınıflandırmasını yapmışlardır. Veri kümesi ön işleme tabi tutulmadığından sonuçlar beklenen doğrulukta çıkmamıştır. Li vd., [27] çalışmalarında iyi huylu ve kötü huylu akciğer nodüllerini ayırt etmek için bir YSA topluluk şeması kullanan bir yöntem önermişlerdir. Deneysel sonuçlar, şemanın %78,7 sınıflandırma doğruluğuna sahip olduğunu göstermiştir. Öte yandan Shen vd., [28] ise yaptıkları deneylerde YSA modelinden faydalanmışlardır.

Ahmed, vd., [29] derin öğrenme tekniği olan Otomatik Kodlayıcı (OK) kullanarak %75.01 doğruluk oranına sahip bir yöntem sunmuştur.

Deye, [30] ise derin inanç ağını kullanarak

%73,40 hassasiyet oranına ve %82,20'lik özel orana ulaşmıştır. Kang Li LIDC veri tabanında akciğer kanserini çok ölçekli iki katmanlı ESA üzerine çalışmıştır [31]. Elde edilen doğruluk oranı %86,84 olarak kaydedilmiştir.

3. Veri ve Yöntem

ESA; evrişim katmanı, ortak katman ve çıktı katmanı olarak olmak üzere 3 katmandan oluşmaktadır [27]. Bu katmanlar art arda getirilerek çok katmanlı bir yapı oluşturur. Girdi görüntüsünün örüntü verileri giderek boyut kaybeder. En son aşamada, girdi görüntüsünün öznitelikleri sınıflandırma için çıktı katmanı olarak haritalanır [32]. BT görüntülerinden nodül tanı ve sınıflandırması için önerilen yaklaşıma göre, ön işlem (preprocessing), öznitelik çıkarımı (feature extraction), boyut indirgeme (reduction) uygulandıktan sonra elde edilen verilere DÖ yöntemi uygulanarak sonuca gidilir. Başlangıçta BT görüntülerinin özelliklerinin (histogram, Texture) çıkarılması için bazı yöntemler denenmiştir [33]. Öznitelik çıkarım aşamasından sonra boyut indirgeme işlemi uygulanır (Şekil 2).

Boyut indirgemenin amacı, sınıflandırma yönteminde hesaplama süresini ve maliyetini azaltmaktadır. Boyut indirgeme için Doğrusal Ayrım Analizinden (DAA) faydalanılmıştır [25].

Sınıflandırma için kullanılan maksimum özellikler, hesaplama süresini ve depolama belleğini artırır. Sınıflandırma aşamasında BT akciğer görüntüleri, özelliklerine göre normal, iyi huylu ve kötü huylu olarak sınıflandırılır [34]. Genel olarak, sınıflandırma sorununun eğitim ve test olmak üzere iki aşaması vardır.

Diğer yandan, test aşamasında, sınıflandırma prosedürünün sonuçları, görüntülerin akciğer kanseri bölgelerini mi yoksa kanser dışı bölgeleri mi içerdiğini gösterir. Mevcut çalışma mimarisi şekil 2’de görülmektedir.

(5)

491 Şekil 2. Derin öğrenme mimarisi

Şekil 2’de gösterilen geleneksel ESA Mimarisi'ne bakıldığında ESA mimarisinin çoğunlukla 4 ana katmandan oluştuğu görülmektedir. Söz konusu 4 ana katman; girdi katmanı, havuzlama katmanı, Tam Bağımlı Katman (TBK) ve çıktı katmanı olarak adlandırılmaktadır. Bu katmanların farklı dizilişlerinden oluşturulan Inception, VGG, Resnet, AlexNet gibi ESA mimarileri, araştırmacıların çalışmalarına destek sağlamaktadır. ESA'lar bir görüntüdeki kalıpları keşfetmek için uygulanır. Bu, bir görüntü üzerinde kıvrılarak ve desenler aranarak yapılır. Ağ, ESA'ların birkaç ön katmanındaki çizgileri ve köşeleri algılayabilir.

Ancak sinir ağımız aracılığıyla bu kalıpları aşağıya aktarabilir ve daha derine indikçe daha karmaşık özellikleri tanımlamaya başlayabiliriz.

Bu özellik, ESA'ların görüntülerdeki nesneleri tespit etmede çok etkili olmasını sağlar.

3.1 Görüntü Veri Seti

Bu çalışmada kullanılan veri seti internette yayımlanmış, kalite kontrolü yapılmış bir kaynak olan Kanser Arşiv Merkezi’nden elde edilmiştir [36]. Dolayısıyla bir Etik Kurulu onam formu gerekmemektedir. BT taramaları DICOM

formatındadır. Bu formatta, hastalara ait klinik verilerin yanı sıra doğum tarihleri, çalışma bilgileri gibi kişisel veriler de sunulmaktadır [37]. Şekil 3. Farklı lezyon örnekleri gösterilmektedir.

Şekil 3. Farklı lezyon örnekleri. Üst sıra kötü huylu, alt sıra ise iyi huylu lezyonları göstermektedir.

Şekil 3’te görüldüğü üzere her vakada, BT taramasının ek açıklamalarını içeren bir XML dosyası bulunur. BT taraması DICOM görüntülerinin çözünürlüğü 512 x 512 x 3 genişliğindedir. Buradaki genişlik çok yüksek olduğundan yeniden örnekleme ile minimum seviyeye çekilmiştir. Burada genişlik 8 ila 64 dilim arasında değişmektedir. Bu veri kümesi

(6)

492 için dilim genişliğinin ortalama sayısı 250'dir.

BT görüntüleri 4 seviyeye ayrılmıştır: (1) Nodül yok, (2) İyi huylu olan veya kötü huylu olmayan hastalık, (3) Kötü huylu, (4) Bilinmiyor (veri yok). Veriler ile ilgili detaylar Tablo 1'de gösterilmiştir.

Tablo 1. Veri setinin temel bilgileri

Veri seti Özellikler

İşlem Sayısı 60

Seri Sayısı 120

Hasta Sayısı 60

Görüntü Sayısı 6053

Veri Formatı DICOM(BT)

Görüntü boyutu (GB) 4.8

3.2 Görüntü işleme

Bozuk, eski ve gürültülü görüntüleri iyileştirme, görünmesi zor ve tespit edilmesi gereken nesneleri keskinleştirme ve gözlemleme için kullanıcının istediği yararlı bilgilerin görüntüden çıkarılmasına olanak sağlayan işlemlerin tamamıdır. Bilgisayar görüntülerinin 3 renk (BGR) piksel bilgileri taşıması (gri, renksiz görüntüler tek bilgi taşır), bu bilgilerin bazı matematiksel matris hesaplamaları ile bir dizi işleme tabi tutulduğunda, görüntü üzerinde manipülasyonlar, değişimler yapılmasına imkân vermektedir.

3.2.1 Negatif görüntü

BT görüntüleri gri skala değerindeki görüntülerdir. 3 boyutlu görüntüler makine gücü düşük olduğundan gri tonlamalı görüntüye çevrilir. Böylece her pikselin çözünürlüğü 8 bit (0-255) aralığına iner. Herhangi bir zamanda gri görüntülerde görüntülenebilecek maksimum renk sayısı aralığı 0-256'dır. Orijinal veri seti 12 bitlik değerlerden oluşmaktadır. Bu 12 bitlik görüntüyü 8 bit (0-255) arasına sıkıştırırken veri kaybını önlemek için Veri Artırımı (Data Augmentation) tekniği uygulanmıştır. Akciğer BT görüntüleri karakteristik olarak net değildir.

Bu nedenle görüntü işlemede daha iyi performans elde etmek için gri tonlamalı görüntüyü negatif görüntüye çevirmek gerekir [38].

𝑃𝑖𝑥𝑒𝑙𝐷𝑒𝑔𝑒𝑟[𝑥, 𝑦] = 255 − 𝑃𝑖𝑥𝑒𝑙𝐷𝑒𝑔𝑒𝑟[𝑥, 𝑦] (1)

Burada x sütun sayısını ve y satır sayısını temsil eder. Şekil 4’te BT görüntüsünün negatifi gösterilmekte olup bulanık ve gürültülü olan görüntünün üzerine filtre uygulanarak görüntü daha anlaşılır hale getirilmiştir.

Şekil 4. BT görüntüsünün negatifi

Şekil 4’te siyah renkli bir pikselin değeri sıfırdır.

Bu pikselin değeri 255-0=255 olarak ayarlanırsa bu renk de beyaz olacaktır. Ya da beyaza yakın bir değer olan 212 değerini dönüştürürsek, 255-212=43 olacaktır. Bu da siyaha yakın bir renktir.

3.2.2 Gauss Bulanıklığı

BT görüntülerindeki zayıflıkları ve kör bölgeleri düzeltmek için Gauss filtreleri kullanılır. Yani BT görüntülerinde var olan gürültüleri azaltmak için her BT görüntüsünde Gauss bulanıklığı uygulanır (bkz. Şekil 5). Bu işlemi yaptıktan sonra, BT görüntüleri aynı özelliğe sahip olur [39].

Şekil 5. BT görüntülerine Gauss bulanıklığı uygulaması

Şekil 5'te görüldüğü gibi bulanıklaştırma, BT görüntülerini etkilediğinde görüntüdeki küçük bileşenlerin görselleştirilmesini ve görünürlüğünü azaltır. Bu nedenle, görüntünün bozulmamış biçimini bozuk sürümünden geri kazanmak ve görüntüye daha keskin bir görünüm vermek için Gauss bulanıklığı analizini uygulamak gerekir [40].

(7)

493 𝐺(𝑥) = 1

√2𝜋𝜎2− 𝑥2+𝑦2

2𝜎2 𝑆𝑖𝑔𝑚𝑎(𝜎) =

0.3𝑥((𝑘𝑒𝑟𝑛𝑒𝑙𝑠𝑖𝑧𝑒 − 1)𝑥0.5 − 1) + 0.8 (2) Formül 2’de x sütun sayısını ve y çekirdekteki satır sayısını göstermektedir. 7 × 7 çekirdek bu işlev için kullanılır.

3.2.3 Otsu Eşiği

Otsu yöntemi genel bir eşikleme tekniğidir. Eşik arama işlemi için görüntünün histogramını kullanır. Bölümlenmiş sınıfların "sınıf varyansı arasında" değerini en üst düzeye çıkarır [41].

Otsu eşiği, "varyans"ın en aza indirilmesi veya en üst düzeye çıkarılması ile sağlanır [42]. Eşik değerini belirlemek için tüm görüntü bilgileri kullanılmıştır ve görüntüdeki tüm piksellere eşit olarak uygulanmıştır. Eşik, verilerin karmaşıklığını azaltan, tanıma ve sınıflandırma vb. süreçlerde işlem kolaylığı sağlayan ikili bir görüntü üretilmesini mümkün kılar. Otsu değeri basitçe, iki varyansın ilişkili ağırlıklarıyla çarpımının toplamıdır. Bu son değer, eşik değeri 3 için 'ağırlıklı varyansların toplamıdır. Bu aynı hesaplamanın, 0 ila 5 arasındaki tüm olası eşik değerleri için yapılmaktadır. Otsu ile varyansı en aza indirmek için eşik değeri (t) bulur.

𝑎𝜔2(𝑡) = 𝑞1(𝑡)𝑎12(𝑡) + 𝑞2(𝑡)𝑎22(t) (3) Burada:

𝑞1(𝑡) = ∑ 𝑝(𝑖)

𝑡

𝑖=1

𝑞2(𝑡) = ∑ 𝑝(𝑖)

𝐼

𝑖=𝑡+1

Formülde görüldüğü üzere P (i), her piksel değerinin olasılığıdır. Eşik, görüntüleri bir görüntünün daha basit bir formuna ve Şekil 6.’da gösterildiği gibi akciğer nodülünün algılanmasına dönüştürür.

Şekil 6. BT görüntüsüne uygulanan Otsu eşiği Şekil 6'da Otsu tekniği uygulanan görüntünün daha net olduğu anlaşılmaktadır. Otsu'nun eşikleme yöntemi, tüm olası eşik değerlerinin yinelenmesini ve eşiğin her iki tarafındaki piksel seviyeleri için bir yayılma ölçüsü

hesaplamayı içerir, yani piksel değerleri ya ön plana çıkarlar ya da arka plana düşerler.

3.2.4 Görüntünün Bölünmesi

İnsan akciğeri simetriktir. Başlangıç noktasının merkezi seçilir ve bu nokta yardımıyla sağ ve sol akciğer görüntüsü bölünür. Python PIL kütüphanesi kullanılarak bütün görüntüler otomatik olarak kesilmiştir. Kesme işlemi görüntü_kes = görüntü [kenar :- kenar, kenar :- kenar] şeklinde yapılmıştır. Şekil 7’deki gibi görüntü o noktada kırpılarak sağ ve sol görüntü iki belirgin görüntüye dönüştürülür.

Şekil 7. Görüntünün bölünmesi

Şekil 7’de görüntü döndürülerek DÖ algoritmasının görüntüyü daha iyi algılaması sağlanmaktadır.

3.2.5 Doku özellikleri

Doku özellikleri için Haralick doku özellikler tercih edilmiştir. Doku özellikleri giriş görüntüsünden sadece histogram özelliklerinin yanında çıkarılır. [43]. Bu da daha iyi bir sınıflandırma doğruluğu elde etmeye yardımcı olur. Gri düzey oluşma matrisi, piksellerin uzaysal ilişkisini dikkate alan yüzeyin gözden geçirilmesi için istatistiksel bir yöntemi sembolize eder. Haralick doku özellikleri, görüntüdeki komşu gri seviye eş oluşum matrislerinin fonksiyonları, aynı değerlere sahip piksel çiftlerinin yinelemelerini tahmin ederek bir görüntünün dokusunu açıklar [44].

𝐺𝑝𝑖𝑗= 𝐹𝑖𝑗𝐿−1 𝐹𝑖𝑗 𝑖,𝑗=0

⁄ (2)

Yukarıdaki denklemde Fij, 'iki gri seviye arasındaki oluşum sıklığını' belirtir. L, belirtilen pencere boyutunu temsil eder. Belirli bir yer değiştirme vektörü için sayısallaştırılmış değerler ise "i" ve "j" dir.

 Enerji: Gri seviye dağılımındaki maksimum sabit değerlerini veya aralıklı tutarlılığın yüzeyin maksimum canlılığını şekillendirmeyi garanti eder.

(8)

494

 Entropi: Görüntüdeki sıkıştırma işlemi için gerekli olan veri miktarını ifade eder. Düşük entropili görüntü, atanan değerlerde küçük kontrast ve büyük miktarda görüntü pikseli gösterir [40].

 Homojenlik: Homojenlik kısıtlaması genellikle çift bileşenlerde minör gri ton için yaygın değerlerin değiştiği varsayılarak görüntü homojenliğini değerlendiren kontrast olarak adlandırılır [45].

 Kontrast: Bir görüntünün uzamsal tekrarını ve değişen gri seviye eş oluşum matrislerinin momentlerini hesaplar. Komşu piksel düzeninin maksimum ve temel değerleri arasındaki varyansı sembolize eder [46].

 Korelasyonlar: Korelasyon, bitişik piksellerin gri düzeylerinin doğrusal bağımlılığını değerlendirir. Dijital görüntü korelasyonunun izlenmesi, izlemeyi kötüye kullanan optik bir prosedür anlamına gelir.

4. Önerilen Mimari

Evrişimli Sinir Ağları: Nesne tanıma, beyin tümörü segmentasyonu ve sınıflandırması, meme kanseri tespiti gibi tıbbi problemlerin çözümünde DÖ oldukça ilgi görmektedir. ESA, DÖ’nün bir parçasıdır ve genellikle bilgisayarla görme problemlerine uygulanır. ESA mimarisi, yapısında bir evrişim katmanı, bir ortaklama katmanı ve bir tam bağlı katman olmak üzere 3 katmandan meydana gelmektedir. İlk iki katman, giriş görüntüsünden derin özellikleri çıkarır ve tam bağlı katman, çıkarılan özellikleri çıkış katmanına eşler. Böylece görüntünün gereksiz kısımlarının yapay sinir ağına gitmesi engellenir. Böylece sistem hızlı ve doğru sonuçlar verir. ESA, BT görüntülerine bir dizi öğrenilebilir filtre uygular. ESA’daki evrişim katmanı; filtre boyutu, uygulanan filtre sayısı ve evreler ile tanımlanabilir. Evrişimli bir katmanın girişi ve çıkışı, BT görüntüleri ile başlayan üç boyutlu (genişlik, yükseklik, kanal sayısı) bir yapıya sahiptir. Evrişim katmanları derlenirken, çıkışın genişliği ve yüksekliği en yüksek ortaklama (pooling) işlemi gerçekleştirilerek; derinlik ise daha fazla veya daha az filtre kullanılarak elde edilir.

Evrişim Katman: Öznitelik çıkarma işlemini gerçekleştirir. Doğrusal evrişim işlemi ve doğrusal olmayan etkinleştirme işlevi, evrişim adımını gerçekleştirmek için gereken iki temel işlemdir. Doğrusal evrişim sürecinde, girdi görüntüsünden özellikleri çıkarmak için bir

özellik dedektörü veya çekirdek kullanılır. “Bir özellik haritası veya aktivasyon haritası olarak da bilinen kıvrımlı bir görüntü oluşturmak için giriş tensörü ve çekirdek arasında eleman bazlı ürün operasyonu gerçekleştirilir. Bu evrişimin birincil amacı, giriş görüntüsünün boyutunu azaltmaktır” [52].

Ortaklama Katmanı: Birleşik bir özellik haritası oluştururken özellik haritasının boyutunu küçültmek için kıvrılmış görüntüden özellikleri çıkarır. Ortaklama katmanında maksimum havuzlama, ortalama havuzlama gibi farklı havuzlama türleri kullanılmaktadır. Daha sonra birleşik özellik haritası tek boyutlu bir sütuna dönüştürülür ve sonraki işlemler için sinir ağına beslenir.

Tam Bağlı Katman: Tam Bağlı Katman, Şekil 11’de gösterildiği gibi bir çıkış katmanı ve bir giriş katmanının birleşiminden oluşur. Bütün düğümler tamamen bağlı olduğundan, Tam bağlı katmanlar gizli katman olarak da bilinir.

Bu katmanlarda ReLU aktivasyon fonksiyonu olarak kullanılır. Son tahmin, çıktı katmanında aktivasyon fonksiyonu olarak SoftMax veya sigmoid kullanılarak yapılır. Ağ performansının değerlendirilmesi, tahmin hatası veya kayıp fonksiyonunun 0'a yakınlığı ile ölçülür. Ağı optimize etmek için bu fonksiyonun en aza indirilmesi gerekir. Mükemmel bir tahmin elde etmek için tahmin hatası ağ üzerinden geri yayılır [52]. Yapılan çalışmada hız ve modülerlik göz önünde bulundurularak 124 GB veri yerine sadece 4.8 GB veri ile çalışılmıştır. Yapılan deneyler kullanılan modeller Tablo 2’de gösterilmektedir

Tablo 2. Modellere ait bilgiler

Model Ktmn Filtre Parmtr Süre

AlexNet 8 11x11 60

milyon 3 saat

VGG-16 19 3x3 138

milyon 6 saat Inception

-v4 22 5x5 5

milyon 4 saat MobileNe

t-V3 32 3x3 5.4

milyon 6 saat

(9)

495 Bütün deneyler, 36 GB belleğe sahip NVIDIA GeForce GTX ekran kartına sahip Windows 10 işletim sistemiyle ve programlama dili olarak da Python ile yapılmıştır.

4.1.1 MobileNet V3

MobileNet etkili bir ESA ağıdır. MobileNet ayrılabilir evrişim derinliği olan bir yapıdadır [19]. MobileNet’in nesne algılama, detaylı sınıflandırma, ince ayar gibi pek çok işlevi bulunmaktadır. Daha çok mobil ve gömülü görüş uygulamaları için tasarlanmıştır.

MobileNet, derin sinir ağları oluşturmak için derinlik olarak ayrılabilir kıvrımlar kullanan aerodinamik bir mimariye dayanmaktadır. Şekil 8’de MobileNet v3 uygulama şeması gösterilmektedir.

Şekil 8. MobileNet v3 uygulama şeması Şekil 8’de gösterildiği gibi MobileNet V3, NetAdapt algoritması sayesinde büyük boyutlu görüntüler üzerinde çok hızlı işlem yapma avantajları içermektedir. MobileNet V3 sayesinde bilgisayar konfigürasyonu düşük olsa dahi işlem hızı bakımından MobileNet V3’ün diğer modellere üstünlük sağladığı gözlemlenmiştir. Diğer modeller 10-32 paket BT görüntü verisi işleyebilirken MobileNet V3 128 paket boyutu işlemi aynı hızla yapabilmektedir.

𝐺𝑘,𝑙,𝑚= ∑ 𝐾𝑘,𝑙,𝑚. 𝐹𝑘+𝑖−1,𝑙+𝑗,𝑚 𝑛

𝑘,𝑗 (6)

Burada k, evrişimsel çekirdek ve F'deki kanallardan birinde filtrelenmiş çıktı özellik haritasının üretilmesini göstermektedir [47].

Öncellikle BT görüntüleri alınarak sisteme girdi olarak verilir, bu görüntüler yığın normalleştirmeyle 0-1 arasındaki değerlere dönüştürülür. Şekil 9’da MobileNet V3 model eğitiminde doğruluk seviyesi gösterilmektedir.

Şekil 9. MobileNet V3 model eğitiminde doğruluk seviyesi

Şekil 9’da görüldüğü gibi MobileNet V3 ile yapılan deney sonucunda işlemler 100 epok kadar ilerlediğinde MobileNet V3 kesinlik grafiğinde dalgalanmalar çoğalırken doğruluk daha az dalgalanma yaşamış ve işlem kısmen daha başarılı olmuştur.

4.1.2 Inception-v4

Bilgisayar görüşünde, Inception etkili bir derin sinir ağı mimarisidir [7]. Başlangıç algoritması, yerleşik veya mobil bilgi işlem aygıtları için çok daha iyi performans gösterir. Derin ESA’da doğruluğu artırmanın yolu, her bir düzeydeki ortalama boyutlarda çalışma düzeyi ve birim sayısını artırmaktır. Başlangıçta 1×1, 3×3, 5×5 evrişim filtresi ve 3×3 maksimum ortaklama filtresi kullanılır. Evrişim katmanında maksimum ortaklama işlemi çok etkilidir.

Başlangıç, optimum seyrek mimari ve diğer mimariden 3 ~ 10 kat daha hızlıdır.

4.1.3 VGG-16

Bu modelde ise veri eğitimi için VGG-16 kullanılmıştır. BT görüntüleri eğitim ve test için iki sete ayrılmıştır. Bir ESA mimarisi olan VGG- 16'nın 16 katmanı bulunmaktadır. Katmanlar;

evrişimli katmanlar, maksimum ortaklama katmanları, aktivasyon katmanları ve tam bağlı katmanlardan oluşur. 13 evrişimli, 5 maksimum ortaklama ve 3 yoğun katman olmak üzere toplam 21 katmandan oluşmasına rağmen sadece 16 ağırlık katmanı vardır [35]. Şekil 10’da görüldüğü gibi evrişim 1'de 64 filtre bulunurken evrişim 2'de 128, evrişim 3'te 256, evrişim 4 ve 5’te 512 filtre bulunur.

(10)

496 Şekil 10. VGG-16 Şeması [35]

Şekil 10’da görüldüğü gibi VGG16 modelini özel kılan, çok sayıda hiper parametreye kullanmak yerine, adım 1 ile 3x3 filtreden oluşan evrişim katmanlarına odaklanmış olmasıdır. Ayrıca VGG-16 yapısı; evrişim, ortaklama ve tam bağlı katmanlardan oluşur. Toplam 21 ana katmandan meydana gelen VGG-16 tam olarak artan bir ağ yapısına sahiptir. 224×224 görüntü çözünürlüğüne sahiptir.

4.1.4 AlexNet

AlexNet, ESA mimarilerinin en ünlülerinden biridir. Yapı olarak çok katmanlıdır. Tam bağımlı ve üç maksimum ortaklama katmanı yanı sıra beş kıvrımlı katmandan oluşur. İkinci aşamada veri üzerine sadece AlexNet uygulanmış ve sonuçları kaydedilmiştir.

AlexNet, aktivasyon fonksiyonu olarak LeakyReLu, ReLu, SoftMax ve ortaklama katmanlarından da maksimum ortaklama kullanmaktadır. Yaklaşık 60 milyon parametrenin kullanıldığı AlexNet, paralel çift GPU üzerinde çalışan ilk model olma özelliğine de sahiptir. Şekil 11. AlexNet modeli gösterilmektedir.

Şekil 11. BT görüntülerinde akciğer hastalıklarının sınıflandırılması için önerilen yöntemin akış şeması

Şekil 11’de görüldüğü gibi ilk adımda AlexNet ile önce eğitilmiş ağın birinci kısmı dışa aktarılmıştır. İkinci adımda elde edilen öznitelik kısmı yeni tasarlanmış bir ikinci yarı kısmına

(eğitilmemiş tam bağlantı katmanları) bağlanır;

önerilen ağın temel mimarisi bu şekilde oluşur [11]. Öğrenme ünitelerinin rastgele deaktif hale gelmesi için tam bağlantılı katmanlarda %50 çıkarma uygulanmıştır. Böylece Softmax ile her eğitim yinelemesinin sonunda ağırlıklar değişir bu da genelleme performansının artışıyla sonuçlanır. Buna ek olarak, aşırı uymanın önüne geçmek ve genelleme performansını iyileştirmek için L2-norm düzenlileştirmesi benimsenmiştir. Üçüncü adımda, 3 bileşen görüntüsünün dalgacık katsayıları yeni inşa edilmiş ağın üç girdi kanalına verilir; bunu takiben yeniden eğitim için geri yayılım gerçekleşir [50].

Ağı eğitmek için 0,9 ivme ile stokastik gradyan iniş yöntem kullanılmıştır. Veri setinin (6053 vaka) yaklaşık %70’i (4237 vaka) eğitim için geri kalan %30 (1816) doğrulama için kullanılmıştır. Devirlerin sayısını belirlemek için hatasızlık doğrulaması her yinelemenin sonunda gerçekleştirilmiştir. 5 yinelemeden sonra hatasızlık azami değere ulaşmazsa öğrenme süreci durmaktadır. Çapraz entropi, kayıp fonksiyonu olarak kullanılmıştır. Kaybı azaltmak için SoftMax’ten yararlanılmıştır.

Softmax sınıflayıcı olarak kullanıldığında oldukça iyi bir performans gösterir. En önemli özelliği ikiden fazla sınıflama gereken durumlarda kullanılmasıdır. Burada özellikle birinci aşamada BT görüntüsü hastalık mı değil mi şayet hastalıklı ise hangi tür hastalık içermekte olduğunu belirlemek için kullanılmıştır. Önerilen ağın eğitim kaybı ve hatasızlık izleri şekil 11’de gösterildiği gibidir.

Tablo 2’deki bulgulardan yola çıkarak öğrenmenin doğru bir şekilde uygulandığını varsaymak mümkündür.

Son aşama olarak da çapraz doğrulama uygulanmıştır. Çapraz doğrulamada (k-fold) k değeri 5 olarak hesaplanmıştır ki bunun için şekil 12’deki dışarda tutma (holdout) yönteminden yararlanılmıştır.

Şekil 12. Dışarda tutma yöntemi

(11)

497 Şekil 12’deki gibi dışarda tutma yöntemi uygulanan veriler varyans ve bias sorunu yaşamaz. Overfitting (ezberleme) sorunu oluşmaz. Tablo 3’te Evrişimli sinir ağları yöntemi ile Akciğer BT verisi üzerinde yapılan deney sonuçları gösterilmektedir.

Tablo 3. Evrişimli sinir ağları yöntemi ile Akciğer BT verisi üzerinde yapılan deney sonuçları

Model Kesinl

ik Hassas

lık Doğr

uluk Özgü llük F1 MobileNet

v3 0.61 0.65 0.81 0.93 0.82

VGG-16 0.86 0.95 0.84 0.98 0.84

Inception

v4 0.96 0.96 0.86 0.74 0.87

AlexNet 0.98 0.97 0.96 0.87 0.97

Tablo 3’te görüldüğü gibi en iyi performansı AlexNet göstermiştir.

4.1.5. Performans parametreleri

Performans farklı parametrelerle ölçülür.

Bozkurt çalışmasında farklı tekniklerin performansını, özgüllük, kesinlik, hassasiyet, F1- skoru, doğruluk olmak üzere beş ölçüt kullanılarak değerlendirilebileceğini belirtmiştir [51]. Bu değerler, her bir sınıf için hata matrisleri üzerinden hesaplanır. Her derin sinir ağı için doğruluk, özgüllük ve hassaslık Tablo 4’teki formüllere göre hesaplanır. Bu bir ikili sınıflandırma görevidir. Böylece sonuç dört şekilde oluşturulabilir. Bunlar:

 Doğru Pozitif (DP): BT görüntüsünde akciğer nodülü bulunur ve nodül ile BT görüntüsü olarak sınıflandırılır [48].

 Yanlış Pozitif (YP): BT görüntüsünde akciğer nodülü yoktur ve nodül BT görüntüsü olarak sınıflandırılır [48].

 Doğru Negatif (DN): BT görüntüsünde akciğer nodülü yoktur ve nodül olmadan BT görüntüsü olarak sınıflandırılır [47].

 Yanlış Negatif (YN): BT görüntüsünde akciğer nodülü bulunur ve nodül bulunmayan BT görüntüsü olarak sınıflandırılır [47].

Tablo 4. Performans ölçümü parametreleri 1) Hassasiyet: BT görüntüsünün akciğer nodülüne sahip olduğu oranı, nodül ile BT görüntüsü olarak doğru bir şekilde sınıflandırır.

Hassasiyet = DP

DP+YN (7) 2) Özgüllük: BT görüntüsünün akciğer nodülü içermeyen oranı nodül olmadan BT görüntüsü olarak doğru bir şekilde sınıflandırır.

Özgüllük = DN

DN+YP (8) 3) Doğruluk: Doğruluk, doğru sınıflandırılan BT görüntülerinin oranını temsil eder.

Doğruluk = DP+DN

DP+DN+YP+YN (9) 4. F1 skoru: F1 Score değeri bize Kesinlik ve Duyarlılık değerlerinin harmonik ortalamasını göstermektedir

F1 − skoru = DP

DP+1/2(YP+YN) (10) 5. Kesinlik: Pozitif tahmin değeri olarak da bilinen kesinlik alınan örnekler arasındaki ilgili örneklerin oranıdır.

Kesinlik = DP

DP+YP) (11)

4.2 Aşama Bulguları

Bu aşamada ise önceden eğitilmiş ağ içeren AlexNet tabanlı özgün bir transfer öğrenme yöntemi önerilmiştir. Bu metot yeni tasarlanmış tam bağlantılı katmanlara bağlanmıştır. Normal vakalar da dahil olmak üzere akciğer BT görüntülerinden kanseri sınıflandırmak için dalgacık katsayıları girdi olarak kullanılmıştır.

Önerilen yöntemin işe yararlığını ve verimliliğini teyit etmek için elde edilen sonuçlar aşama 1 ile karşılaştırılmıştır. Toplam hatasızlık diğer iki metot ile elde edilenlerden daha yüksektir. Bu da önerilen yöntemin üstünlüğünü kanıtlamaktadır.

5. Deney Sonucu

Uygulanan yöntemler 100 epok ve her bir epokta 23 devir olarak çalıştırılmıştır. Elde edilen sonuçlardan en yüksek değer seçilmiştir.

Her modelde hesaplanan özgüllük, hassasiyet, kesinlik, F1-skoru ve doğruluktur. Benzer sonuçları J. Kuruvilla çalışmasında görmek de mümkündür [15]. Öte yandan Sharma ve Zerbe [49] nodülü değil %86 özgüllüğü ve %92 hassaslığı ile nodülü sınıflandırmış, bunun

(12)

498 benign ve malignant nodülleri olup olmadığını ortaya koymuştur. Bu çalışmanın sonuçları şekil 13’te gösterilmiştir.

Şekil 13. Modellere ait doğruluk, hassaslık ve özgüllük oranları

Şekil 13’te yapılan deneylerin sonuçları, doğruluk, kesinlik, hassaslık, özgünlük değerleri bakımında grafik olarak gösterilmektedir.

Grafikte görüldüğü üzere, I. aşamada Inception v4 modeli ile en iyi doğruluk oranı gösterilmiştir. II. aşamada AlexNet metodu en başaralı sonuç olmuştur.

6. Genel Sonuç ve Öneriler

Bu çalışmada 6053 BT görüntüleri kanser arşiv merkezinden alınarak I. Aşama için verinin

%70’i eğitim, geri kalan %30’u test için kullanılmıştır. II. aşamada ise verinin %60’ı eğitim, %20’si test ve kalan %20’si ise doğrulama için kullanılmıştır. BT görüntüleri ön işleme ve öznitelik çıkarımı yapıldıktan sonra iki aşamalı olarak DÖ yöntemi ile hastanın kanser olup olmadığı, kanser ise bunun iyi huylu mu yoksa kötü huylu mu olduğu belirlenmiştir. Yapılan çalışmada I. aşamada Inception v4 en iyi sonucu verirken II. aşamada AlexNet en iyi sonucu ortaya koymuştur. Bunun nedeni ise verinin farklı bölünmesidir. Verinin

%80’i eğitim ve %20’si test için bölünüp kullanıldığında AlexNet yönteminin daha başarılı olduğu saptanmıştır.

Shen, Han, Aberle, Bui ve Hsu (2019) tarafından nodülün malignite olup olmadığının teşhis edilebilmesini ve nodülde bulunan anlamsal özelliklere dair tahminlerin ortaya çıkarılabilmesini amaçlayan bir ağ (Hiyerarşik Anlamsal ESA) geliştirilmiştir. Fakat geliştirdikleri modeli eğitirken; yalnızca LIDC- IDRI veri kümesini kullanarak geleneksel

ESA’ya bağlı kalmaları sebebiyle modelleri başarısızlığa uğramıştır

Gelecek çalışmalarda sınıflandırma hatasızlığını daha da iyileştirmek için farklı dalgacık taban fonksiyonları kullanmanın sınıflandırma üzerindeki etkisini incelemek ve yeni bir mimari geliştirmek planlanmaktadır. Önerilen yöntemin diğer hastalık sınıflandırmalarında ve farklı görüntüleme yöntemlerinde de yeterli güvenirlikte olduğu ve kullanılabileceği değerlendirilmektedir.

Kaynakça

[1] E. Cengil and A. Çinar, “A Deep Learning Based Approach to Lung Cancer Identification, ” 2018 Int.

Conf. Artif. Intell. Data Process. IDAP 2018, 2019, doi:

10.1109/IDAP.2018.8620723.

[2] Paul, D., Su, R., Romain, M., Sébastien, V., Pierre, V., &

Isabelle, G. (2017). Feature selection for outcome prediction in oesophageal cancer using genetic

algorithm and random forest

classifier. Computerized Medical Imaging and Graphics, 60, 42-49.

[3] Y. Xu et al., “Deep learning predicts lung cancer treatment response from serial medical imaging, ” Clin. Cancer Res., vol. 25, no. 11, pp. 3266–3275, 2019, doi: 10.1158/1078-0432.CCR-18-2495.

[4] M. F. Serj, B. Lavi, G. Hoff, and D. P. Valls, “A Deep Convolutional Neural Network for Lung Cancer Diagnostic, ” pp. 1–10, 2018.

[5] K. Munir, H. Elahi, A. Ayub, F. Frezza, and A. Rizzi,

“Cancer diagnosis using deep learning: A bibliographic review, ” Cancers (Basel)., vol. 11, no. 9, pp. 1–36, 2019, doi: 10.3390/cancers11091235.

[6] S. K. Lakshmanaprabu, S. N. Mohanty, K. Shankar, N.

Arunkumar, and G. Ramirez, “Optimal deep learning model for classification of lung cancer on CT images, ” Futur. Gener. Comput. Syst., vol. 92, pp. 374–382, 2019, doi: 10.1016/j.future.2018.10.009.

[7] H. Park and C. Monahan, “Genetic Deep Learning for Lung Cancer Screening, ” 2019.

[8] D. Learning, E. Detection, and L. Cancer, “Deep Learning – Early Detection of Lung Cancer with CNN,

” no. Lidc, pp. 2–4, 2019.

[9] S. Kumar, “Importance of Artificial Intelligence – Machine Learning & Deep Learning Prediction in Cancer Diagnosis using Logistic Regression, ” vol. 5, no. November, 2019.

[10] J. L. Causey et al., “Lung cancer screening with low- dose CT scans using a deep learning approach, ” 2019.

[11] L. Ebner et al., “Lung nodule detection by microdose CT versus chest radiography (standard and dual- energy subtracted), ” Am. J. Roentgenol., vol. 204, no.

4, pp. 727–735, 2015, doi: 10.2214/AJR.14.12921.

[12] S. S. Singh, A. Dahal, L. Shrestha, and S. D. Jois,

“Genotype Driven Therapy for Non-Small Cell Lung Cancer: Resistance, Pan Inhibitors and Immunotherapy, ” Curr. Med. Chem., 2019, doi:

10.2174/0929867326666190222183219.

(13)

499 [13] M. J. Ahn et al., “136O: Osimertinib combined with

durvalumab in EGFR-mutant non-small cell lung cancer: Results from the TATTON phase Ib trial, ” J.

Thorac. Oncol., vol. 11, no. 4, p. S115, 2016, doi:

10.1016/S1556-0864(16)30246-5.

[14] A. Sharma and R. Rani, “An optimized framework for cancer classification using deep learning and genetic algorithm, ” J. Med. Imaging Heal. Informatics, 2017, doi: 10.1166/jmihi.2017.2266.

[15] J. Kuruvilla and K. Gunavathi, “Lung cancer classification using neural networks for CT images, ” Comput. Methods Programs Biomed., 2014, doi:

10.1016/j.cmpb.2013.10.011.

[16] Y. Wang, “Interactive Machine Learning with Applications in Health Informatics, ” 2018.

[17] Q. Z. Song, L. Zhao, X. K. Luo, and X. C. Dou, “Using Deep Learning for Classification of Lung Nodules on Computed Tomography Images, ” J. Healthc. Eng., vol.

2017, 2017, doi: 10.1155/2017/8314740.

[18] S. U. R. Mir, I. S. A. Ahmed, S. Arnold, and R. J. Craven,

“Elevated progesterone receptor membrane component 1/sigma-2 receptor levels in lung tumors and plasma from lung cancer patients, ” Int. J. Cancer, 2012, doi: 10.1002/ijc.26432.

[19] M. S. Rahman, P. C. Shill, and Z. Homayra, “A New Method for Lung Nodule Detection Using Deep Neural Networks for CT Images, ” 2nd Int. Conf.

Electr. Comput. Commun. Eng. ECCE 2019, pp. 1–6, 2019, doi: 10.1109/ECACE.2019.8679439.

[20] Z. Zhong et al., “3D fully convolutional networks for co-segmentation of tumors on PET-CT images, ” Proc.

- Int. Symp. Biomed. Imaging, vol. 2018-April, no. Isbi, pp. 228–231, 2018, doi: 10.1109/ISBI.2018.8363561.

[21] W. Alakwaa, M. Nassef, and A. Badr, “Lung cancer detection and classification with 3D convolutional neural network (3D-CNN), ” Int. J. Biol. Biomed. Eng., vol. 11, no. November, pp. 66–73, 2017, doi:

10.14569/ijacsa.2017.080853.

[22] Q. Z. Song, L. Zhao, X. K. Luo, and X. C. Dou, “Using Deep Learning for Classification of Lung Nodules on Computed Tomography Images, ” J. Healthc. Eng., 2017, doi: 10.1155/2017/8314740.

[23] T. Pandiangan, I. Bali, and A. R. J. Silalahi, “Early lung cancer detection using artificial neural network, ” Atom Indones., 2019, doi: 10.17146/aij.2019.860.

[24] T. Heeneman and M. Business Analytics, “Lung nodule detection by using Deep Learning, ” no.

January, 2018.

[25] A. M. Mesleh, “Lung cancer detection using multi- layer neural networks with independent component analysis: A comparative study of training algorithms,

” Jordan J. Biol. Sci., 2017.

[26] R. Dey, Z. Lu, and Y. Hong, “Diagnostic classification of lung nodules using 3D neural networks, ” Proc. - Int.

Symp. Biomed. Imaging, vol. 2018-April, pp. 774–778, 2018, doi: 10.1109/ISBI.2018.8363687.

[27] S. Li et al., “Predicting lung nodule malignancies by combining deep convolutional neural network and handcrafted features, ” Phys. Med. Biol., 2019, doi:

10.1088/1361-6560/ab326a.

[28] S. Shen, S. X. Han, D. R. Aberle, A. A. Bui, and W. Hsu,

“An interpretable deep hierarchical semantic convolutional neural network for lung nodule malignancy classification, ” Expert Syst. Appl., 2019, doi: 10.1016/j.eswa.2019.01.048.

[29] A. Shaffie et al., “A generalized deep learning-based diagnostic system for early diagnosis of various types of pulmonary nodules, ” Technol. Cancer Res. Treat., 2018, doi: 10.1177/1533033818798800.

[30] 6(1). http://doi.org/10.1186/s13613-015-0104-6 Deye, N., Vincent, F., Michel, P., Ehrmann, S., Da Silva, D., Piagnerelli, M., … Laterre, P.-F. (2016). Changes in cardiac arrest patientsâ€TM temperature management after the 2013 “TTM” trial:

Results from an international survey. Annals of Intensive et al., “Understanding knowledge and attitudes about breast cancer and its treatment in Ethiopia, ” Ann. Glob. Heal., 2015.

[31] S. Engineering, “DEEP NEURAL NETWORKS FOR HUMAN MOTION ANALYSIS IN BIOMECHANICS APPLICATIONS by Deep Neural Networks for Human Motion Analysis in Biomechanics Applications By RAHIL MEHRIZI Dissertation Director : Kang Li, ” 2019.

[32] H. Polat and H. D. Mehr, “Classification of pulmonary CT images by using hybrid 3D-deep convolutional neural network architecture, ” Appl. Sci., vol. 9, no. 5, 2019, doi: 10.3390/app9050940.

[33] E. Matsuyama and D.-Y. Tsai, “Automated Classification of Lung Diseases in Computed Tomography Images Using a Wavelet Based Convolutional Neural Network, ” J. Biomed. Sci. Eng., vol. 11, no. 10, pp. 263–274, 2018, doi:

10.4236/jbise.2018.1110022.

[34] D. Zhang, L. Zou, X. Zhou, and F. He, “Integrating Feature Selection and Feature Extraction Methods with Deep Learning to Predict Clinical Outcome of Breast Cancer, ” IEEE Access, 2018, doi:

10.1109/ACCESS.2018.2837654.

[35] Tekade, R., & Rajeswari, K. (2018, August). Lung cancer detection and classification using deep learning. In 2018 Fourth International Conference on Computing Communication Control and Automation (ICCUBEA) (pp. 1-5). IEEE..

[36] The Cancer Imaging Archive (TCIA). 2020. TCIA Collections - The Cancer Imaging Archive (TCIA).

[online] Available at:

<https://www.cancerimagingarchive.net/collections /> [Accessed 31 May 2020].

[37] P. Kaur and R. Bhatia, “A Review on Lung Cancer Detection Using PET/CT Scan, ” Int. J. Adv. Res.

Comput. Sci. Softw. Eng., vol. 7, no. 5, pp. 977–981, 2017, doi: 10.23956/ijarcsse/v7i5/0120.

[38] K. H. Yu et al., “Predicting non-small cell lung cancer prognosis by fully automated microscopic pathology image features, ” Nat. Commun., 2016, doi:

10.1038/ncomms12474.

[39] C. E. Rasmussen and C. K. I. Williams, Gaussian Processes for Machine Learning. 2018.

[40] A. M. Santos, A. O. De Carvalho Filho, A. C. Silva, A. C.

De Paiva, R. A. Nunes, and M. Gattass, “Automatic detection of small lung nodules in 3D CT data using Gaussian mixture models, Tsallis entropy and SVM, ” Eng. Appl. Artif. Intell., 2014, doi:

10.1016/j.engappai.2014.07.007.

[41] R. Helen, N. Kamaraj, K. Selvi, and V. Raja Raman,

“Segmentation of pulmonary parenchyma in CT lung images based on 2D Otsu optimized by PSO, ” in 2011 International Conference on Emerging Trends in Electrical and Computer Technology, ICETECT 2011,

(14)

500 2011, doi: 10.1109/ICETECT.2011.5760176.

[42] J. Bhatt, M. Joshi, and M. Sharma, “Early detection of lung cancer from CT images: nodule segmentation and classification using deep learning, ” 2018, doi:

10.1117/12.2309530.

[43] P. Mohamed Shakeel, M. I. Desa, and M. A.

Burhanuddin, “Improved watershed histogram thresholding with probabilistic neural networks for lung cancer diagnosis for CBMIR systems, ” Multimed.

Tools Appl., 2019, doi: 10.1007/s11042-019-7662-9.

[44] Y. Xie, J. Zhang, S. Liu, W. Cai, and Y. Xia, “Lung nodule classification by jointly using visual descriptors and deep features, ” in Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 2017, doi: 10.1007/978-3-319-61188-4_11.

[45] Y. Liu, H. Wang, Y. Gu, and X. Lv, “Image classification toward lung cancer recognition by learning deep quality model, ” J. Vis. Commun. Image Represent., 2019, doi: 10.1016/j.jvcir.2019.06.012.

[46] S. Li et al., “Predicting lung nodule malignancies by combining deep convolutional neural network and handcrafted features, ” Phys. Med. Biol., vol. 64, no.

17, 2019, doi: 10.1088/1361-6560/ab326a.

[47] R. V. M. Da Nóbrega, S. A. Peixoto, S. P. P. Da Silva, and P. P. R. Filho, “Lung Nodule Classification via Deep Transfer Learning in CT Lung Images, ” in Proceedings - IEEE Symposium on Computer-Based

Medical Systems, 2018, doi:

10.1109/CBMS.2018.00050.

[48] P. Nardelli et al., “Pulmonary Artery-Vein Classification in CT Images Using Deep Learning, ” IEEE Trans. Med. Imaging, 2018, doi:

10.1109/TMI.2018.2833385.

[49] H. Sharma, N. Zerbe, I. Klempert, O. Hellwich, and P.

Hufnagl, “Deep convolutional neural networks for automatic classification of gastric carcinoma using whole slide images in digital histopathology, ” Comput. Med. Imaging Graph., 2017, doi:

10.1016/j.compmedimag.2017.06.001.

[50] J. Günther, P. M. Pilarski, G. Helfrich, H. Shen, and K.

Diepold, “Intelligent laser welding through representation, prediction, and control learning: An architecture with deep neural networks and reinforcement learning, ” Mechatronics, vol. 34, pp.

1–11, 2016, doi:

10.1016/j.mechatronics.2015.09.004.

[51]BOZKURT, F. Derin Öğrenme Tekniklerini Kullanarak Akciğer X-Ray Görüntülerinden COVID-19 Tespiti. Avrupa Bilim ve Teknoloji Dergisi, (24), 149- 156.

[52] Özbay, E., & Özbay, F. A. Derin Öğrenme ve Sınıflandırma Yaklaşımları ile BT görüntülerinden Covid-19 Tespiti. Dicle Üniversitesi Mühendislik Fakültesi Mühendislik Dergisi, 12(2), 211-219.

Referanslar

Benzer Belgeler

 Pooling katmanı çıkışı 3D alınır ve fully connected ANN ile 1D vektör çıkışı elde

Hatanın geri yayılımı (Gizli katman 1 ve gizli katman 2 arasındaki ağırlıklar için) Yeni ağırlık değerleri.. Yeni

 Tekrarlayan sinir ağları (recurrent neural networks) önceki çıkışı veya gizli katmanın önceki durumlarını giriş olarak alır..  Herhangi bir t zamanındaki

 Discriminator loss function, discriminator hatasını değerlendirir (gerçek veriyi sahte veya sahte veriyi gerçek sınıflandırma)..  Discriminator hata değerine göre

 Kısmi türev değeri büyük olan bir parametre için öğrenme oranı hızlı azalır, küçük olan için azalma yavaştır.  Başlangıçtan itibaren gradyan değerlerinin

Sonuç olarak; epigenetik değişiklikler akciğer kanseri gelişimi ve ilerlemesinde bildiklerimizin ötesinde, son zamanlarda daha sık olarak araştırılmış, kanser tanı

Yapılan çalıĢmada gri seviye eĢ oluĢum matrisi temelli doku analizi (GLCM, Gray Level Cooccurrance Matrix), dalgacık dönüĢümü temelli ayrıĢtırma, iki

Aynı veru kümelerunun GoogLeNet derun öğrenme modelu ule eğutulmesu durumunda, bölütlenmuş görüntü kullanan GoogLeNet modelunun, orujunal görüntü kullanılarak