• Sonuç bulunamadı

Yeni bir ögrenme algoritması: SinAdaMax

N/A
N/A
Protected

Academic year: 2021

Share "Yeni bir ögrenme algoritması: SinAdaMax"

Copied!
4
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

Yeni Bir Ö˘grenme Algoritması: SinAdaMax

A New Learning Algorithm: SinAdaMax

Burak Çatalba¸s, Ömer Morgül

Elektrik ve Elektronik Mühendisli˘gi Bölümü

Bilkent Üniversitesi Ankara, Türkiye

{catalbas, morgul}@ee.bilkent.edu.tr

Özetçe —Yapay Sinir A˘gları yakla¸sık 21. yüzyılın ilk 10 yılından sonra ba¸slayan ‘Derin Ö˘grenme’ ça˘gından beri makine ö˘grenmesi alanını büyük ölçüde etkilemektedir. Sinir a˘gı e˘gitimi ba¸sarısı a˘g parametrelerini modifiye eden eniyileyicilere oldukça ba˘glıdır ve eniyileyicinin uygulandı˘gı a˘gların e˘gitimdeki ba¸sa-rısını önemli oranda etkiler. Bu çalı¸smada, farklı eniyileyiciler duygu analizi, görsel sınıflandırması gibi farklı problemlerde kullanılmı¸s ve ba¸sarılarının gösterilmesi için kıyaslanmı¸stır. Bu ara¸stırmada önceden önerdi˘gimiz yeni eniyileyici SinAdaMax’in ba¸sarısını göstermek için, tekrarlı ve evri¸simsel a˘g tipleri ile farklı veri setlerinde, yaygın olarak bilinen di˘ger eniyileyiciler da denenmi¸stir.

Anahtar Kelimeler—Yapay sinir a˘gları, Eniyileyici, CIFAR-10, IMDb Geni¸s Film Yorumu Veri Seti.

Abstract—Artificial Neural Networks are clearly influencing the field of machine learning since the age of the ‘Deep Learning’, roughly starting after the first 10 years of the 21st century. The neural network training success highly depends on the optimizers which modify the network weights, and these learning algorithms affect the success of the training of the networks significantly. In this work, different optimizers are employed in different problems like sentiment analysis and image classification for comparing and figuring out the successful ones. To show the success of the new optimizer SinAdaMax we proposed previously, recurrent and convolutional neural networks on different datasets are used with other well-known learning algorithms in this research.

Keywords—Artificial neural networks, Optimizer, CIFAR-10, IMDb Large Movie Review Dataset.

I. G˙IR˙I ¸S VEMOT˙IVASYON

Yapay sinir a˘gları, 1940’larda bulunmasına ra˘gmen lite-ratürdeki yükseli¸si 1990’lar sonrasında ya¸sanmı¸stır. Determi-nistik yöntemler olarak adlandırılan Destek Vektör Makineleri (DVM) ve benzeri yöntemlerin 2000’ler sonrasında literatürde yo˘gunla¸smasından sonra, 2010’da G.E. Hinton’ın ReLU maka-lesi [1] ve literatürdeki di˘ger ara¸stırmalar ile yapay sinir a˘gları alanda öne çıkmaya ba¸slamı¸stır.

Ön-beslemeli ve evri¸simsel sinir a˘gı yapılarında ba¸sarı-lan geli¸smeler sonucunda sadece MNIST ve CIFAR-10 veri setlerinde de˘gil, daha geni¸s ve kompleks olan ImageNet ve benzeri veri setlerinde önemli ba¸sarılar elde edilmi¸stir. CIFAR-10 veri seti üzerinde bu sinir a˘gı tipleriyle önceden yapılan

çalı¸smalar da mevcuttur [2]. Bunun gibi sınıflandırma görevleri dı¸sında, tekrarlı sinir a˘gları yoluyla tahmin ve hafıza görevleri de yapay sinir a˘glarının önemli ba¸sarı elde etti˘gi görevler arasına girmektedir, örnek olarak robotik alanındaki çalı¸smalar gösterilebilir [3]. Tüm bu sinir a˘gı tiplerinin ortak özellikleri bulunmaktadır, bu kısımlarda sa˘glanan geli¸smeler sayesinde önemli ilerlemeler kaydedilmi¸stir.

Bu bildiride öncelikle literatürdeki eniyileyicilerden bah-sedilmi¸s, sonrasında güncel olan Adam ve Adamax eniyileyi-cileri detaylıca incelenmi¸stir. Sonrasında tekrarlı ve evri¸simsel sinir a˘gları farklı veri setlerinde kullanılarak, farklı eniyileyici-ler denenmi¸s, literatürde bulunan Adam, Adamax ve önerdi˘gi-miz SinAdaMax eniyileyicilerinin farklı veri setlerinde aldı˘gı sonuçlar kıyaslanarak avantaj ve dezavantajları gösterilmi¸stir.

II. VER˙ISETLER˙I VEVAROLANL˙ITERATÜR

A. Veri Setleri

Bu çalı¸smada iki farklı veri seti kullanılm¸stır. ˙Ilk olarak tekrarlı sinir a˘gı kullanımıyla sınıflandırma yapılması için IMDb Geni¸s Film Yorumu Veri Seti’nden [4] faydalanılmı¸s, ikinci olarak evri¸simsel sinir a˘gı kullanımıyla sınıflandırma yapılması için CIFAR-10 Veri Seti’nden [5] yararlanılmı¸stır. ˙Ilk veri setinde 3 farklı eniyileyici denenirken, sonraki veri setinde en iyi sonucu veren ilk iki eniyileyici yapay sinir a˘glarının e˘gitiminde kullanılmı¸stır.

Birinci veri seti olan IMDb Geni¸s Film Yorumu Veri Seti, e¸sit oranda olumlu ve olumsuz görü¸sten olu¸san 50000 film yorumunu içermektedir [4]. Duygu analizi (sentiment analysis) olarak adlandırılan bu problemde, yorumun olumlu veya olumsuz oldu˘gu tespit edilmeye çalı¸sılmaktadır. 25000 e˘gitim ve 25000 test örne˘ginden olu¸san bu veri setinde bulunan örnek yorumlarda var olan kelimeler sayılarla indekslenmi¸stir. Sınıflandırıcının her yorumun olumlu veya olumsuz oldu˘guna dair bir karar vermesi gerekmektedir. ˙Ikinci veri seti olan CIFAR-10, Alex Krizhevsky tarafından hazırlanmı¸s olup [5], görsel sınıflandırması gibi oldukça popüler bir problem için literatürde sıkça kullanılmı¸s olan bir veri setidir. 50000 e˘gitim örne˘gi ve 10000 test örne˘ginden olu¸san veri setinde e˘gitim setinin bir kısmı do˘grulama seti olarak kullanılmı¸stır. Örnekler 32x32 boyutundaki renkli görsellerden olu¸smakla beraber, 10 farklı sınıftan görüntüler içermektedir: Uçak, otomobil, ku¸s, kedi, geyik, köpek, kurba˘ga, at, gemi ve kamyon. Sınıflandırı-cının sinir a˘gına girdi olarak verilen her örne˘gi ait oldu˘gu 10 sınıftan birine ataması gerekmektedir.

(2)

B. Literatürdeki Sonuçlar

Her iki veri seti de birçok çalı¸smada kullanılmı¸s ve farklı sonuçlar elde edilmi¸stir. 2018 ba¸sı itibarıyla IMDb Geni¸s Film Yorumu Veri Seti (kısaca IMDb veri seti) ve CIFAR-10 veri setlerinde elde edilen sonuçlar, yapılan ara¸stırmada elde edilen sonuçlarla kıyaslanabilmesi için a¸sa˘gıda belirtilmi¸stir.

IMDb veri setinde elde edilen sonuçlar "Learned in Trans-lation: Contextualized Word Vectors" adlı ara¸stırmada [6] listelenmi¸stir. Burada en ba¸sarılı sonuç %94,1 ile "Virtual" adlı modelde Miyato ve meslekta¸sları tarafından elde edilmi¸stir [7]. Sonraki en ba¸sarılı sonuç da aynı oranda olup "oh-LSTM" ismiyle Johnson ve meslekta¸sları tarafından yapılan çalı¸smada edinilmi¸stir [8]. En ba¸sarılı üçüncü sonuç %93,8 ile TRNN adlı çalı¸smada Dieng ve meslekta¸sları tarafından elde edilmi¸stir [9]. Özet olarak CIFAR-10 veri setine göre daha dü¸sük oranlar alınan bu veri setinde elde edilebilen %90 civarında test seti ba¸sarıları eniyileyicilerin kıyaslanmasında yeterli görülmü¸stür. CIFAR-10 veri setinin test kısmında elde edilen en ba¸sarılı sonuç %97,28 ba¸sarı oranına ula¸san, Gastaldi ve meslekta¸sla-rının [10] çalı¸smasıdır. Sonraki en ba¸sarılı ara¸stırma Graham ve meslekta¸sları tarafından [11] yapılmı¸s olup %96,53 ora-nına ula¸smı¸stır. Görüldü˘gü gibi bu veri seti daha kompleks olmakla birlikte sınıflandırma için kullanılan sinir a˘gı daha fazla parametre ve katman içermektedir. Dolayısıyla bu veri seti için yapılan çalı¸smalarda edinilen %90 ve üstü ba¸sarı oranlarının eniyileyicilerin kıyaslanmasında kullanılabilece˘gi dü¸sünülmektedir.

III. KULLANILANYAPAYS˙IN˙IRAGLARI˘

Bahsedilen veri setlerinin sınıflandırılması için iki farklı tipte sinir a˘gları kullanılmı¸stır. Ba¸sarı kıyaslaması yapılabil-mesi amacıyla IMDb veri seti için tekrarlı sinir a˘gı, CIFAR-10 veri seti için evri¸simsel sinir a˘gı seçilmi¸stir. ˙Ilk olarak daha az kompleks olan tekrarlı sinir a˘gı incelenmi¸stir.

A. Kullanılan Tekrarlı Sinir A˘gı

IMDb veri seti için kullanılan tekrarlı sinir a˘gı, Jason Bro-wnlee’nin sitesinde açık kodlu olarak verilmi¸stir [12]. Tekrarlı nöron modeli olarak Long-Short Term Memory (LSTM) bu-lunduran bu sinir a˘gı yapısına dair, temsili olarak görülebilecek bir diyagram ¸Sekil 1’deki görselde bulunabilir.

Kullanılan tekrarlı sinir a˘gında gömme katmanı (embed-ding layer), sonrasında 100 adet LSTM nöronu içeren orta katman, son katmanda da sigmoid aktivasyona sahip olan tek nöronlu çıktı katmanı bulunmaktadır. Bu çıktı nöronundan gelen 0 veya 1 verisi, yapılan film yorumunun olumlu veya olumsuz olarak sınıflandırıldı˘gını ifade eder. Bununla birlikte bu çıktının yanlı¸s olması durumunda e˘gitimde kullanlacak olan eniyileyiciler olarak Adam, Adamax ve SinAdaMax denenmi¸s, en ba¸sarılı iki algoritma sonraki sinir a˘gında kullanılmak üzere seçilmi¸stir.

B. Kullanılan Evri¸simsel Sinir A˘gı

CIFAR-10 için kullanılan evri¸simsel sinir a˘gı, bir-çok katmandan olu¸smaktadır. Yapıda ana olarak evri¸simsel, maksimum-bölütleme (veya maksimum-havuzlama), ve ön-beslemeli katmanlar bulunmaktadır. Bunlarla beraber nöronlar ve parametrelerin büyük ço˘gunlu˘gu evri¸simsel ve ön-beslemeli

¸Sekil 1: Tekrarlı sinir a˘gının diyagramı.

katmanda bulunmaktadır. A¸sa˘gıda bu yapıyı temsil eden bir görsel, ilgili tez çalı¸smasından edinilmi¸stir [13]:

¸Sekil 2: Evri¸simsel sinir a˘gı yapısı [13].

Bu sinir a˘gı örne˘ginin temel yapısı ve kodu Parneet Kaur tarafından [14] yayınlanmı¸s olup, çalı¸sma sırasında birçok a¸samada kullanılan yöntemler iyile¸stirilerek sinir a˘gı toplamda %85 ba¸sarı oranından %90 üstü ba¸sarı oranlarına kadar çıkar-tılmı¸stır, ek olarak daha uzun e˘gitimlerde de daha fazla ba¸sarı elde edebilir hale getirilmi¸stir. Bu sinir a˘gında kullanılan Adam eniyileyicisinin dı¸sında Adamax ve SinAdaMax eniyileyicileri de a˘gın son halinde denenmi¸s ve bu iki farklı eniyileyicinin elde etti˘gi sonuçlar di˘ger tüm geli¸smi¸s metotlar sabit tutularak kar¸sıla¸stırılmı¸stır.

Her iki eniyileyicinin kıyaslanması için evri¸simsel katman özellikleri, piramit yapısına sahip maksimum-bölütleme kat-manları, Çapraz Entropi kayıp fonksiyonu, veri ön i¸sleme ve veri arttırma yöntemleri sabit tutulmu¸stur. Yani her iki evri¸simsel sinir a˘gı tipindeki tek fark Adamax ve SinAdaMax eniyileyicinin kullanımı olmu¸stur.

IV. KULLANILANEN˙IY˙ILEY˙IC˙ILER

Bu çalı¸smada kullanılan eniyileyiciler Adam, Adamax ve önerimiz olan SinAdaMax’tir. Bununla beraber öncül eniyile-yicilerden de bahsedilerek kullanılan algoritmalar temellendi-rilmi¸stir.

A. Temel Eniyileyiciler

Ö˘grenme sürecinin ba¸slaması için sinir a˘gının verdi˘gi çıktı, örne˘gin gerçek sınıfıyla kar¸sıla¸stırılır. Bu kar¸sıla¸stırma sonucu

(3)

a˘gın hata yaptı˘gı anla¸sılırsa, Geri Yayılma algoritması (Back-propagation algorithm) kullanılarak sinir a˘gının parametreleri modifiye edilir. ˙Ilk olarak Hebbian ö˘grenmesi gibi daha basit yöntemlerin kullanılmasından sonra, gradyan alçalma temelli metotlar literatürde daha sık yer almı¸stır. Stokastik gradyan alçalma metodunun yanı sıra rmsProp, AdaGrad, AdaDelta ve benzeri eniyileyiciler de literatürde bulunmaktadır. Fakat veri setlerimizde ba¸sarılı olan güncel yöntemler Kingma ve Ba tarafından [15] yapılan çalı¸smada sunulan Adam ve türevi olan algoritmalardır.

B. Adam ve Adamax Eniyileyicileri

Adam algoritması, kısaca her sinir a˘gı parametresinin ö˘g-renme katsayısını (learning rate) hafızada tutan ve bu katsayıla-rın ortalaması ve normalize edilmemi¸s varyansını kullanarak, parametrenin geri yayılma algoritmasındaki güncellenmesini daha ba¸sarılı hale getiren bir eniyileyicidir. Özetle, matema-tiksel formülde öncüllerden farklı olarak yapılan modifikasyon a¸sa˘gıdaki gibi gösterilebilir:

θt+1= θt−

η √

vt+ 

mt (1)

Denklem (1)’deki  (epsilon) sabiti 10−8de˘gerinde, bölenin sıfır olmasını engellemek için kullanılan bir terimdir. Ö˘grenim için daha kritik olan parametreler güncellenen sinir a˘gı pa-rametresi θt, sabit ö˘grenme katsayısı η, birinci moment olan

ortalama (m) ve ikinci moment olan normalize edilmemi¸s var-yans (v) bulunmaktadır. Bunların kullanılmasıyla güncellenmi¸s sinir a˘gı parametresi θt+1elde edilmektedir.

Adamax de aynı makalede bulunan, Adam’ın di˘ger bir versiyonu olarak de˘gerlendirilebilecek bir eniyileyicidir. Adam’dan farklı olarak aynı denklemde ikinci momentum yerine ‘sonsuz moment’ ut(infinite moment) kullanılmaktadır:

ut= max(β2· vt−1, |gt|) (2)

Burada vt−1 de˘geri t-1 adımındaki ikinci momenti, gt ise

t adımında hesaplanan gradyan de˘gerini, β2 de algoritmadaki

beta sabitini belirtmektedir. Bu de˘gi¸siklikle birlikte parametre güncelleme denklemi de a¸sa˘gıdaki ¸sekilde yazılmaktadır:

θt+1= θt−

η ut

mt (3)

C. SinAdaMax Eniyileyicisi

Adamax algoritmasında kullanılan sonsuz moment litera-türe önemli bir katkı olmakla beraber, buna ek olarak daha yeni eklemeler de dü¸sünülebilir. Dolayısıyla, literatürde var olan bu yöntemlerin geli¸stirilmesi için yapılan çalı¸sma [13] sırasında farklı teknikler denenmi¸stir. SinAdaMax olarak adlandırılan yöntemde önceki denklemlerde gösterilen sabit ö˘grenme kat-sayısı (η) iterasyonlar sırasında de˘gi¸stirilerek eniyileyici güç-lendirilmeye çalı¸sılmı¸stır.

Tipik olarak ö˘grenmenin ilerlemesiyle beraber sabit ol-mayan ö˘grenme katsayısı (η/ut) küçülmektedir. Bu

küçülme-nin ö˘grenmeyi gere˘ginden erken olarak durdurması mümkün olabilece˘ginden, bu katsayının zamanla periyodik olarak de-˘gi¸smesinin e˘gitimi daha ba¸sarılı kılabilece˘gi dü¸sünülmü¸stür.

Dolayısıyla sabit ö˘grenme katsayısı yerine her adımda de˘geri de˘gi¸sen, mutlak de˘ger içine alınmı¸s bir sinüsoid eklenmesiyle beraber yeni bir algoritma olu¸sturulmu¸stur. Bu modifikasyon-larda sabit olmayan ö˘grenme katsayısının de˘gi¸sim projeksi-yonu a¸sa˘gıdaki grafikte gösterilmi¸stir, mavi e˘gri Adamax’taki ö˘grenme katsayısını gösterirken kırmızı e˘gri SinAdaMax’taki ö˘grenme katsayısını (ηt) göstermektedir:

¸Sekil 3: Adamax ve SinAdaMax ö˘grenme katsayılarının kar-¸sıla¸stırması [13].

ηt= ηsabit+ |Asin(ωt)| (4)

Formülde gösterildi˘gi gibi (ηsabit= 0.0025, A = 0.00075),

ö˘grenme katsayısının e˘gitim sırasında de˘gi¸smesiyle beraber, sinir a˘gının hata yüzeyindeki lokal minimaları pas geçmesi (ve hatayı daha da azaltması) için atılan gradyan adımlarının uza-tılması ve buna benzer ba¸sarıyı arttıran etkilerin olu¸sturulması beklenmektedir.

Sonuç olarak bu çalı¸smada literatürden Adam, Adamax ve önerimiz olan SinAdaMax eniyileyicileri kullanılmı¸stır. IMDb veri setini sınıflandırmak için kullanılan tekrarlı sinir a˘gında daha ba¸sarılı olan ilk iki eniyileyici de daha uzun süren, CIFAR-10 veri setini sınıflandırmak için dizayn edilen evri¸simsel sinir a˘gının e˘gitiminde kullanılmı¸stır.

V. SONUÇLAR

A. Kullanılan E˘gitim ¸Sartları

Gerek tekrarlı, gerekse evri¸simsel sinir a˘glarında e˘gitim ¸sartları sınıflandırıcının test veri kümesi üzerindeki ba¸sarısına büyük etki etmektedir. Çalı¸smada Python 3.6 programı Ten-sorflow tabanlı Keras kütüphanesiyle kullanılmı¸s, yapay sinir a˘gları bu yolla olu¸sturulmu¸stur. Bu kısımda ilk olarak IMDb veri setine uygulanan tekrarlı sinir a˘gının e˘gitim ¸sartlarından, sonra da CIFAR-10 veri setine uygulanan evri¸simsel sinir a˘gının ¸sartlarından bahsedilmi¸stir.

IMDb veri seti için kullanılan tekrarlı sinir a˘gında 25000 e˘gitim, 25000 test olmak üzere toplam 50000 örne˘ge sahip veri seti oldu˘gu gibi kullanılmı¸stır. Bu veri seti üzerinde herhangi

(4)

bir ön i¸sleme veya veri arttırma tekni˘gi uygulanmamı¸stır. Bunun yerine tüm e˘gitim seti örneklerinin sinir a˘gı tarafından 3 kez görülmesi için e˘gitim 3 epok uzunlu˘gunda tutulmu¸stur. Her eniyileyici için 10 adet tekrarlı sinir a˘gı e˘gitimi yapılırken, bu e˘gitimlerde elde edilen ortalama, minimum ve maksimum ba¸sarı kar¸sıla¸stırılmı¸stır.

CIFAR-10 veri seti için uygulanan evri¸simsel sinir a˘gında veri ön i¸sleme ve veri arttırma teknikleri kullanılmaktadır. Bu ¸sekilde yapılan e˘gitimde 600 ö˘grenme döngüsü boyunca, her 100 döngüde önceden ana e˘gitim setinden ayrılmı¸s olan ilk 1000 örnek do˘grulama seti olarak kullanılmı¸stır. Bu do˘grula-malarda en ba¸sarılı olan sinir a˘gının test setinde elde etti˘gi sonuç, o sinir a˘gının final test ba¸sarı sonucu olarak atanmı¸stır. Bu ¸sekilde erken durma (early stopping) adlı a¸sırı ö˘grenme veya uyum (overtraining/overfitting) engellenmi¸s ve test veri kümesi üzerindeki ba¸sarı oranı arttırılmı¸stır.

B. Alınan Sonuçlar

IMDb veri setinde uygulanan her eniyileyici için farklı ba¸slangıç noktalarından ba¸slayan 10’ar adet tekrarlı sinir a˘gı e˘gitilmi¸stir. A¸sa˘gıda verilen tabloda bu veri setinde elde edilen ortalama, minimum ve maksimum ba¸sarı oranı payla¸sılmı¸stır:

TABLO I: TEKRARLIS˙IN˙IRAGLARININ˘ BA ¸SARIORANLARI

Eniyileyiciler Alınan Ba¸sarı Oranları

Minimum Ba¸sarı Ortalama Ba¸sarı Maksimum Ba¸sarı

Adam %85,55 %86,78 %87,99

Adamax %87,02 %88,12 %88,64 SinAdaMax %87,27 %87,86 %88,55

Burada görüldü˘gü üzere Adam, Adamax ve SinAdaMax eniyileyicilerinden Adamax ve SinAdaMax bu problemde daha ba¸sarılı sonuçlar elde etmi¸stir. Ortalama ba¸sarı oranında %1’den fazla, maksimum ba¸sarı oranında da %0,5 gibi bir fark bulunmaktadır. Dolayısıyla sonraki kısımda elde edilen sonuçlarda sadece Adamax ve SinAdaMax kullanılmı¸stır.

CIFAR-10 veri setinde uygulanan her eniyileyici için farklı ba¸slangıç noktalarından ba¸slayan ve ö˘grenme fazı saatler süren 5’er adet evri¸simsel sinir a˘gı e˘gitilmi¸stir. Sunulan Tablo II’de bu veri setinde elde edilen ortalama, minimum ve maksimum ba¸sarı oranları ayrıntılı ¸sekilde payla¸sılmı¸stır.

TABLO II: EVR˙I ¸S˙IMSEL S˙IN˙IRAGLARININ˘ BA ¸SARIORAN -LARI

Eniyileyiciler Alınan Ba¸sarı Oranları

Minimum Ba¸sarı Ortalama Ba¸sarı Maksimum Ba¸sarı Adamax %91,13 %91,47 %91,99 SinAdaMax %91,14 %91,54 %91,87

Burada görüldü˘gü üzere Adamax ve SinAdaMax eniyileyi-cileri birbirine oldukça yakın performanslar göstermi¸s, bununla birlikte SinAdaMax eniyileyici ortalama ba¸sarıda bu kez küçük bir farkla daha ba¸sarılı bir test sonucu elde etmi¸stir.

C. Varılan Sonuçlar ve De˘gerlendirmeleri

Alınan test sonuçları ve kullanılan eniyileyicileri kıyasla-mak gerekirse, literatürde bulunan Adamax IMDb veri seti üzerinde çalı¸san tekrarlı sinir a˘gında, önerdi˘gimiz SinAdaMax de CIFAR-10 veri seti üzerinde çalı¸san evri¸simsel sinir a˘gında

daha ba¸sarılı sonuçlar elde etmi¸stir. E˘gitim süreleri kıyaslan-dı˘gında çok daha uzun olan CIFAR-10 probleminde de˘gi¸sken ö˘grenme katsayılı SinAdaMax daha iyi sonuçlar verebilirken daha kısa olan IMDb probleminde Adamax daha ba¸sarılı ol-mu¸stur. Bunlardan çıkarılabilecek birinci sonuç, Adam temelli Adamax ve SinAdaMax eniyileyicilerinin öncülü Adam’dan daha yüksek bir potansiyele sahip oldu˘gudur. ˙Ikinci sonuç ise Adamax ve SinAdaMax’in birbirine bariz üstünlük sa˘glayama-dıkları, farklı problemlerde farklı sonuçlar elde ettikleri ve yeni bir eniyileyici olarak önerdi˘gimiz SinAdaMax’in geli¸smeye açık oldu˘gudur. Böylece literatürdeki Hebbian Ö˘grenmesinden Stokastik Gradyan Alçalma algoritmasına, ondan rmsProp’a giden sürecin yeni bir basama˘gı olarak SinAdaMax ve türevi gibi zamana ba˘gımlı eniyileyiciler gelecek vadetmektedir.

B˙ILG˙ILEND˙IRME

Bu ara¸stırmada kullanılan Titan X Pascal GPU ve Quadro P6000’in ba˘gı¸sı için NVIDIA Corporation’a te¸sekkür ederiz. Yazarlardan Burak Çatalba¸s Türkiye Bilimsel ve Teknolojik Ara¸stırma Kurumuna (TÜB˙ITAK) verilen de˘gerli finansal des-tek için te¸sekkür eder.

KAYNAKLAR

[1] V. Nair and G. E. Hinton, “Rectified linear units improve restricted boltz-mann machines", in Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814, 2010.

[2] B. Çatalba¸s, B. Çatalba¸s ve Ö. Morgül, "Yapay Sinir A˘glarında Yeni Bir Ön De˘ger Atama Yöntemi: Laplasyen", in 2018 26th Signal Processing and Communications Applications Conference (SIU), pp. 1–4, May 2018. [3] B. Çatalba¸s, “Recurrent neural network learning with an application to the control of legged locomotion,” Yüksek Lisans Tezi, Bilkent Üniversitesi, Ankara, 2015.

[4] A. L. Maas, R. E. Daly, P. T. Pham, D. Huang, A. Y. Ng and C. Potts. “Learning Word Vectors for Sentiment Analysis". The 49th Annual Meeting of the Association for Computational Linguistics (ACL 2011), 2011.

[5] A. Krizhevsky and G. E. Hinton, "Learning multiple layers of features from tiny images," tech. rep., 2009.

[6] B. McCann, J. Bradbury, C. Xiong, and R. Socher, “Learned in Transla-tion: Contextualized Word Vectors”, arXiv preprint arXiv: 1708.00107, 2018.

[7] T. Miyato, A. M. Dai, and I. Goodfellow. “Adversarial training met-hods for semi-supervised text classification", arXiv preprint arXiv: 1605.07725v3, 2017.

[8] R. Johnson and T. Zhang. “Supervised and semi-supervised text catego-rization using LSTM for region embeddings.", in ICML, arXiv preprint arXiv: 1602.02373v2, 2016.

[9] A. B. Dieng, C. Wang, J. Gao, and J. W. Paisley, “TopicRNN: A recurrent neural network with long-range semantic dependency" CoRR, arXiv preprint arXiv: arXiv:1611.01702v2, 2017.

[10] X. Gastaldi, “Shake-shake regularization of 3-branch residual net-works”, 2017.

[11] B. Graham, “Fractional Max-Pooling", arXiv preprint arXiv: 1412.6071, 2018.

[12] J. Brownlee, “Sequence Classification with LSTM Recurrent Neural Networks in Python with Keras", machinelearningmastery.com/sequence-classification-lstm-recurrent-neural-networks-python-keras/, 2016. Ac-cessed: 10 February 2019.

[13] B. Çatalba¸s, "Improved Artificial Neural Network Training with Advan-ced Methods", Yüksek Lisans Tezi, Elektrik ve Elektronik Mühendisli˘gi, Bilkent Üniversitesi, Ankara, 2018.

[14] P. Kaur, “Convolutional neural networks (cnn) for cifar-10 dataset.” parneetk.github.io/blog/cnn-cifar10/, 2017. Accessed: 09 February 2018. [15] D. P. Kingma and J. Ba, “Adam: A method for stochastic optimization,”

Referanslar

Benzer Belgeler

1978’de Türk Kültür Yayı­ nı, Türk Ocaklan’mn 1928’de ya­ yımladığı Türk Yılı kitabından Akçura’nm Türk milliyetçiliği ile ilgili bölümlerini

Dört tane açık kaynak projesi üzerinde yürütülen deneysel değerlendirmeler, kullanılan kobay yazılımlar için, hibrid donanım ve yazılım ölçüm

These features, in combination, provide a platform to use IoT device ID management functions that can ensure global and unique device ownership, and provide a way

Aşağıdaki veri setini kullanarak önceki bölümlerde anlatılan parametrelerin tahmin değerlerini elde ediniz...  Örneklem ortalaması ’ nın varyansı (Yerine

Veri madenciliği, potansiyel olarak faydalı, yeni ve mantıklı bilgi elde etmek için büyük veri tabanları üzerinde birden fazla basamaktan oluşan bir analiz

Muayene ve diğer incelemeler başka bir hastalığı dışlamak için yapılır (23). Migren ataklar şeklinde gelen baş ağrılarıyla karakterize bir hastalık olmakla

Literatürde var olan İGS’ye uygun olarak geliştirilmiş veri gömme tekniklerinden faydalanılarak, video içerisindeki veri gömmeye en uygun pikselleri belirlemek

Tablo 4.13.’de 512×512 boyutundaki 24 bit renkli ve 8 bit gri seviyeli standart test görüntülerine farklı oranlarda gizli veri gizlenmesi sonucu elde edilen NCC değerleri