• Sonuç bulunamadı

Bir YSA‟da kullanılacak olan eğitim ve test verisini belirlemek, en az nöron sayıları kadar önem arz eder. Veri setlerindeki en önemli noktalardan birisi, söz konusu verinin yeterli olup olmayacağıdır. Eğitim verisinin mümkün oldukça fazla tutulması YSA‟nın daha iyi öğrenmesinde etkili olur. Bunun yanı sıra, ele alınan problemin karmaşıklığı arttıkça kullanılan eğitim setinin büyütülmesi de benzer neticeyi verir. Bu veri setlerinde yanlış tercihler yapıldığı zamanlarda aşırı öğrenme (overfitting) ve yetersiz öğrenme (underfitting) gibi istenilmeyecek sonuçların olması ihtimali de vardır (Haykin, 1999).

İnsan doğumdan sonraki beyin gelişim süreci boyunca çevresinden duyu organları aracılığıyla algılamış olduğu davranışları yorumlayarak bu bilgileri diğer davranışlarında kullanır. Beyin yaşadıkça gelişmeye devam eder ve deneyim edinir. Olaylar karşısındaki vereceği tepkiyi artık öğrenmiştir. Bununla birlikte daha önce hiç karşısına çıkmayan bir olayda nasıl davranacağını bilemeyebilir. YSA‟nın öğrenme sürecinde de dış dünyadan girişler toplanır ve sunulur, bu girişler aktivasyon fonksiyonundan geçirildikten sonra sonuçta tepki olarak verilmesi adına çıkış olarak üretilir. Sonuç çıkışı ise tecrübe ile verilen çıkış ile karşılaştırılır ve hata bulunur.

Çıkıştaki bu hatayı azaltıp gerçek çıkışa yaklaşmayı sağlayan çeşitli öğrenme algoritmaları geliştirilmiştir. Buradaki işlem, çalışma süresi boyunca yapay sinir ağının ağırlıklarını yenilemektir. Gerçek hedefe ulaşmak için ağırlıklar her bir iterasyonda yenilenir. Bu hedefe ulaşmak veya yaklaşmak için, dışarıdan belirlenen bir değer baz alınır. Sonuç olarak, YSA kendisine sunulan giriş-çıkış değerleriyle istenilen değerler aynı olduğunda, yani hedefe ulaşılmış ise bu ağırlıkların sayısal değerleri saklanabilir.

Öğrenme süreci ağırlıkların sürekli yenilenmesiyle beklenilen sonuca ulaşana kadarki devam eden zamandır. YSA öğrenme işleminin ardından, kendisine daha önce giriş olarak verilmeyen değerleri alıp ürettiği çıkış sonucu ile gerçek çıkış değeri

değerlendirilir. Bu değerlendirme sonucunda da doğru yaklaşımda bulunuyorsa, ağ artık nasıl davranacağını öğrenmiş demektir. Sinir ağlarına verilecek örneklerin adedi optimal girişten fazlaysa, o sinir ağı işi öğrenememiş, bir bakıma ezber yapmış anlamına gelir. Genel olarak elde var olan örnek sayısının %80‟i kadarı ağa eğitim için sunulur. Kalan %20 lik kısım ağa verilir ve ağın davranış biçimi gözlenir. Bu sayede ağın testi yapılmış olur. Ağın eğitimi için sırasıyla şu işlemlerin yapılması gerekir; örneklerin toplanması, ağın topolojik yapısının belirlenmesi, öğrenme parametrelerinin belirlenmesi, ağırlıklara başlangıç değerlerinin atanması, öğrenme setinden örneklerin seçilerek ağa gösterilmesi, öğrenme esnasında ileri hesaplamaların gerçekleştirilmesi, sonuçta gerçekleşen çıktının beklenen çıktı ile karşılaştırılması ve ağırlıkların gerekiyorsa değiştirilmesi, nihayetinde de öğrenmenin tamamlanması.

Bazen ağın ürettiği sonuç hatanın üstündeki bir değerde takılabilir. Böyle bir durumda, ağa o problemin çözümünü öğretmek için bazı değişikliklerin yapılıp ağın tekrar tekrar eğitilmesi gerekebilir. Giriş değerleri, ağın topolojisi veya ağın parametreleri üzerinde değişiklikler yapılabilir. Ağın öğrenmesi için giriş olarak sunulan setteki örnekler üzerinde değer veya adet olarak değişiklikler yapılabilir.

İleri Beslemeli Sinir Ağı‟nın (İBSA) yerel en iyi sonuçlara takılıp kalmaması için momentum katsayısı geliştirilmiştir. YSA‟da istenilen nihai amaç genel sonucun en iyi olmasıdır. Ağ eğitme sürecinde önemli olan diğer bir nokta da, öğrenmenin süresinin uzun olabilmesidir. Ağırlık değerlerinin başlangıçta büyük olmasıyla, ağ yerel sonuçlarda kalması ve bir yerel sonuçtan diğerine geçmesine sebebiyet vermektedir. Bununla birlikte ağırlıkların küçük aralıkta seçilmesi de, ağırlıkların doğru değerlere erişmesi uzun sürebilmektedir (Çayıroğlu, 2015).

Ağda öğrenme sürecini göstermenin en iyi yolu hata grafiğini eğitim sonucunda çizerek göstermektir. Her iterasyondaki hata grafiği çizilirse hatanın zaman içindeki düşüşü de gözlemlenebilir. Hatanın belirli bir iterasyon değerinden sonra daha fazla düşmeyeceği görülür. Bu durum ağın öğrenme işleminin durduğunu ve bundan sonra daha iyi bir sonuç elde edilemeyeceği anlamındadır. Eğer elde edilen çözüm kabul edilemezse o zaman ağın yerel bir çözümde takıldığı anlaşılır.

Yapay sinir ağlarının tek bir hücresine perceptron da denilmektedir. Perceptronlar girişlerin lineer bir bileşimini aldıklarından lineer ayrılabilen sınıflandırma problemlerini çözebilirler ya da doğrusal regresyon yapabilirler. Aşağıdaki Şekil 3.4.‟de bir perceptronun ağırlık değerleri ve karar sınırı ile ilgili 2 sınıftan oluşan bir problem gösterilmiştir.

ġekil 3.4. Perceptronla sınıflandırma

Ağırlıklardaki değişme miktarı öğrenme katsayısı ile belirlenir. Bu değer büyük olduğunda ağın yerel çözümlerde dolaşması ve osilasyon yaşaması durumu ortaya çıkar. Küçük olduğunda ise öğrenmenin zamanı artar. Kazanılan tecrübelerden bu değerin genellikle 0,2-0,4 arasında kullanıldığını göstermiştir. Fakat bu değer problemin çözümünde en iyi değeri deneme yoluyla bulunmasına bağlı olarak değişir.

Aynı şekilde momentum katsayısı da öğrenme performansını doğrudan etkilemektedir. Bu katsayı önceki iterasyonda oluşan değişimin belirli bir oranının yeni değişim miktarına eklenilmesi ile ilgilidir. Böylece yerel çözümlerde takılıp kalan ağın sıçramasıyla, daha iyi sonuçlar elde etmesi sağlanabilir. Bu değerin küçük olmasıyla birlikte yerel çözümlerden kurtulmak zor olabilir. Değerin çok büyük olması ise çözüme ulaşmada sorunları beraberinde getirebilir. Elde edilen deneyimler momentum katsayısının en iyi 0,6 ile 0,8 arasındaki bir değer olmasının uygunluğunu göstermiştir (Çayıroğlu, 2015).

Benzer Belgeler