• Sonuç bulunamadı

Ġleri Besleme Geri Yayılım (ĠBGY) Yönteminin Hesap Adımları

1) Ġleri Besleme: Model girdileri ilk katmandaki her hücreye iletilir. Hücre içerisinde her girdi kendi ağırlığı ile çarpılıp hücre sabit değeri ile toplanır. Hücrenin aktivasyon fonksiyonu aktive edilir ve hücrenin sonucu bulunur. Bulunan sonuçlar bir sonraki katmana iletilir ve aynı iĢlemler burada da tekrarlanır. Sonuç katmanından elde edilen sonuç modelin verilen girdi için tahmini sonucudur. Burada modelin ilk hesap sırasında kullandığı hücresel ağırlık katsayıları (-0.05) – (+0.05)

aralığında değiĢen rastgele sayılardan oluĢmaktadır. Bunlar geri yönde hesap sırasında değiĢtirilir.

2) Geri Yayılım: Bu faz çıktı katmanındaki her hücreye ait hata teriminin hesaplanmasıyla baĢlamaktadır. En popüler hata fonksiyonlarından bir tanesi ortalama kare hata yöntemidir.

2 1 n i i i O T E n   

(4.1)

Burada E ortalama kare hatayı (OKH) veya diğer bir değiĢle modelin performansını, Oi modelin çıktısını, Ti ise modelin bulması gereken değeri, n ise toplam veri sayısını göstermektedir. Burada bulunan hatalar bu hücre ile bağlı olduğu önceki katmandaki hücreler arasındaki bağlantıların ağırlık değerlerini hesaplamak için kullanılmaktadır. Bu iĢi yapan pek çok öğrenme algoritması mevcuttur. Bu çalıĢmada seçilen yöntem popüler yöntemlerden biri olan Levenberg-Marquardt (LM) yöntemidir [64], [65]. Bu yöntemin seçilme sebebi diğer yöntemlere göre çok daha çabuk minimuma yaklaĢması ve diğer yöntemlere göre daha iyi sonuçlar vermesidir. Yöntemin tek dezavantajı daha fazla hafızaya ihtiyaç duymasıdır ancak bu dezavantaj günümüz bilgisayarları için pek çok uygulamada bir sorun oluĢturmamaktadır. Yöntemde kullanılan ifade, denklem 4.2‟de gösterilmiĢtir.

1

T T

new old old

ww J JIJ E w

(4.2) Burada J, E hata fonksiyonunun jakobiyenini, I birim matrisi, µ ise iteratif hesapta kullanılan uyarlamalı (adaptive) bir katsayıyı göstermektedir. Bu katsayı hata fonksiyonunu minimum yapacak Ģekilde iteratif olarak arttırılır veya azaltılır. Bir katmandaki ağırlıkların hesabı tamamlandıktan sonra benzer iĢlem bir önceki katmandaki hücreler ile onlara bağlı katmanlardaki hücreler arasında tekrarlanır. Bu iĢlem girdi verilerine ulaĢana kadar veya diğer bir deyiĢle tüm hücreler yeni ağırlıklarına kavuĢana kadar tekrarlanır. Bu noktada yeni bir ileri hesap adımına geçilir.

Yukarıda görüldüğü üzere iĢlem oldukça karmaĢıktır ve modele öğretilmesi gereken parametre sayısı oldukça fazladır. Bu sebeplerden eğitim sonucunda elde edilecek ağırlık değerlerinin o model için en az hatayı verecek ağırlıklar olacağına dair hiçbir garanti söz konusu değildir. Modellerin genellikle yerel minimumlara takıldığı

gözlenmektedir. Özellikle tüm veri setinin bir kerede eğitim verisi olarak girildiği durumlarda bu duruma daha sık rastlandığı görülmüĢtür. Bu durumun önüne geçebilmek için farklı durumları göz önüne alan birbirinden farklı veri setleri ile çalıĢmak ve eğitim sürecinde veri setlerinin sırasını değiĢtirmek faydalı olabilmektedir. Bir veri setinin tamamının eğitim sırasında gözden geçirilmesi bir çevrim olarak isimlendirilmektedir. Ġleri beslemeli geri yayılımlı bir modelin optimum ağırlıklarına kavuĢmadan önce pek çok çevrimi tamamlaması gerekmektedir. Çevrim sayılarını azaltmak için çeĢitli yöntemler geliĢtirilmiĢtir. Bunlardan bir tanesi eğitim fonksiyonuna momentum teriminin ilavesidir. Bu terim sayesinde ağırlık katsayılarının değiĢim yönünde bir atalet meydana getirerek bir sonraki değiĢimin etkilenmesi sağlanmaktadır. Matematiksel olarak ise bir önceki değiĢim miktarının (momentum parametresi) bir sonraki değiĢime belli bir oranda eklenmesi olarak açıklanabilir. Bir diğer yöntem ise artan çevrim sayısıyla ağırlıklardaki değiĢim miktarının azaltılmasıdır. Bu ise çevrim sayısı arttıkça ortaya çıkma riski artan bir durum olan “aĢırı öğrenmenin” önüne geçmek için etkili bir yöntemdir.

Yapay sinir ağlarının zayıf bir tarafı ise kolayca aĢırı öğrenmeye maruz kalabilmeleridir. Eğitim sırasında her çevrimle birlikte eğitim veri setindeki hatalar azalma eğilimi gösterirler. Ġlk çevrimlerde kontrol veri setinde de hatalar aynı eğilimi gösterir ve hatalar kontrol veri setinde de azalır. Ancak çevrimler geçtikçe öğrenme veri setinde hataların düĢmesine karĢın kontrol veri setlerindeki hatalar yükselmeye baĢlar ve sürekli artmaya devam eder (ġekil 4.4). BaĢka bir deyiĢle model genelleyebilme özelliğini kaybetmektedir. Bunun önüne geçebilmek için ise çevrim sayısını doğru seçmek gerekmektedir. Kontrol verilerindeki hataların sürekli bir artım gösterdiği noktada eğitimin durdurulması önem taĢımaktadır. Model için en uygun ağırlıklar; kontrol verisinde minimum hataya karĢılık gelen çevirimdeki ağırlıklar olarak düĢünülebilir (ġekil 4.5).

ġekil 4.4 AĢırı öğrenmeye maruz kalmıĢ ve genelleme yeteneğini kaybetmiĢ bir model (düz çizgi kalibrasyon verisindeki, kesikli çizgi test verisindeki hataları göstermektedir)

ġekil 4.5 Genelleme yeteneğini kaybetmeden önce iterasyonu durdurulmuĢ bir model (düz çizgi kalibrasyon verisindeki hatayı, kesikli çizgi kontrol veri setindeki hatayı

göstermektedir)

Yapay sinir ağlarında modelin seçilmesine ve eğitilmesine çok fazla zaman harcanmaktadır. Buna karĢın model kurulduktan sonra farklı veri setleri ile modeli tekrar çalıĢtırmak oldukça hızlı bir iĢlemdir. Model kurmanın uzun zaman almasının sebebi modelle ilgili pek çok parametrenin deneme yanılma yöntemi kullanılarak karar verilmesi gerekliliğindendir. Bunlar hücre sayısı, katman sayısı, model mimarisi, aktivasyon fonksiyonları, eğitim fonksiyonudur. Bu parametrelerden hücre sayısı, katman sayısı, model mimarisi, aktivasyon fonksiyonu, modelin sonuçlarını ve model eğitimi sonunda elde edilen matematiksel denklemleri etkilerken, eğitim fonksiyonu eğitim sırasında bilinmeyenleri bulmaya yarayan bir fonksiyondur ve modelin genellikle eğitim süresini etkiler. Bu parametrelerde herhangi bir en iyi olmadığı gibi uygulamaya göre de değiĢiklik göstermektedir. ġimdiye kadar yapılmıĢ çalıĢmalardan edinilen tecrübelere ve tavsiyelere göre en etkili ve basit yöntem deneme yanılma yöntemidir. Daha iyi sonuçlar elde edebilmek için genetik algoritma veya baĢka yöntemlerle birleĢtirmeler denenmiĢ ancak beklenen baĢarı yakalanamamıĢtır.

Benzer Belgeler