• Sonuç bulunamadı

4. BİLGİSAYARLI MODELLEME İÇİN KULLANILAN YÖNTEMLER

4.1.3.3. YSA – saklı katman sayısı

Saklı tabakalar, lineer olmayan ya da değişkenler arasında etkileşim var ise kullanılır. Bu etkileşim ne kadar karmaşıksa, o kadar çok saklı tabakaya ihtiyaç duyulur. Eğer az sayıda saklı tabaka kullanılırsa ağ öğrenmez. Gereğinden fazla sayıda saklı tabaka bulunması halinde ise, ağ ezberler. Bu da ağın, yeni örnekler için genelleme yeteneğini azaltır. İstenen ağın genelleme yeteneğini optimum yapabilecek en az sayıda tabakayı kullanmaktır. Saklı katman sayısının artması ayrıca algoritmanın hata olasılığının da artmasına sebep olabilmektedir. Çünkü hata yüzeyi parabolik bir dağılım gösterir. YSA mimarisinde saklı katman ya da katmanlar varsa hata yüzeyi parabolik olmayacağı için ağırlıkların ayarlanması sırasında yerel minimumlara erişmek zor olacaktır. Bu durum Şekil 4.4’te verilmiştir. Bu nedenle, saklı katman sayısını doğru belirlemenin yolu benzer veri seti ile ilgili çalışmaların irdelenmesi sonucu ortaya çıkarılabilir.

Şekil 4.4. Saklı Katmanlı YSA modelinde ağırlık (w) ve hata (E) grafiği

4.1.3.4. YSA’nın tarihi gelişimi

İnsan beyninin yapısı ve fonksiyonlarıyla ilgili ilk yayın 1800’lü yılların sonunda yazılmış ve 1900’lü yılların başında beynin sinir hücrelerinden oluştuğu fikri benimsenmeye başlanmıştır. Matematiksel modellerle insan beyninin çalışma şeklinin ifade edilmesi 1930’lu yıllara dayanırken, ilk yapay sinir ağı modeli 1943 yılında, bir sinir hekimi olan Warren McCulloch ile matematikçi Walter Pitts tarafından modellenmiştir. 1958 yılında Frank Rosenblatt’ın Perceptron’u geliştirmesi sonrasında

E (Hata)

Genel Minimum

Yerel Minimum

48

YSA’lar ile ilgili çalışmalar hız kazanmıştır. 1986 yılında, bu alanda Rumelhart’ın geri beslemeli YSA algoritmasını bulmasıyla önemli bir gelişme sağlanmıştır. Son 10 yılda ise daha gelişmiş algoritmaların bulunmasıyla son derece zor olan ve zaman alan problemlerin çözümü için önemli bir aşama kaydedilmiştir.

4.1.3.5. Eğitim ve test

Problemdeki toplam veriler eğitim ve test grupları olmak üzere ikiye ayrılır. Eğitimin amacı problemin YSA tarafından algılanmasıdır. Performans fonksiyonları vasıtasıyla ağırlıklarda yapılacak ayarlamalar sayesinde YSA’nın ürettiği sonuçların tolerans limitlerine ulaşması hedeflenir. Bu işlem kısaca eğitim olarak adlandırılabilir. YSA mimarisin o problem için yeterli düzeyde tahmin yapabilmesi için eğitim safhasında kullanılacak veri sayısı yeterli miktarda olmalıdır. Bu durum öğretmen-öğrenci ilişkisi ile örneklendirilebilir. Bir öğretmen derste işlediği konu hakkında yeterli bilgi vermeden öğrencileri sınava tabi tutarsa, öğrenciler o sınavdan iyi sonuçlar alamayacaklardır. Eğitim işlemi sona erdikten sonra ağın test edilme işlemine sıra gelir. Test için ayrılan veri grubunun girdi parametreleri, eğitim yoluyla oluşturulan YSA modeline verildiğinde, YSA çıktı değerleri üretir. Yine daha önce bahsedilen performans fonksiyonları kullanılarak YSA’nın etkinliği tespit edilmiş olur. Ağın eğitiminin başlangıcında ağırlıklar ağ tarafından belirlenir. Eğitim esnasında, hatalara bağlı olarak ağırlıklar güncellenir. Bu düzenleme hata düzeyini belirlenen değere indiren ağırlık matrisi bulununcaya kadar devam eder. Fakat burada eğitimin fazla yapılması olumsuz sonuçlar doğurabilir. Elde edilen modeldeki ağırlık değerleri eğitime çok bağlı kaldığından genelleştirme yeteneği azalır. Eğitim veri grubundaki olası hatalı değerler sistem tarafından mutlak doğruymuş gibi algılanacağından eğitimin kalitesi düşük olacaktır. Bu durumu yine öğretmen-öğrenci arasındaki ilişkiyle açıklanabilir. Öğrenciler derste verilen sorulara ve bunların çözümlerine çok bağımlı kalırlarsa farklı sorularla karşılaştıklarında ezberlemeden dolayı doğru çözümler üretemeyebilirler. Bu şekildeki çözümlemeler de YSA modelinde eğitim verilerinde hemen hemen hiç hata vermezken, test grubunda ise ezberlemeden dolayı çok büyük hatalar vermektedir. Bu durumdan kaçınmak için eğitim safhası aşırı eğitim (ezberleme) olmadan durdurulmalıdır.

49

Sonuç olarak; YSA ile oluşturulmuş modelin eğitim ve test gruplarındaki hata değerlerinin benzer olması o modelin iyi tasarlanmış uygun bir model olduğunu ifade edebilir. Optimum eğitim düşeyine ulaşıldıktan sonra, eğitim grubunun hataları düşmeye devam ederken test grubunun hataları artmaya başlar. Bu durum aşırı eğitimin ya da ezberlemenin başladığının göstergesidir. O anda iyi bir YSA modelinin elde edilmesi için eğitimin durdurulması gerekir (Merwin, 2004). Eğer eldeki veri sayısı çok az ise diğer bir kontrol mekanizması olarak ortalama karesel hata (OKH) kullanılabilir. Bu durumda hata değerleri sabitlendiğinde eğitimin durdurulması aşırı eğitimi engelleyebilir. Şekil 4.5’de de eğitim ve test değerlerinin hatalarının iterasyon sayısına göre değişimi verilmiştir.

Şekil 4.5. Saklı Katmanlı YSA modelinde ağırlık (w) ve hata (E) grafiği

4.1.3.6 Verilerin Ölçeklendirilmesi

Bir YSA modelinde problemin girdi verileri birbirinden farklı ölçekler kullanan veriler ile ilişkilendirilmiş olabilir, böyle bir durumda tüm verilerin aynı ölçek üzerine indirgenmesi çözümlemenin sonuca ulaşma kolaylığını, zamanını ve hedeflenen sonucun güvenilirliğini etkilemektedir. Bütün girdi değerlerinin belirli aralıkta ölçeklendirilmesi hem farklı ortamdan gelen bilgilerin aynı ölçekte değerlendirilmesine, hem de yanlış girilen çok büyük ya da çok küçük değerlerin etkisinin kalkmasına neden olur (Öztemel, 2003). Aktivasyon fonksiyonundan çok büyük veya çok küçük değerler geçirilince fonksiyonun asimptotik yapısından dolayı model sabit bir çıktı üretir; örneğin, aktivasyon fonksiyonu durumunda ağ çıktısı [0 ya

E (Hata)

Test Verisi

Eğitim Verisi

İterasyon Sayısı Az Eğitim Aşırı Eğitim

50

da 1] veya [0,1 ya da 0,9] olur. Ölçeklendirme kullanılan aktivasyon fonksiyonuna göre farklılık gösterir. Bu çalışmada aktivasyon fonksiyonunu 0,1 ile 0,9 arasında dağılım sağlayacak şekilde ölçeklendirilmiştir. Aşağıda ölçeklendirme için seçilen ifade yer almaktadır.

i min max min 0,8(x -x ) X=0,1+ (x -x ) (4.5) Denklemlerdeki, xi : Ölçeklendirilecek veriyi,

xmin : Ölçeklendirilen veri setindeki en küçük değeri,

xmax : Ölçeklendirilen veri setindeki en büyük değeri,

X : Ölçeklendirilme sonucu elde edilen değeri, İfade etmektedir.

Ayrıca literatürde faklı ölçeklendirme denklemleri bulunmaktadır.

Benzer Belgeler