• Sonuç bulunamadı

Makine Mühendisliği Anabilim Dalı Aralık 2007 YÜKSEK LĐSANS TEZĐ Santrifüj Pompalarda Yapay Sinir Ağı Uygulamaları Özge Helvacı

N/A
N/A
Protected

Academic year: 2022

Share "Makine Mühendisliği Anabilim Dalı Aralık 2007 YÜKSEK LĐSANS TEZĐ Santrifüj Pompalarda Yapay Sinir Ağı Uygulamaları Özge Helvacı"

Copied!
182
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

Santrifüj Pompalarda Yapay Sinir Ağı Uygulamaları

Özge Helvacı YÜKSEK LĐSANS TEZĐ Makine Mühendisliği Anabilim Dalı

Aralık 2007

(2)

Artificial Neural Network Applications For Pumps Centrifugal

Özge Helvacı

MASTER OF SCIENCE DISSERTATION Mechanical Engineering Department

December 2007

(3)

Özge Helvacı

Eskişehir Osmangazi Üniversitesi Fen Bilimleri Enstitüsü Lisansüstü Yönetmeliği Uyarınca Makine Mühendisliği Anabilim Dalı Enerji-Termodinamik Bilim Dalında

YÜKSEK LĐSANS TEZĐ Olarak Hazırlanmıştır

Danışman: Prof. Dr. Yaşar PANCAR

Aralık 2007

(4)

Özge Helvacı’ nın YÜKSEK LĐSANS tezi olarak hazırladığı “Santrifüj Pompalarda Yapay Sinir Ağı Uygulamaları” başlıklı bu çalışma, jürimizce lisansüstü yönetmeliğinin ilgili maddeleri uyarınca değerlendirilerek kabul edilmiştir.

Üye: Prof. Dr. Yaşar PANCAR (Danışman)

Üye : Prof. Dr. Soner ALANYALI

Üye : Prof. Dr. Kemal TANER

Üye : Prof Dr. Nejat KIRAÇ

Üye : Y. Doç. Dr. Bedri BAKSAN

Fen Bilimleri Enstitüsü Yönetim Kurulu’nun 18.12.2007 tarih ve 2007-23/26 sayılı kararıyla onaylanmıştır.

Prof. Dr. Abdurrahman KARAMANCIOĞLU Enstitü Müdürü

(5)

SANTRĐFÜJ POMPALARDA YAPAY SĐNĐR AĞLARI UYGULAMALARI

ÖZGE HELVACI

ÖZET

Bu araştırmada pompa karakteristik eğrilerinden alınan verilerin yapay sinir ağı sistemine öğretilmesi ve ağa sunulmayan veriler girilmesi durumunda oluşabilecek hata değerleri hesaplanmıştır.

Türkiye Şeker Fabrikaları A.Ş Eskişehir Makine Fabrikasından alınan 4 tip santrifüj pompanın Hm=f(Q) ve N=f(Q) karakteristik eğrilerinden elde edilen veriler doğrultusunda Matlab programı ile yapay sinir ağı modeli kurulmuştur. Uygulamada ağ tipi olarak öğretmenli öğrenmeyi kullanan ileri beslemeli hatayı geriye yayma (backpropagation) algoritması kullanılmıştır. Matlab programı içeriğinde bulunan ve uygulamada tercih edilen eğitim fonksiyonu ise Levenberg-Marguardt algoritmasıdır.

Öğrenme algoritması olarak Widrow-Hoff tarafından geliştirilmiş olan genelleştirilmiş delta kuralı ve performans fonksiyonu olarak da hataların karelerinin ortalaması (MSE) fonksiyonu kullanılmıştır. Transfer fonksiyonu olarak ise geri yayılım algoritmasında en çok kullanılan sigmoid transfer fonksiyonu kullanılmıştır. Birinci katmanda ve ara katmanda Tan-Sigmoid Fonksiyonu (tansig(n)), çıkış katmanında ise Lineer Transfer Fonksiyonu (purelin(n)) kullanılmıştır.

Bu çalışmada eldeki veriler doğrultusundaki eğitilen ağın ürettiği çıktı ile üretilmesi beklenen çıktı arasındaki hatanın karelerinin ortalamasını minimuma indirmek hedeflenmiş ve ağa sunulmayan örnekler verilmesi durumunda ağın üretmesi beklenen çıktıdaki hataların karelerinin ortalamaları; N çıktı alınarak modellenen ağlarda sırasıyla; 0.0338801, 0.0404777, 0.0296831, 0.060212, H çıktı alınarak modellenen ağlarda sırasıyla; 2.22516, 0.499625, 1.53299, 0.0251071 olarak hesaplanmıştır.

Anahtar kelimeler: Santrifüj Pompa, Yapay Sinir Ağları.

(6)

NEURAL NETWORK APPLICATIONS IN CENRIFUGAL PUMPS

ÖZGE HELVACI

SUMMARY

In this study; the neural network trained with the data gained from the pump characteristics curves; and the fault values which may occur, when in condition of a non similar data put forwarded to the network, are computed.

A neural network model was formed by Matlab Program, through the data taken from the Hm=f(Q) and N=f(Q) characteristic curves of the four centrifugal pumps which are the products of Türkiye Şeker Fabrikaları, Eskişehir Machine Factory A. Ş. A supervised learning network which has a feed forward backpropagation algorithm has selected. The teaching function of the study is the Levenberg-Marguardt algorithm, which exists in the Matlab Program. The Generalized Delta Rule developed by Widrow- Hoff and the mean square error (MSE) function is selected as performance function.

Besides, Sigmoid Transfer Function which is most commonly used in backpropagation algorithms has chosen as transfer function. Tan-Sigmoid Function (tansig(n) has been used in both first layer and the hidden layer, and Linear Transfer Function (purelin(n)) is used in the output layer.

Minimizing the mean square error of the outputs between the data gained from the trained network outputs and the data expected when in condition of a non similar data put forwarded to the network is purposed in this study. Mean square errors gained from the networks modeled with N outputs are respectively: 0.0338801, 0.0404777, 0.0296831, 0.060212; and the mean square errors gained from the networks modeled with H outputs are respectively: 2.22516, 0.499625, 1.53299, and 0.0251071.

Keywords: Centrifugal Pump, Artificial Neural Networks.

(7)

TEŞEKKÜR

Gelişen bilgisayar teknolojilerinin önemli unsurlarından biri olan ‘Yapay Sinir Ağları’ konusuna beni yönlendiren, bu sayede araştırma yapıp bilgi sahibi olmamı sağlayan ve bu tezi hazırlamamda bilgi ve tecrübeleriyle beni aydınlatan, yardımlarını esirgemeyen değerli hocam sayın Prof. Dr. Yaşar Pancar’ a ve Dr. H. Sevil Ergür’e teşekkür ederim.

(8)

ĐÇĐNDEKĐLER

Sayfa

ÖZET... ...v

SUMMARY... vi

TEŞEKKÜR... vii

ŞEKĐLLER DĐZĐNĐ ... xiii

ÇĐZELGELER DĐZĐNĐ ...xv

SĐMGELER ve KISALTMALAR DĐZĐNĐ... xvi

1. GĐRĐŞ ...1

2. YAPAY ZEKA ...3

2.1. Yapay Zeka ...3

2.2. Yapay Zekanın Kronolojik Tarihçesi ...4

2.3. Yapay Zeka Teknolojileri ...4

2.3.1. Uzman sistemler ...4

2.3.2. Yapay sinir ağları ...6

2.3.3. Zeki etmenler ...6

2.3.4. Bulanık mantık...6

2.3.5. Genetik algoritmalar ...8

3. YAPAY SĐNĐR AĞLARI ...10

3.1. Yapay Sinir Ağlarının Tanımı ...10

3.2. Yapay Sinir Ağlarının Kronolojik Tarihçesi ...11

3.3. Yapay Sinir Ağlarının Çalışma Prensibi...13

3.4. Yapay Sinir Ağlarının Genel Özellikleri ...14

3.5. Yapay Sinir Ağlarının Uygulama Alanları ...15

4. YAPAY SĐNĐR AĞLARININ YAPISI, ELEMANLARI ve MĐMARĐSĐ ...17

4.1. Biyolojik Sibir Hücreleri ...17

4.2. Yapay Sinir Hücresi...18

(9)

ĐÇĐNDEKĐLER (devamı)

Sayfa

5. YAPAY SĐNĐR AĞLARI ÖĞRENME ALGORĐTMALARI ...25

5.1. Temel Öğrenme Kuralları ...25

5.1.1. Hebb kuralı ...25

5.1.2. Hopfield kuralı ...25

5.1.3. Delta kuralı ...25

5.1.4. Kohonen kuralı ...26

5.2. Öğrenme Algoritmalarının Sınıflandırılması...26

5.2.1. Öğretmenli öğrenme (Supervised learning)...26

5.2.2. Destekleyici öğrenme (Reinforcement learning) ...29

5.2.3. Öğretmensiz öğrenme (Unsupervised learning) ...29

5.2.4. Karma stratejiler ...29

5.3. Uygulamaya Göre Öğrenme Yaklaşımları ...30

5.3.1. Çevrimiçi (On-line) öğrenme kuralları ...30

5.3.2 Çevrimdışı (Off-line) öğrenme kuralları...30

5.4. Mimari Yapılarına Göre YSA’ların Sınıflandırılması ...30

5.4.1. Đleri beslemeli (Feed Forward) ağ yapıları ...30

5.4.2. Geri beslemeli (Feedback) yapay sinir ağları ...31

6. YAPAY SĐNĐR AĞI MODELLERĐ ...33

6.1. Tek Katmanlı Algılayıcılar (TKA) ...33

6.1.1. Basit algılayıcı modeli (Perceptron) ...36

6.1.2. ADALINE modeli...38

6.1.3. MADALINE modeli ...40

6.2. Çok Katmanlı Algılayıcı (ÇKA) (Multiplayer Perceptrons-MLP) ...41

6.2.1. ÇKA modelinin yapısı ...42

6.2.2. ÇKA ağının öğrenme kuralı...43

6.2.3. ÇKA ağının çalışma prosedürü...47

6.2.4. Ağın eğitilmesi...48

6.2.5. ÇKA ağının uygulama alanları ...49

(10)

ĐÇĐNDEKĐLER (devamı)

Sayfa

6.3. LVQ (Learning Vector Quantization) Modeli ...49

6.3.1. LVQ ağının özellikleri ...49

6.3.2. LVQ ağının yapısı...50

6.3.3. LVQ ağının öğrenme kuralı ve eğitilmesi ...52

6.3.4. LVQ2 ağı ...53

6.3.5. Cezalandırma mekanizmalı LVQ ...55

6.3.6 LVQ-X modeli ...56

6.3.7. LVQ ağının uygulama alanları ...58

6.4. ART (Adaptif Rezonans Teori) Ağları ...58

6.4.1. ART ağları ...58

6.4.2. ART ağlarının yapısı...59

6.4.3. ART ağlarının çalışma prensibi ...60

6.4.4. ART 1 ağı...62

6.4.5. ART 2 ağı...66

6.5. Geri Dönüşümlü (Recurrent) Ağlar ...72

6.5.1 Elman ağı ...72

6.5.2. Elman ağının öğrenmesi ...74

6.5.3. Geri dönüşümlü ağların uygulama alanları...76

6.6. Diğer Yapay Sinir Ağı Modelleri ve Son Araştırmalar ...76

6.6.1. Hopfield ağı ...77

6.6.2. Counterpropagation ağı...80

6.6.3. Cognitron ve neocognitron ağları ...83

6.6.4. SOM (Self-Organizing Map) ağı ...88

6.6.5. Gauss merkez taban fonksiyonlu sinir ağları ...90

6.6.6. Radyal tabanlı fonksiyon ağları(Radial Basis Function Networks-RBFN) 92 6.6.7. Olasılık tabanlı YSA (Probabilistic Neural Network-PNN)...94

6.6.8. Genel regresyon YSA (General Regression Neural Network-GRNN) ...96

6.6.9. Çoklu modüler YSA (MNN ve ModNN) ...96

(11)

ĐÇĐNDEKĐLER (devamı)

Sayfa

6.6.10. Mantıksal YSA (Logical Neural Networks) ...99

6.6.11. GMDH(Group Method of Data Handling)ağı ...100

6.7. Birleşik Yapay Sinir Ağları ...102

6.7.1. Birleşik ağların yapısı ...102

6.7.2. Birleşik ağların eğitilmesi ve test edilmesi ...104

6.7.3. Ortak karar verme modülü ...104

6.7.4. Karma sistemler (uzman sistemler+yapay sinir ağları) ...104

7. SANTRĐFÜJ POMPALAR...106

7.1. Santrifüj Pompalar ...106

7.2. Pompalarda Temel Kavramlar ...107

7.2.1. Debi ...107

7.2.2. Monometrik basma yüksekliği ...108

7.2.3. Pompa gücü...111

7.2.4. Pompa verimi ...112

7.2.5. Pompa karakteristiği ...113

7.2.6. Çark çapının düşürülmesi ...117

7.2.7. Özgül hız...119

8. SANTRĐFÜJ POMPALARDA YAPAY SĐNĐR AĞI UYGULAMALARI...120

8.1. Pompa Karakteristik Eğrilerinden Verilerin Elde Edilmesi ...120

8.2. Uygulamada Kullanılan Ağ ...122

8.2.1. Geri yayılım (Backpropagation) algoritmasının adımları...123

8.2.2. Genelleştirilmiş Delta öğrenme algoritmasının adımları...124

8.2.3. Levenberg - Marguardt metodu (LMM)...127

8.2.4 Transfer fonsiyonunun seçimi ...129

8.3. Ağın Eğitilmesi ...130

8.3.1. Eğitim ve test verilerinin belirlenmesi...130

(12)

ĐÇĐNDEKĐLER (devamı)

Sayfa

8.3.2. Ağın modellenmesi ...130

8.3.3. Ağ bağlantılarının ağırlıklandırılması ve ağın eğitilmesi ...132

8.3.4. Ağ grafiklerinin elde edilmesi ve sonuçlar ...133

9. SONUÇ VE ÖNERĐLER...136

KAYNAKLAR DĐZĐNĐ…...………...137 EKLER

1. Hm= f(Q) ve N =f(Q) karakteristik eğrileri 2.Santrifüj pompa verileri

3. Excel verilerini Matlab'a aktaran program

4.Verileri girdi ve hedef çıktı olarak ayıran programlar 5. Hata grafikleri

(13)

ŞEKĐLLER DĐZĐNĐ

Şekil Sayfa

4.1. Biyolojik sinir hücresinin yapısı……….….18

4.2. Yapay nöronun genel yapısı………...19

4.3. Yapay nöronun detaylı yapısı………..21

4.4. En çok kullanılan transfer (aktivasyon) fonksiyonları……….22

4.5. Transfer fonksiyonunun çalışma yapısı………...23

4.6. YSA’ların genel yapısı……….24

5.1. Geri yayılım algoritması………..28

6.1. Đki girdi ve bir çıktıdan oluşan en basit TKA modeli………..33

6.2. Ağırlıkların ve sınıf ayıracı olan doğrunun geometrik gösterimi………....35

6.3. Basit bir algılayıcı yapısı……….36

6.4. ADALINE ünitesi………38

6.5. Đki ADALINE ağından oluşan MADALINE ağı……….40

6.6. ÇKA modeli……….42

6.7. LVQ ağının topolojik yapısı………51

6.8. LVQ2 prosedürünün geometrik gösterimi………...54

6.9. ART ağının genel yapısı………..59

6.10. ART ağında aşağıdan yukarı çıktı oluşturma süreci………60

6.11. ART ağında yukarıdan aşağı çıktı oluşturma süreci………61

6.12. ART ağında yeni bir sınıf oluşturma………...62

6.13. ART1 modelinin geometrik gösterimi……….63

6.14. ART2 ağının topolojik yapısı………...67

6.15. Elman ağı……….73

6.16. Elman ağı bağlantı ağırlıkları………...74

6.17. Hopfield ağının yapısı………..78

6.18. Counterpropagation ağı………....81

6.19. Cognitron ağı ve katmanları……….84

6.20. SOM ağı………....89

(14)

ŞEKĐLLER DĐZĐNĐ (devamı)

Şekil Sayfa

6.21. Gauss merkezcil taban fonksiyonlu sinir ağı yapısı……….92

6.22. RBFN yapısı...………..94

6.23. PNN yapısı………... 95

6.24. GRNN yapısı………96

6.25. Çoklu YSA’lar………...98

6.26. RAM tabanlı bir LNN………....100

6.27. Bir GMDH ağı………... 101

6.28. Birleşik sinir ağlarının elemanları………. 103

7.1. Yatay referans düzlemi……….. 109

7.2. Manometrik yükseklik………... 110

7.3. Düşey milli pompalarda manometrik yükseklik………...……….. 111

7.4. Pompa karakteristik eğrisi... 113

7.5. 1400d/dk.hızda su ile test edilen bir santrifüj pompanın karakteristik eğrileri. 115 7.6. Dik ve yatık karakteristikler... 116

7.7. Kararlı ve kararsız karakteristik... 117

7.8. Çark çapının düşürülmesi... 118

7.9. Çark çapının düşürülerek aynı pompa ile farklı karakteristikler elde edilmesi. 119 8.1. Tansig (n) fonksiyonu... 129

8.2. Purelin (n) fonksiyonu... 129

(15)

ÇĐZELGELER

Çizelge Sayfa 5.1. XOR problemi...41 6.1. P – α değeri...112 6.2. H=f(Q) eğimi...114

(16)

SĐMGELER ve KISALTMALAR DĐZĐNĐ

Simgeler Açıklama

X,G Girdi

Y,Ç Çıktı

W,A Bağlantı ağırlığı

NET Net girdi değeri

F Transfer fonksiyonu

Ф Eşik değeri

δ Nöron hata terimi

η Öğrenme katsayısı

α Momentum katsayısı

TH Toplam hata

Q Debi (m³/s)

H Manometrik yükseklik (m)

P Statik basınç (Pa)

ρ Akışkanın yoğunluğu (kg/ m³)

g Yerçekimi ivmesi (9,81 m/s²)

v Ortalama akış hızı (m/s)

P Pompa mil gücü (kW)

η Pompa verimi

D Pompa dış çapı (mm)

n Pompanın devir sayısı (rpm)(d/dk)

Yapay sinir ağları ile ilgili kullanılan simge ve sembollerde literatürde farklılıklar olduğundan burada en genel kullanılanları verilmiştir. Diğer semboller konular içinde açıklanmıştır.

(17)

SĐMGELER ve KISALTMALAR DĐZĐNĐ (devamı)

Kısaltmalar Açıklama

ADALINE Adaptive Linear Element (Adaptif Lineer Element) ANN Artificial Neural Networks (Yapay Sinir Ağları)

ART Adaptive Rezonance Theory (Adaptif Rezonans Teorisi) BPN Back Propogation Networks (Geri Yayılım Ağları)

ÇKA Çok Katmanlı Algılayıcı

GMDH Group Method of Data Handling (Veri Đşleme Grup Metodu) GMTSFA GAUSS Merkez Taban Fonksiyonlu Sinir Ağları

GRNN General Regression Neural Networks (Genel Regresyon Sinir Ağları) LNN Logical Neural Networks (Mantıksal Sinir Ağları)

LM Levenberg- Marguardt

LVQ Learning Vector Quantization (Vektör Nicelemeli Öğrenme) MADALINE Multiple Adaptive Linear Element (Çoklu Adaptif Lineer Element)

MCP Mcculloch and Pitts

MLPNN Multiple Layer Networks (Çok Katmanlı Sinir Ağları) ModNN Modular Neural Networks (Modüler Sinir Ağları) MSE Mean Square Error (Hataların Karesinin Ortalaması) PNN Probabilistic Neural Network (Olasılıksal Sinir Ağları) RBNN Radial Basis Neural Networks (Radyal Tabanlı Sinir Ağları)

RBFN Radial Basis Function Networks (Radyal Tabanlı Fonksiyon Ağları) SOM Self Organizing Map (Öz örgütlemeli Harita)

TKA Tek Katmanlı Algılayıcı

YSA Yapay Sinir Ağları

YZ Yapay Zeka

(18)

1.GĐRĐŞ

Günümüzde bilgisayarlar ve bilgisayar sistemleri insan hayatının vazgeçilmez bir parçası haline gelmiştir. Bilgisayarların zaman içerisinde, büyük miktarda verileri filtreleyerek düzenleyebilen ve mevcut verilerle olaylar hakkında yorum yapabilen sistemler haline geldikleri görülmektedir.

Bilgisayarlar insan beyninin çalışma mekanizmasının araştırılması sonucunda ortaya çıkan ilkel hesaplama makinelerinin geliştirilmiş şeklidir. Đnsan davranışlarının modellenmesi üzerine inceleme yapan bazı araştırmacıların insan beyni ile bilgisayarlar arasındaki benzerlikler ve farklılıkları ortaya koymasıyla ‘Yapay Zeka’ bilimi başta olmak üzere oldukça önemli gelişmeler ortaya atılmıştır.

Günümüzde ‘Yapay Zeka’ bilimi ile bilgisayarlar olaylara ait bilgileri toplayabilmekte, olaylar hakkında karar verebilmekte ve olaylar arasındaki ilişkileri öğrenip yorum yapabilmektedirler. Karmaşık problemler, geliştirilen yöntemler ile bilgisayarlar tarafından çözülebilmektedirler.

1943’ de temeli atılan ve 1980 ‘lerden bu yana geliştirilen yapay sinir ağları biyolojik sinir sisteminden esinlenen bir bilgi işlem paradigmasıdır. Đnsan sinir sisteminin, kendini uyarlama, kendini örgütleme ve hata toleransı gibi bazı temel özelliklerinden esinlenilerek geliştirilmiştir. Biyolojik sinir sisteminin çalışmasını şekilsel ve işlevsel olarak simule etmek için tasarlanan yapay sinir ağlarında proses elemanları (nöron) birbirine bağlanarak, öğrenme, hafızaya alma ve veriler arasındaki ilişki kurabilme işlevlerini gerçekleştirirler.

Yapay sinir ağları, belirli bir algoritma yerine sezgisel yöntemler kullanarak, örneklerden elde ettiği bilgileri genelleyerek, bilgiler toplamakta, daha sonra hiç görmediği örnekler hakkında öğrendiği bilgileri kullanarak yorum yapabilmektedir.

Daha sonra problemdeki değişikliklere göre yeniden eğitilebilmektedirler.

(19)

1990’ lı yıllardan bu yana yapay sinir ağı çalışmalarının hızlanmasıyla beraber çok sayıda yapay sinir ağı modeli geliştirilmiş ve sayısız öğrenme algoritması ortaya çıkmıştır. Yapay sinir ağları, doğrusal olmayan, çok boyutlu, karmaşık, kesin olmayan, eksik, kusurlu, hata olasılığı yüksek verilerin olması ve problemin çözümü için özellikle bir matematik modelin ve algoritmanın bulunmaması hallerinde yaygın olarak kullanılmaktadırlar. Endüstri, tıp, finans, malzeme, askeri sistemler gibi çoğu alanda uygulamaları bulunmaktadır. Bu uygulamalarda elde edilen başarılar yapay sinir ağlarının önemini artırmakta ve çalışmaları hızlandırmaktadır.

Bu çalışmada santrifüj pompa karakteristik eğrilerinden elde edilen verilerin yapay sinir ağı sistemine öğretilmesiyle, sistemin ürettiği çıktı ile beklenen çıktı arasındaki hataların karelerinin ortalaması hesaplanmış ve bu hatayı minimuma indirmek hedeflenmiştir.

(20)

2. YAPAY ZEKA

2. 1. Yapay Zeka

Edward Fredkin BBC’deki bir söyleşisinde ‘‘Tarihte üç büyük olay vardır.

Bunlardan ilki kainatın oluşumu, ikincisi yaşam başlangıcının oluşumu, üçüncüsü ise yapay zekanın ortaya çıkışıdır.’’demiştir. Yapay zeka gibi bir konuyu anlayabilmek için beyin ile bilgisayarlar arasındaki farkların ve benzerliklerin anlaşılması gerekir. Đnsan beyni yaklaşık bir buçuk kilo ağırlığında ve ceviz görüntüsünde olup, 60 yıllık bir ömürde saniyede 600 birimlik hafıza kaydedip, işleyip programlamak kapasitesine sahiptir. Bu, dakikada 3.600, saatte 2.160.000, günde 51.840.000 bitlik bilgi demektir.

Araştırmacı Dr.V.Grey Walter’a göre insan beynine benzeyen bir makinanın yapılabilmesi için 300 trilyon dolardan fazla paraya ve böyle bir makinanın çalışabilmesi için ise 1 Terawatt’lık elektrik enerjisine ihtiyaç vardır. Araştırmacı yazar Scon Witt’a göre ise yaşam boyunca beyin, gözlerle, kulaklarla, burunla, parmaklarla ve diğer duyu organlarıyla, devamlı olarak elektrik sinyalleri şeklinde bilgi alabilir, depolayabilir ve gönderebilir. Beyinden geçen milyarlarca gerçek ve hayal, doksan milyon kalın kitabı doldurabilir (Pirim, 2007).

Yapay Zeka kavramının geçmişi modern bilgisayar bilimi kadar eskidir. Fikir babası

"Makineler düşünebilir mi ?" sorusunu ortaya atarak makine zekasını tartışmaya açan Alan Mathison Turing'dir. 1943’ te Đkinci Dünya Savaşı sırasında Kripto Analizi gereksinimleri ile üretilen elektromekanik cihazlar sayesinde bilgisayar bilimi ve yapay zeka kavramları doğmuştur. Alan Turing, Nazi'lerin Enigma makinesinin şifre algoritmasını çözmeye çalışan matematikçilerdendi. Đngiltere, Bletchley Park 'ta şifre çözme amacı ile başlatılan çalışmalar, Turing 'in prensiplerini oluşturduğu bilgisayar prototipleri olan Heath Robinson, Bombe ve Colossus bilgisayarları, Boole cebirine dayanan veri işleme mantığı ile makine zekası kavramının oluşmasına sebep olmuştu.

Modern bilgisayarın atası olan bu makineler ve programlama mantıkları aslında insan zekasından ilham almışlardır. Ancak sonraları, modern bilgisayarlar daha çok uzman sistemler denilen programlar ile gündelik hayatın sorunlarını çözmeye yönelik kullanım alanlarında daha çok yaygınlaştılar (Wikipedia, 2006).

(21)

2.2. Yapay Zekanın Kronolojik Tarihçesi

• 1943: McCulloch & Pitts: Beynin Boolean devre modelinin tanımı.

• 1950: Turing’in bilgi işleyen makineler ve zeka konusunu ortaya atması.

• 1956: Dartmaouth Görüşmesi: “Yapay zeka” isminin ortaya atılışı.

• 1952-1969: IBM satranç oynayabilen ilk programı yazdı. YZ konusundaki ilk uluslararası konferans.

• 1950’ler: Đlk YZ programları, Samuel’in kontrol edici programı, Newell ve Simon’ın mantık teorisi, Gelernter’ın geometri motoru.

• 1965: Robinson’un mantıklı düşünme için geliştirdiği tam algoritma.

• 1966-73: YZ hesapsal karmaşayla karşılaşır. Sinir ağları araştırmaları hemen hemen kaybolur.

• 1969-79: Bilgiye dayalı sistemlerin ilk gelişme adımları.

• 1980: YZ’nin endüstri haline gelişi.

• 1986: Yapay sinir ağlarının tekrar popüler oluşu.

• 1987: YZ’nin bilim haline gelmesi.

• 1995: Zeki ajanların (terimsel kullanımdır) ortaya çıkışı.

• 1997: Santranç oyununda Deep Blue’nun Kasparov’u yenmesi.

• 1998: Đnternetin yaygınlaşıp YZ tabanlı birçok programın geniş kitlelere ulaşması.

• 2000-2005: Robot oyuncakların piyasaya sürülmesi (Pirim, 2007).

2.3. Yapay Zeka Teknolojileri

2.3.1. Uzman sistemler

Uzman sistemler (US), belirli bir alanda sadece o alan ile ilgili bilgilerle donatılmış ve problemlere çözümler getirebilen, çözümü kesin belli olmayan problem tipleri için bazı algoritmik olmayan uzmanlıkları somutlaştıran, hem makine hem de insan müdahalesine ihtiyaç duyan bilgi uygulamaları olarak bilinir.

(22)

Araştırmacı DENDRAL ile başlayan çalışmalar sonucunda, 1976 yılında Stanford Üniversitesinde Araştırmacı Fiegenbaum ve arkadaşları tarafından bakteriyolojik ve menenjitik hastalıkların tedavisine yönelik bir sistem olan ilk uzman sistem MYCIN ortaya atılmıştır. Son zamanlarda uzman sistemlerin geliştirilmesinde US kabuklarından (expert system shell) faydalanılmaktadır. Kabuk sistemler genellikle bir karar mekanizması, boş bir bilgi tabanı, kullanıcı ile sistem arasındaki iletişimi sağlayan bir arayüz ve bilgi mühendisinin kullanabileceği bir US programlama dili kullanarak konunun uzmanından edindiği bilgileri bu birim aracılığıyla bilgi tabanına aktarır.

LEONARDO ve KAPPA gibi US kabukları bunlara örnek verilebilir. Ayrıca kullanıcının kendisinin özel çıkarım mekanizması geliştirmesine imkan veren daha gelişmiş sistemler de mevcuttur (Sağıroğlu vd., 2003).

Bir uzman sistem, Kural Tabanı, Data Tabanı ve Kural Çözümleyici gibi üç parçadan oluşur. Kural tabanında, kural çözümleyicinin sonuca varmak için kullanacağı kural kümesi bulunur. Pek çok uygulamada Kural tabanı IF-THEN kural yapısında tutulur. Data tabanında probleme özgü olgular tutulur. Bu olgular IF-THEN kural yapısındaki koşulların değerleridir. Kural çözümleyici ise kural tabanındaki kurallara bakarak yeni kurallar veya sonuçlar üretir. Böyle bir sistemde doğal bir dil arabirimi kullanılması ile kullanıcının akıllı bir sistem üzerinden bir uzman ile bağlantı kurması sağlanabilir.

Uzman sistemlerin elemanları ve arayüzleri:

• Bilgi tabanı (knowledge base): Uzmanın bildirilerinden oluşur. If–then kurallarıyla yapılandırılır.

• Çalışma alanı (working space): Problem çözümünde gerekli özel bilgileri bulundurur.

• Çıkarım birimi (inference engine): Bilgi tabanından ve problemin özel verilerinden gelen tavsiyelerle değişen sistemin merkezindeki kod (Tektaş vd., 2003).

(23)

2.3.2. Yapay sinir ağları

Bilgisayarların olayları öğrenmesini sağlayan teknolojidir. Genellikle örnekler kullanılarak olayların girdi ve çıktıları arasındaki ilişkiler öğrenilir. Yapay sinir ağı yolu ile öğrenilen bilgiler ile benzer olaylar yorumlanarak karar verilir ve problemler çözülür (Öztemel, 2003). Yapay sinir ağları, non-lineer olmaları ve olasılıksal davranışları nedeniyle lineer metotlara göre daha iyi çözümlere ulaşılabilmesine izin vermektedir (Clarkson, 1999).

2.3.3. Zeki etmenler

Bunlar bağımsız karar verebilen bilgisayar sistemleridir. Hem donanım hem de yazılım olarak geliştirilmektedirler. Birden fazla yapay zeka tekniğini kullanabilirler.

Öğrenme ve gerçek zamanlı çalışabilme özellikleri vardır. Algılama, kavrama ve eylem olmak üzere genel olarak üç aşama vardır. Dış dünyadan gelen bilgiler algılandıktan sonra yorumlanır, gereksiz bilgiler ayıklanır ve önem derecelerine göre sıralanır. Daha sonra bilgi işleme, karar verme, problem çözme, planlama, öğrenme vb. işlemler gerçekleştirilir. Bilgi işleme sonucunda oluşturulan problem ve çözümlere göre sistemin davranışları belirlenir (Öztemel, 2003).

2.3.4. Bulanık mantık

Bulanık mantık (Fuzzy Logic) kavramı ilk kez 1965 yılında California Berkeley Üniversitesinden Prof. Lofti A. Zadeh’in bu konu üzerinde ilk makalelerini yayınlamasıyla duyulmuştur. O tarihten sonra önemi gittikçe artarak günümüze kadar gelen mantık, belirsizliklerin anlatımı ve belirsizliklerle çalışılabilmesi için kurulmuş katı bir matematik düzen olarak tanımlanabilir (Sağıroğlu vd., 2003).

Bulanık mantık teknolojisinde, 0-1 ikili mantık yerine çok değerli, ara değerleri de alabilen, uygulayabilen düşünceler ve uygulamalar vardır. Doğru veya yanlış yerine

(24)

biraz doğru biraz yanlış şeklinde açılımlar sergilenir (Pirim, 2007). Bulanık mantık ile klasik mantık arasındaki temel fark bilinen anlamda matematiğin sadece aşırı uç değerlere izin vermesidir. Klasik matematiksel yöntemlerle karmaşık sistemleri modellemek ve kontrol etmek bu nedenle zordur. Bulanık mantık daha niteliksel bir tanımlama olanağı sağlar. Kesin olarak karar verilemeyen olaylar için uzmanlar normal, yüksek, düşük, yaklaşık gibi linguistik değişken kavramları kullanmaktadırlar. Bulanık mantık, bilgisayarların da bu gibi durumlarda karar verebilmesi için geliştirilmiş bir teknolojidir. Bulanık mantık ile ‘normal’ gibi kavramların bilgisayar tarafından anlaşılması sağlanır. Bulanık mantık şu sürece göre çalışmaktadır;

Bulanıklaştırma (Fuzifikasyon) → Bulanık Önermeyi Đşleme → Netleştirme (Defuzifikasyon) (Öztemel, 2003).

Son yıllarda, bulanık mantık ve yapay sinir ağları, kontrol, karar destek ve denetim gibi geniş alanlarında uygulanmaya başlanmıştır (Wang and Lei, 1999: Detlef, 1997;

Lihvoh et al., 1998). Bu iki hesaplama yazılım tekniği, belirsizlik ve kesinsizlik sorunlarını ortadan kaldırmak için kullanılmış olmalarına rağmen, her ikisinin de kendine özgü dezavantajları vardır. Bulanık mantığın en büyük dezavantajlarından birisi; açıklama yeteneğine rağmen, öğrenme yeteneğinin düşük olmasıdır. Öte yandan yapay sinir ağları örneklerden öğrenebilir fakat genellikle elde edilmiş sonuçları açıklayamaz. Bu noktada bulanık mantık sistemlerinin öğrenebilme kapasitesini artırmak amacıyla iki sistemi birleştiren “neuro-fuzzy” sistemler geliştirilmiştir (Wang and Lei, 1999: Tsoukalas, 1997). Bulanık sinir ağları, eş zamanlı yapay sinir ağı/bulanık mantık sistemleri, işbirlikli neuro-fuzzy modeller, neuro-fuzzy bağlamında geliştirilmiştir.

Bulanık mantık sistemleri, örneğin; santrifüj pompa denetim uygulamalarında, elde yalnızca sezgiye dayalı ve doğruluğu kesin olmayan olağandışı hata ve sonuçlar varken kullanılır. Fakat bulanık mantık sisteminin başarıyla uygulanabilmesi açısından en önemli engel, tam ve konu ile ilgili bulanık bir ilişki (bulanık bilgi çıkarımı) elde etmektir. Bu bilgiyi sağlamak için en büyük kaynak insan uzmanlığıdır. Öte yandan, kesin ve tam insan bilgisinin elde edilemediği durumlarda, dikkate alınan sistem

(25)

girdi/çıktı verilerinden bu ilişkiyi çıkarmak arzu edilen bir durumdur. Bu durum özellikle mekanik araç denetim ve tanı durumlarında iki sebepten dolayı kullanışlıdır;

birincisi; bir sistemin davranışının tam olarak anlaşılamadığı durumlarda, ileri düzey araştırmalar ve ayarlamalar için, bir dizi bulanık girdi/çıktı ilişkisi elde etmek veya bulanık uzman sistemler yapılandırmak amacıyla, ikincisi ise; bulanık bir sistem yapılandırıldığında sistemin uyumu ve başarıya ulaşması çevrim içi yapay sinir ağları öğrenmesi gerçekleştirilerek denetim ve tanı koyma performansı artırılabilir (Wang and Lei, 1999).

2.3.5. Genetik algoritmalar

Genetik algoritmalar, canlılardaki doğal gelişim prensibine dayanmaktadır.

Karmaşık optimizasyon problemlerinin çözülmesinde kullanırlar. Bir problemi çözebilmek için öncelikle rasgele başlangıç çözümleri belirlenmekte, daha sonra bu çözümler birbirleri ile birleştirilerek performansı yüksek çözümler elde edilmektedir (Öztemel 2003).

Genel olarak bir genetik algoritmada; çözümlerin genetik olarak ifade edilmesi, çözümlerin başlangıç popülasyonunun oluşturması için bir yöntem, çözümleri uygunluk açısından değerlendirecek bir değerlendirme fonksiyonu (yani çevre), genetik yapıyı değiştirecek genetik operatörler ile popülasyon büyüklüğü gibi kontrol parametre değerlerine ihtiyaç vardır. Bu algoritmalarda, araştırma uzayında bulunan bazı çözümlerin oluşturduğu bir başlangıç yoğunluğu kullanılmaktadır. Bu başlangıç yoğunluğu her kuşakta doğal seçme ve tekrar üreme işlemleri vasıtasıyla tekrar geliştirilir. Son kuşağın en uygun bireyi problem için optimal bir çözüm olmaktadır. Bir genetik algoritmada potansiyel çözümler ile ilgili bilgiler, diziler (string) şeklindeki sayılarla ifade edilir. Optimizasyonun başlangıcında çoğunlukla rasgele olarak, bir sayı üretme jeneratörü tarafından bir grup çözüm üretilir. Başlangıç yoğunluğunun üretilmesini takiben, her çözümün uygunluğu veya iyiliği, seçilen bir uygunluk fonksiyonu kullanılarak değerlendirilir.

(26)

Uygunluk fonksiyonunun seçimi probleme bağlıdır. Seçme, çaprazlama ve mutasyon gibi genetik operatörler, elde edilen iyi çözümlerden denenmiş yeni çözümler üretmek için kullanılırlar. Bu iyileştirme işlemi, daha önceden belirlenen bir jenerasyon sayısına veya tatmin edici bir sonuca ulaşılıncaya kadar devam ettirilir. Birçok seçenek operatörü vardır. Bu operatörlerden ekilmiş (seeded) seçme, daha iyi çözüm arasındaki yoğunluktan seçme işlemini gerçekleştirir. Rasgele (random) seçme, o andaki elde edilen çözümlerden tamamen rasgele olarak yeni bir yoğunluk oluşturur. Seçkin (elite) operatörü, her zaman en iyi çözümü bir kuşaktan diğerine kopyalar. Çaprazlama operatörü, var olan iki çözümün uzantılarının belirli bir noktadan itibaren yer değiştirmesi ile denenmemiş yeni iki çözüm üretir. Mutasyon operatörü ise, var olan bir çözümün herhangi bir bitinin terslendirilmesi ile yeni bir çözüm üretir (Sağıroğlu vd., 2003).

Genel olarak genetik algoritma, çözüm bilgisinin hiç olmadığı veya çok az olduğu bir durumla aramaya başlar. Çözüm çevreden gelen etkileşime ve genetik operatörlere bağlıdır. Genetik algoritma, aramaya paralel bir şekilde, birbirinden bağımsız noktalardan başlar, bu nedenle alt optimal çözümlere takılma olasılığı azdır. Bu nedenle karmaşık arama problemleri (birden çok alt çözüm kümesi olan) için en iyi optimizasyon tekniği olarak bilinir (Tektaş vd., 2002).

(27)

3. YAPAY SĐNĐR AĞLARI

3.1. Yapay Sinir Ağlarının Tanımı

Yapay sinir ağları biyolojik sinir sisteminden esinlenen bir bilgi işlem paradigmasıdır. Bu paradigmanın anahtar elemanı bilgi işlem sisteminin yapısıdır. Çok sayıda proses elemanının (nöron) bir araya gelerek birbirine bağlanmasından oluşan bu yapı spesifik problemlere çözüm arar (Stergiou and Siganos 1997; Fırat ve Güngör, 2004).

Yapay sinir ağlarının temeli makine tabanlı bilgi işlemeye dayanır.

Araştırmacılar McCullogh ve Pitts, ara bağlantılı eşik değer birimlerinden oluşan ağın, Boolean fonksiyonunu kopya edebileceğini göstermişlerdir. Bu fonksiyon, parametre olarak girilen dizi ya da sayı verilerini boolean veri türüne çevirmek için kullanılır. Eşik değer birimleri biyolojik sinir sistemlerindeki sinir hücrelerine karşılık gelecek şekilde modellendiğinden bu ağlara yapay sinir ağları denilir. Daha sonraları araştırmacı Rosenblatt analog elektro-mekanik sistemler kullanarak, McCullogh ve Pitts tarafından modellenmiş olan perceptron (algılayıcı) kuramını örüntü tanıma problemlerine taşımıştır. Bu çalışma yapay sinir ağlarının dağıtık çağrışımlı bellek olarak adlandırılan anahtar özelliğini ortaya çıkarmıştır (Lisboa, 2001).

1943’ de temeli atılan ve 1980 ‘lerden bu yana geliştirilen yapay sinir ağları teknolojisi nonlineer bilimin bir çeşididir ve insan sinir sisteminin, kendini uyarlama, kendini örgütleme ve hata toleransı gibi bazı temel özelliklerinden esinlenilerek geliştirilmiştir (Wang et al., 2004). Biyolojik sinir sisteminin çalışmasını şekilsel ve işlevsel olarak simule etmek için tasarlanan yapay sinir ağlarında proses elemanları (nöron) birbirine bağlanarak, öğrenme, hafızaya alma ve veriler arasındaki ilişki kurabilme işlevlerini gerçekleştirirler (Huang and Murray, 2003).

Yapay sinir ağları, örneklerden elde ettikleri bilgiler ile kendi deneyimlerini oluşturur ve daha sonra benzer konularda benzer kararlar verirler. Birbirine hiyerarşik olarak bağlı ve paralel olarak çalışabilen yapay hücrelerin (proses elemanları) birbirine

(28)

bağlandıkları ve her bağlantının bir değerinin olduğu kabul edilmekte, öğrenme yolu ile elde edilen bilgi proses elemanlarının bağlantı değerlerlerinde saklanmaktadır. Biyolojik sistemlerde öğrenme, nöronlar arasındaki sinaptik bağlantıların ayarlanması ile olur.

Yaşayıp tecrübe ettikçe sinaptik bağlantılar ayarlanır ve yeni bağlantılar oluşur. Bu sayede öğrenme gerçekleşir. Bu durum yapay sinir ağları için de geçerlidir. Öğrenme, eğitme yoluyla örnekler kullanarak olur; başka bir deyişle, gerçekleşme girdi/çıktı verilerinin işlenmesiyle, yani eğitme algoritmasının bu verileri kullanarak bağlantı ağırlıklarını bir yakınsama sağlanıncaya kadar tekrar tekrar ayarlamasıyla olur. Yapay sinir ağları, ağırlıklandırılmış şekilde birbirlerine bağlanmış birçok işlem elemanından (nöronlar) oluşan matematiksel sistemlerdir. YSA’lar Bağlantısal Mimarlar (Connectionist Architectutures), Adaptif Sistemler (Adaptive Systems) veya Paralel Dağıtılmış Đşlemciler (Paralel Distributed Processing) olarak da adlandırılırlar (Yurtoğlu, 2005; Öztemel, 2003; Wikipedia, 2006).

3.2. Yapay Sinir Ağlarının Kronolojik Tarihçesi

• 1890: Đnsan beyninin yapısı ve fonksiyonları ile ilgili ilk yazılımlar.

• 1911: Đnsan beyninin bileşenlerinin belirli bir düzenek ile sinir hücrelerinden (nöronlar) oluştuğu fikrinin benimsenmesi.

• 1942: McCulloch ve Pitts tarafından ilk hücre modelinin geliştirilmesi ve birkaç hücrenin ara bağlaşımlarının incelenmesi.

• 1943: Yapay sinir hücrelerine dayalı hesaplama teorisinin ortaya atılması ve eşik değerli mantıksal devrelerin (threshold logic device) geliştirilmesi.

• 1949: Hebb tarafından ilk öğrenme kuralının önerilmesi ve biyolojik olarak mümkün olabilen öğrenme prosedürünün bilgisayarlar tarafından gerçekleştirilecek biçimde geliştirilmesi.

• 1956-1962: Widrow ve Hoff tarafından ADALINE, LMS ve Widrow öğrenme algoritmalarının geliştirilmesi.

• 1957-1962: Tek katmanlı algılayıcının (perceptron) geliştirilmesi.

• 1958: Rosenblatt tarafından algılayıcı (perceptron) modelinin ve öğrenme kuralının geliştirilerek bugün kullanılan kuralların temelinin koyulması.

(29)

• 1965: Makine öğrenmesi ile ilgili ilk kitabın yayınlanması,

• 1967-1969: Bazı gelişmiş öğrenme algoritmalarının (Grosberg öğrenme algoritması gibi) geliştirilmesi.

• 1969: Minsky ve Papert tarafından algılayıcıların kesin analizi yapılarak algılayıcıların karmaşık mantıksal fonksiyonlar için kullanılamayacağının açıklanması.

DARPA’nın yapay sinir ağlarını desteklemeyi durdurup diğer yapay zeka çalışmalarına destek vermesi.

• 1969-1972: Doğrusal ilişkilendiricilerin geliştirilmesi.

• 1972: Korelasyon ve matris belleğinin geliştirilmesi.

• 1974: Geriye yayılım modelinin (çok katmanlı algılayıcının) ilk çalışmalarının geliştirilmesi.

• 1978: Öğretmensiz öğrenmenin geliştirilmesi-ART modelinin geliştirilmesi.

• 1982: Kohonen tarafından öz düzenlemeli haritanın (self-organizing map) tanımlanması ve kendi adıyla anılan eğiticisiz öğrenen ağları geliştirilmesi.

• 1982: Hopfield tarafından YSA’nın birçok problemi çözebilecek kabiliyette olduğunun gösterilmesi ve optimizasyon gibi teknik problemlerin çözülmesi için doğrusal olmayan Hopfield ağının geliştirilmesi.

• 1982: Çok katmanlı algılayıcının geliştirilmesi.

• 1982: SOM modelinin geliştirilmesi.

• 1984: Boltzman makinesinin geliştirilmesi.

• 1985: Çok katmanlı algılayıcıların (genelleştirilmiş Delta öğrenme kuralı ile) geliştirilmesi.

• 1986: Rumelhart tarafından geriye yayılımın tekrar meydana çıkarılması.

• 1988: Chua ve Yang tarafından hücresel sinir ağlarının geliştirilmesi.

• 1988: RBFN modelinin geliştirilmesi, PNN modelinin geliştirilmesi.

• 1991: GRNN modelinin geliştirilmesi.

• 1991 sonrası: Günümüze kadar sayısız uygulamalar geliştirilmiştir.

(Öztemel, 2005; Şen, 2004).

(30)

3.3. Yapay Sinir Ağlarının Çalışma Prensibi

Bir yapay sinir ağının en temel görevi, kendisine gösterilen bir girdi setine karşılık gelebilecek bir çıktı seti belirlemektir. Bunu yapabilmesi için ağ, ilgili olayın örnekleri ile eğitilerek genelleme yapabilecek yeteneğe kavuşturulur. Bu genelleme ile benzer olaylara karşılık gelen çıktı setleri belirlenir (Öztemel, 2003).

Yapay sinir ağlarının temel özellikleri, mimarisi (architecture) ve fonksiyonel özellikleri (neurodynamics) olarak iki kısımda incelenebilir. Mimari yapı ağın topolojisini yani, ağdaki nöronların sayısını ve birbirleriyle olan bağlantılarını tanımlar.

Sinir ağları çok sayıda benzer karakteristiklere sahip nöronun (proses elemanı) birbirine bağlanmasından oluşur. Nöron dinamiği ile de sinir ağının özellikleri tanımlanır. Ağın öğrenmesi, öğrendiklerini hatırlaması, veriler arasında bağlantı kurması, yeni bilgilerle var olan bilgileri karşılaştırabilmesi, yeni bilgilerin sınıflandırılması ve eğer gerekli ise yeni sınıflandırmaların geliştirilmesi ağın fonksiyonel özellikleridir (Kartalopoulos, 1996). Nitel veya niceliksel analizin etkinliği için yapay sinir ağları eğitim safhasından geçmelidir. Ağın topolojisinin ayarlanması, ağırlık faktörleri, aktivasyon fonksiyonu parametreleri ve diğer ağ parametreleri, ağa özel eğitim metoduyla belirlenmelidir (Kalach, 2005).

Sinirsel (neural) hesaplamanın merkezinde, dağıtılmış, adaptif ve doğrusal olmayan işlem kavramları vardır. Yapay sinir ağları, geleneksel işlemcilerden farklı bir şekilde işlem yapmaktadırlar. Geleneksel işlemcilerde, tek bir merkezi işlem elemanı her hareketi sırasıyla gerçekleştirir. YSA’lar ise her biri büyük bir problemin bir parçası ile ilgilenen, çok sayıda basit işlem elemanlarından oluşmaktadırlar. En basit şekilde, bir işlem elemanı, bir girdiyi bir ağırlık kümesi ile ağırlıklandırır, doğrusal olmayan bir şekilde dönüşümünü sağlar ve bir çıktı değeri oluşturur. Sinirsel hesaplamanın gücü, toplam işlem yükünü paylaşan işlem elemanlarının birbirleri ile arasındaki yoğun bağlantı yapısından gelmektedir. Çoğu YSA’da benzer karakteristiğe sahip nöronlar tabakalar haline yapılandırılır ve transfer fonksiyonları eş zamanlı olarak çalıştırılırlar.

YSA’nın ana öğesi olan matematiksel fonksiyon, ağın mimarı tarafından şekillendirilir.

YSA’nın yapısı oluşturulduktan sonra çeşitli matematiksel algoritmalardan bir tanesi

(31)

kullanılarak üretilen çıktıların doğruluk (accuracy) düzeyinin maksimize edilmesi için gerekli olan ağırlık değerleri belirlenir. YSA’lar önceki örnekleri kullanarak ağırlıkları belirlemek yoluyla girdi değişkenleri ile tahmini değişkenler arasındaki ilişkiyi ortaya çıkartırlar; diğer bir deyişle YSA’lar eğitilir. Bir kez bu ilişkiler ortaya çıkartıldıktan sonra YSA yeni verilerle çalıştırılabilir ve tahminler üretebilir. Bir ağın performansı, amaçlanan çıktı ve hata kriteri ile ölçülür. Ağın çıktısı ile amaçlanan çıktı karşılaştırılarak hata payı elde edilir. Geri yayılma (backpropagation) olarak adlandırılan algoritma ile hata payını azaltacak şekilde ağırlıkları ayarlamak mümkündür. Bu işlem defalarca tekrar edilerek performans ölçümleri bazında optimum çözüme ulaşılır (Yurtoğlu, 2005).

YSA hesaplamaları arasında biri ileriye doğru girdileri çıktılar haline dönüştürmek, diğeri de hataların azaltılması için ağırlıkları geriye doğru yenilemek olmak üzere iki aşama vardır. Sonuçta modelin hata uzayında en küçük değere yaklaşması istenir ama bunu garanti etmek zordur. YSA bir yerel en küçükleme değerine ulaşarak sanki en iyi durum elde edilmiş gibi bir yanılgıya da sebep olabilir. Bundan kaçınmanın tek yolu aynı YSA’yı değişik başlangıç değerleri atanması ile birkaç defa çalıştırmaktır. Eğer her seferinde de aynı en küçük hata değerine ulaşılıyorsa bunun aranan mutlak en küçük hataya karşı geldiği kararına varılabilir (Şen, 2004).

3.4. Yapay Sinir Ağlarının Genel Özellikleri

• Paralel olarak çalışırlar ve hata tolere edebilirler.

• Bilgi, ağın bağlantılarının değerleri ile ölçülmekte ve bağlantılarda saklanmaktadır.

• Örnekleri kullanarak öğrenirler (adaptif öğrenme).

• Belirli bir algoritma yerine sezgisel yöntemler kullanırlar.

• Problemdeki değişime göre tekrar eğitilebilirler.

• Genelleme yapabilirler.

• Görülmemiş örnekler hakkında bilgi üretebilirler.

• Algılamaya yönelik olaylarda kullanılabilirler.

• Şekil(örüntü) ilişkilendirme, örüntü tamamlama ve sınıflandırma yapabilirler.

(32)

•Kendi kendine organize etme ve öğrenebilme yetenekleri vardır. Eksik bilgi ile çalışabilmektedirler. Belirsiz, tam olmayan bilgileri işleyebilmektedirler.

• Dereceli bozulma (graceful derradation) gösterirler.

• Dağıtık belleğe sahiptirler.

• Sadece nümerik bilgiler ile çalışabilmektedirler.

• Doğrusal olmayan karmaşık problemlerin çözümünde kullanılırlar.

•Ağ fonksiyonları nonlineerdir. Ağ yapısal esnekliğe sahip olduğundan işlevseldir.

(Öztemel, 2005; Ergezer vd., 2003).

3.5. Yapay Sinir Ağlarının Uygulama Alanları

Yapay sinir ağları çeşitli alanlarda kompleks problemlerin çözümünde yaygın olarak kullanılmakta olup örüntü tanıma, sınıflandırma ve kontrol sistemlerinde başarı ile uygulanmaktadırlar. Geleneksel bilgisayarlar ve insanlar için oldukça zor olan problemleri çözmek için eğitilebilmektedirler. Diğer taraftan istenilen bilgiyi verilerden doğrudan elde edebildikleri için geleneksel yaklaşımların sınırlamasının üstesinden gelebilirler (Sözen vd., 2003).

Yapay sinir ağları, yaygın olarak kullanılan çok değerli, lineer olmayan sistemlerdir.

YSA yazılım teknikleri özellikle gerçek zamanlı fonksiyonların kullanıldığı problemlerde (belirsizlik işleme, sensör tümleme gibi) uygulanabilir çözümler önerebilirler (Viharos et al., 2001: Monostori et al.,1996).

Yapay sinir ağları esnekliği ve performansı nedeniyle mekanik sistemlerdeki yeni teknolojilerin etkisini analiz etmede yaygın olarak kullanılırlar ve analiz için gereken zamanı azaltırlar. Yapay sinir ağları dizayn nesnelerinin optimizasyonunda önemli performans gelişimi sağladığı gibi, dizayn nesneleri arasında zıtlık olduğunda dahi hem tekli hem çoklu nesneler için yakın gerçek zamandaki sistem çıktısının tahminini sağlar.

Yapay sinir ağlarının kullanımı yakın gerçek zamanlı karmaşık sistemlerin tasarım analiz araçlarının kabul edilebilir toleranslarla simülasyonunu olanaklı kılar (Jules and Lin, 2002). Yapay sinir ağları herhangi bir konuda çözüm bulmanın en iyi ikinci

(33)

yoludur. En iyi yöntem, problemi tam olarak kavrayarak doğru formülü ve en iyi algoritmayı bulmaktır. Fakat bu her zaman mümkün olmamaktadır ve çoğu problem en iyi 2. yaklaşıma başvurularak çözülmektedir (Jepsen, 2006). Yapay sinir ağları, doğrusal olmayan, çok boyutlu, karmaşık, kesin olmayan, eksik, kusurlu, hata olasılığı yüksek verilerin olması ve problemin çözümü için özellikle bir matematik modelin ve algoritmanın bulunmaması hallerinde yaygın olarak kullanılmaktadırlar. Yapay sinir ağları çok değişken ve karmaşık etkileşim içeren üretim prosesleri için mükemmel sistemlerdir.

Yapay sinir ağlarının uygulandığı alanlardan en yaygın olanları şunlardır;

probabilistik fonksiyon kestirimleri, sınıflandırma, ilişkilendirme veya örüntü eşleştirme, zaman serileri analizleri, sinyal filtreleme, veri sıkıştırma, örüntü tanıma, doğrusal olmayan sinyal işleme, optimizasyon, zeki ve doğrusal olmayan kontrol, kümeleme, vektör sayısallaştırması, tahmin problemleri, planlama ve kontrol, proses kontrolü, robotik, bio-enerji, endüstriyel işlem modelleme, malzeme formülasyonu, uydu görüntülerini ve sonar sinyalleri sınıflandırma (Öztemel, 2003; Şen, 2004;

Dreyfus, 2005). Yapay sinir ağlarının mühendislik alanındaki bazı uygulamaları ise;

rulman hata sınıflaması, tornalama, vida dişi açma ve kaynak karşılaştırması, araç titreşimi gözleme için akustik emisyon, sürekli karıştırmalı tank reaktörlerinin sıcaklık kontrolü, çip üretimi izleme ve kesme takımı dayanımı gibi uygulamalardır. Pham ve Öztemel 1994’ de kontrol haritalarının analizi ve yorumlanması için örüntü tanıma ve uzman sistem esaslı tüm devre sinir ağlarını kullanmışlardır (Stich et al., 1999).

(34)

4. YAPAY SĐNĐR AĞLARININ YAPISI, ELEMANLARI VE MĐMARĐSĐ

4.1. Biyolojik Sinir Hücreleri

Nöron (sinir hücresi) sinir sisteminin en temel birimidir. Sinir hücrelerinin birbirlerine bağlanmasıyla biyolojik sinir ağı oluşur. Beynimizde 10¹º adet sinir hücresi ve bunlarında 6x10¹³ ‘den fazla sayıda bağlantısının olduğu bilinmektedir. Biyolojik sinir ağları oldukça kompleks, biyokimyasal ve elektriksel sinyal işleme sistemidir.

Klasik tanımlamaya göre; nöron, beynin bilgi işlem ünitesidir (Kartalopoulos, 1996).

Nöronların en belirgin özelliği, vücudun diğer bölümlerinin tersine yeniden üretilmeyen belirli bir hücre türü olmasıdır. Beynin diğer temel yapısal ve fonksiyonel birimleri olan bağlantılar (synapses) nöronlar arası etkileşimi sağlarlar. Bu yoğun bağlantılı yapı, etkinlik açısından önemli olduğu kadar, beynin plastiklik (yenilenebilme) özelliğini de beraberinde getirmektedir. Plastiklik özelliği, gelişmekte olan sinir sisteminin kendisini kuşatan çevreye adapte olmasını sağlamaktadır. Gelişmiş bir beyinde, plastiklik iki mekanizma ile açıklanmaktadır. Bunlar; nöronlar arasında yeni bağlantıların oluşturulması ve var olan bağlantıların değiştirilmesidir. Bağlantı ağırlıklarının değiştirilmesi ve yeni bağlantıların oluşturulması ile öğrenme gerçekleşmektedir (Yurtoğlu, 2005).

Merkezi sinir ağında, bilgiler alıcı ve tepki sinirleri arasında ileri ve geri besleme yönünde değerlendirilerek uygun tepkiler üretilir. Bu yönüyle biyolojik sinir sistemi, kapalı çevrim denetim sisteminin karakteristiklerini taşır. 1943 yılında McCullogh ve Pitts, nöronun, mantık sistemlerine basit eşdeğer yapısıyla modellenebileceğini ortaya atmışlardır (Fırat ve Güngör, 2004). En basit sinir hücresi olan nöron biyolojik sinir sisteminin temel yapıtaşıdır. Tipik bir hücre 3 ana bölüme sahiptir; hücre gövdesi (soma), akson ve dendritler. Dendrit formu nöron gövdesi etrafında çok dallı ince fiberlere sahip olan dendrit ağacı şeklindedir. Dendritler nöronlardan alınan bilgiyi uzun fiberlerle aksonlara iletirler. Aksonlar, nörondan gelen sinyalleri taşıyan uzun silindirik bağlantılardır. Akson-dendrit temas organı ise sinapslardır. Sinapslar nöronun aksonundan aldıkları sinyalleri komşu nöronun dendritlerine iletirler. Bu sinyaller

(35)

elektriksel sinyallerdir. Đki hücrenin birbirleri ile bilgi alış verişi sinaptik bağlantılarda neurotransmitter’lar yolu ile sağlanmaktadır. Nöronlar arası iletim sinapslardaki vericilerde bulunan kimyasal enerjinin açığa çıkmasıyla gerçekleşir. Uçbirim devreleri alıcı nörona tesir eden kimyasal enerjiyi üretirler. Bu enerji elektrik sinyalleri ile alıcı nörona iletilir. Nöron bu sinyali aksonuna iletir veya yanıt vermez (Zurada, 1992). Şekil 4.1’de biyolojik sinir hücresinin yapısı gösterilmiştir.

Şekil 4.1. Biyolojik sinir hücresinin yapısı

4.2. Yapay Sinir Hücresi

Yapay sinir hücreleri mühendislik biliminde proses elemanları veya nöron olarak da adlandırılmaktadır. Nöron, birçok girdisi ve tek bir çıktısı olan bir ünitedir. Yapay nöronlarda tüm sinyaller 1 veya -1 dir (ikili sistem). Nöron ağırlıklandırılmış girdi toplamlarını hesaplar ve eşik değeri ile karşılaştırır. Eğer toplam, eşik değerinden büyükse çıktı 1 değerini alır. Aksi takdirde -1 olur (Galkin, 2003). McCullogh ve Pitts (1943) biyolojik sistemlerden esinlenerek ilk yapay nöron modelini oluşturmuşlardır.

(36)

Bu nöron, nonlineer parametreli ve sınır fonksiyonludur. Nöronun girdilerine (x ) i parametreler atanır, nöronun çıktısı ise, parametrelerle ağırlıklandırılmış girdilerin nonlineer kombinasyonudur. Bu parametreler ağırlık (w ) olarak adlandırılır. i Ağırlıklandırılmış girdilerin toplamı, ‘bias’ (w ) olarak adlandırılan ağırlık sabitinin 0 eklenmesiyle hesaplanır.

i n

i ix w w

u

=

+

= 1

1

0 (4.1)

Toplam değerleri alınan ağırlıklandırılmış girdiler F olarak gösterilen aktivasyon fonksiyonundan geçirilir ve nöronun çıktı değeri hesaplanır (Dreyfus, 2005).

]

tanh[ 1

0 1 i

n i wix w

y= +

= (4.2) Şekil 4.2’de yapay nöronun genel yapısı gösterilmiştir.

Şekil 4.2. Yapay nöronun genel yapısı

(37)

Girdiler: Bir yapay sinir hücresine (proses elemanına) dış dünyadan gelen bilgilerdir.

Bunlar ağın öğrenmesi istenen örnekler tarafından belirlenir. Yapay sinir hücresine dış dünyadan olduğu gibi başka hücrelerden veya kendisinden de bilgiler gelebilir.

Ağırlıklar: Ağırlıklar bir yapay hücreye gelen bilginin önemini ve hücre üzerindeki etkisini göstermektedir. Ağırlıkların büyük ya da küçük olması önemli veya önemsiz olduğunu belirlemez. Ağırlıkların işareti etkilerinin pozitif veya negatif olduğunu gösterir. Sıfır olması ise herhangi bir etkisi olmadığını gösterir. Ağırlıklar değişken veya sabit değerler olabilirler.

Toplama Fonksiyonu: Bu fonksiyon, bir hücreye gelen net bilgiyi hesaplar. Bunun için değişik fonksiyonlar kullanılmaktadır. En yaygın olanı ağırlıklı toplamı bulmaktır.

Burada her gelen girdi değeri kendi ağırlığı ile çarpılarak toplanır. Böylece ağa gelen net girdi bulunmuş olur.

=

n

i iW X NET

1

(4.3)

Yapay sinir ağlarında daima bu formülün kullanılması şart değildir. Kullanıcı tarafından belirlenebilir. Proses elemanlarının tamamının aynı toplama fonksiyonuna sahip olması gerekmez.

Aktivasyon Fonksiyonu: Bu fonksiyon, hücreye gelen net girdiyi işleyerek hücrenin bu girdiye karşılık üreteceği çıktıyı belirler.

e NET

NET

F

= + 1 ) 1

( (4.4)

Aktivasyon fonksiyonunda da çıktıyı hesaplamak için değişik formüller kullanılmaktadır. Burada da ağın proses elemanlarının hepsinin aynı fonksiyonu kullanması gerekmez (Öztemel, 2003). Aktivasyon fonksiyonları bir YSA’da nöronun

(38)

çıkış genişliğini istenilen değerler arasında sınırlar. Bu değerler çoğunlukla [0,1] veya [-1-1] arasındadır (Kaya vd., 2005).

Hücrenin Çıktısı: Transfer fonksiyonu tarafından belirlenen çıktı değeridir. Üretilen çıktı dış dünyaya veya başka bir hücreye gönderilir. Hücre kendi çıktısını kendisine girdi olarak da gönderebilir. Ağ şeklinde gösterimde aynı çıktı değeri birden fazla proses elemanına gittiğinden proses elemanının birden fazla çıktısı varmış gibi görünmektedir, fakat bir proses elemanından çıkan tek bir çıktı vardır (Öztemel, 2003).

Şekil 4.3. Yapay nöronun detaylı yapısı

Şekil 4.3’de basit bir yapay nöronun daha ayrıntılı şeması verilmiştir. Şekilde, girdi değerler işlem elemanına üst sol bölümden girmektedir. Đşlemde ilk adım, bu girdi değerlerin her birinin ağırlıklandırılmalarıdır. Her girdinin kendi nispi ağırlığı vardır.

Ağırlıklandırma sonrasında bazı girdiler diğerlerine göre daha önemli hale gelirler ve işlem elemanının bir sinirsel tepki üretmesi işleminde daha fazla etkili olurlar.

Ağırlıklar girdi sinyalinin güçlülüğünü belirleyen adaptif katsayılardır.

Ağırlıklandırmadan sonra değiştirilmiş girdiler toplama fonksiyonuna gönderilirler.

(39)

Toplama fonksiyonunun çıktısı transfer (aktivasyon) fonksiyonuna gönderilir. Bu fonksiyon, aldığı değeri bir algoritma ile gerçek bir çıktıya dönüştürür. Transfer fonksiyonu genellikle doğrusal olmayan bir fonksiyondur. Doğrusal fonksiyonlar genelde tercih edilmez çünkü doğrusal fonksiyonlarda çıktı, girdi ile orantılıdır.

Genellikle kullanılan transfer fonksiyonları eşik, sigmoid, hiperbolik tanjant vb.

fonksiyonlardır (Şekil 4.4). Türevi alınabilir fonksiyonlar olan sigmoid ve hiperbolik tanjant fonksiyonları en çok kullanılan fonksiyonlardır.

Şekil 4.4. En çok kullanılan transfer (aktivasyon) fonksiyonları

Transfer fonksiyonunun sonucu genellikle işlem elemanının çıktısıdır. Transfer fonksiyonunun çalışma yapısı Şekil 4.5’de Sigmoid fonksiyonu kullanılarak örneklenmektedir. Sigmoid transfer fonksiyonu, toplama fonksiyonundan gelen ve şekilde ‘Toplam’ olarak gösterilen değeri alır ve 0 ile 1 arasında bir değere dönüştürür.

0 ile 1 arasında bu değer transfer fonksiyonunun ve dolayısıyla işlem elemanının çıktısıdır ve dış ortama veya girdi olarak başka bir nörona iletilir.

(40)

Şekil 4.5. Transfer fonksiyonunun çalışma yapısı

Transfer fonksiyonu işlemi öncesinde, sisteme uniform dağılmış bir rassal hata eklenebilmektedir. Bu rassal hatanın kaynağı ve büyüklüğü, ağın öğrenme işlemi sürecinde belirlenir. Günümüzde rassal hata kullanımı fiilen tam olarak yerleşmemiştir ve halen bir araştırma süreci içerisindedir. Ayrıca, bazı ağlarda, transfer fonksiyonunun çıktısı üzerinde başka işlemler, ölçeklendirme ve sınıflandırma yapılabilmektedir.

Transfer fonksiyonundan çıkan değer, işlem elemanının da çıktısıdır. Fakat bazı durumlarda işlem elemanının bu çıktıyı bir çıktı fonksiyonu ile bir dönüşüme uğratması gerekmektedir. Bu çıktı, ağın yapısına göre, girdi olarak başka bir işlem elemanına veya bir dış bağlantıya gönderilir.

Yapay sinir ağlarında, yapı taşlarının oluşturulmasından sonra işlem elemanları kümelendirilerek, birbirleri ile bağlantıları oluşturulur. YSA’larda nöronlar basit bir şekilde kümelendirilmektedirler. Bu kümelendirme katmanlar halinde yapılmaktadır ve daha sonra bu katmanlar bir diğerine ilişkilendirilmektedir. Şekil 4.6’ da genel bir YSA yapısı gösterilmiştir (Yurtoğlu, 2005).

(41)

Şekil 4.6. YSA’ların genel yapısı

Girdi Katmanı: Bu katmandaki proses elemanları dış dünyadan bilgileri alarak ara katmanlara transfer ederler. Bu katmanda bilgi işleme olmaz.

Ara katman (Gizli Katman): Girdi katmanından gelen bilgileri işleyerek çıktı katmanına gönderirler. Girdi ve çıktı katmanı arasında birden fazla ara katman bulunabilir. Ara katmanlar çok sayıda nöron içerirler ve bu nöronlar tamamen ağ içindeki diğer nöronlara bağlantılıdırlar.

Çıktı katmanı: Bu katmandaki proses elemanları ara katmandan gelen bilgileri işleyerek ağın girdi katmanından sunulan girdi seti için üretilmesi gereken çıktıyı üretirler (Öztemel, 2003).

(42)

5. YAPAY SĐNĐR AĞLARI ÖĞRENME ALGORĐTMALARI

5.1. Temel Öğrenme Kuralları

5.1.1. Hebb kuralı

Hebbian öğrenme olarak Hebb’in 1949 yılında yayınladığı Davranış Organizasyonu (The Organization Behaviour) isimli kitabında yayınladığı kurala göre ‘ bir nöron diğer bir nörondan giriş alıyorsa ve her iki nöron da aktif ise (matematiksel olarak aynı işarete sahip ise) nöronlar arasındaki ağırlık kuvvetlendirilir.’ Diğer bir deyişle bir hücre kendisi aktif ise bağlı olduğu hücreyi aktif yapmaya, pasif ise pasif yapmaya çalışmaktadır. Diğer öğrenme kurallarının çoğu bu felsefeyi baz alarak geliştirilmiştir (Sağıroğlu vd., 2003; Öztemel, 2003).

5.1.2. Hopfield kuralı

Hebb kuralına benzemektedir. Yapay sinir ağı elemanlarının bağlantılarının ne kadar kuvvetlendirilmesi veya zayıflatılması gerektiği belirlenir. Eğer beklenen çıktı ve girdilerin ikisi de aktif veya pasif ise, öğrenme katsayısı kadar ağırlık değerlerini kuvvetlendir veya zayıflat denmektedir. Yani, ağırlıkların kuvvetlendirilmesi veya zayıflatılması öğrenme katsayısı yardımı ile gerçekleşmektedir. Öğrenme katsayısı genel olarak 0-1 arasında kullanıcı tarafından atanan sabit ve pozitif bir değerdir (Sağıroğlu vd., 2003; Öztemel, 2003).

5.1.3. Delta kuralı

Bu kural Hebb kuralının biraz daha geliştirilmiş şeklidir. Beklenen çıktı ile gerçekleşen çıktı arasındaki farklılığı azaltmak için yapay sinir ağının elemanlarının bağlantılarının ağırlık değerlerinin sürekli değiştirilmesi ilkesine dayanarak geliştirilmiştir. Ağın ürettiği çıktı ile üretilmesi beklenen çıktı arasındaki hatanın

(43)

karelerinin ortalamasını minimuma indirmek hedeflenmektedir. Hata aynı anda bir katmandan bir önceki katmanlara geri yayılarak azaltılır. Bu kural, geri yayılım, Widrow-Hoff veya en küçük ortalama karesel öğrenme kuralı olarak da bilinir (Sağıroğlu vd., 2003; Öztemel, 2003).

5.1.4. Kohonen kuralı

Bu kuralda yapay sinir hücreleri öğrenmek için yarışırlar. Kazanan hücrenin ağırlıkları güncellenir. En büyük çıktıyı üreten hücre kazanan hücre olmakta ve ağırlıkları değiştirilmektedir. Bu hücre komşularını uyarma ve yasaklama kapasitesine de sahip olur. Bu kural ‘‘kazanan tamamını alır (winner takes all)’’ olarak da bilinir (Sağıroğlu vd., 2003; Öztemel, 2003).

5.2. Öğrenme Algoritmalarının Sınıflandırılması

Bir takım metod, kural, metodoloji, algoritma, yaklaşım veya gözlem ile bir ağın ağırlıklarının bir probleme göre değiştirilmesi ile öğrenme sağlanır. Öğrenme metodolojisine göre algoritmalar sınıflandırılmıştır.

5.2.1. Öğretmenli öğrenme (Supervised Learning)

Öğretmenli öğrenme, ağın gerçek çıktısı ile hedeflenen çıktının direkt olarak karşılaştırılması temeline dayanır. Bu öğrenme algoritmasında gerçek çıktı ile beklenen çıktı arasındaki hata fonksiyonunun karelerinin ortalamasının minimize edilmesi hedeflenir. Đstenilen çıktı ile gerçek çıktı arasındaki farka (hataya) göre sinir hücreleri arası bağlantıların ağırlığı, en uygun çıkışı elde etmek için bir öğrenme algoritmasıyla düzenlenir (Yao, 1999). Widrow-Hoff tarafından geliştirilen delta kuralı ve Rumelhart tarafından geliştirilmiş genelleştirilmiş delta kuralı veya geri yayılım (backpropagation) algoritması öğretmenli öğrenme algoritmalarına örnek verilebilir. Çok katmanlı

(44)

algılayıcı ağı bu stratejiyi kullanır (Sağıroğlu vd., 2003; Öztemel, 2003). Bu öğrenme paradigması örüntü tanıma, sınıflandırma, fonksiyon kestirme, konuşma ve hareket tanıma problemlerinde yaygın olarak kullanılmaktadır (Wikipedia, 2006).

Geri yayılım algoritması

Çok katmanlı sinir ağlarının eğitimi için genellikle kullanılan eğitim algoritması hatayı geriye yayma (Backpropagation) algoritmasıdır. Anlaşılması kolay ve matematiksel olarak ispatlanabilir olmasından dolayı en çok tercih edilen öğrenme algoritmasıdır. Türevi alınabilir aktivasyon fonksiyonu ile herhangi bir ileri beslemeli sinir ağı için kullanılabilir. Eğer toplam hata fonksiyonu gibi ağ çıkışlarının her biri için de bir hata fonksiyonu tanımlanabilirse, hata fonksiyonu ağırlıkların diferansiyel fonksiyonu olur. Bu durumda ağırlıklar ile hatanın türev değeri bulunabilir. Bu türevler, eğim düşümü ya da optimizasyon metodu ile minimum hata fonksiyonunun ağırlıklarını bulmak için kullanılabilir. Hata fonksiyonunun türev değeri için kullanılan algoritma hatayı ağ içerisinde geriye doğru yaydığı için ‘hatayı geriye yayma’ algoritması olarak bilinir (Fırat ve Güngör, 2004). Geri yayılım algoritması birbirinden bağımsız olarak ilk defa Werbs ve daha sonra 1986 yılında Rumelhart ve arkadaşları tarafından önerilmiştir.

Standart geri yayılım algoritması, ağ ağırlıklarının, performans fonksiyonunun negatif gradyeni yönünde ilerlediği gradyen iniş algoritmasıdır. (Hamzaçebi ve Kutay, 2004).

Öğrenme sırasındaki istatiksel hatalar, her biri farklı şekilde hesaplanan root-mean squared (RMS), mutlak değişim yüzdesi (R²) ve değişim katsayısı (cov) ile hesaplanır (Sözen vd., 2003). Yapay sinir ağlarının parametrelerinin güncellenmesi için literatürde en çok kullanılan yöntem olan hatayı geriye yayma algoritması, kuadratik bir maliyet fonksiyonunun zaman içerisinde, ağ parametrelerinin uyarlanması ile minimizasyonuna dayanmaktadır (Efe ve Kaynak, 2000). Şekil 5.1’de geri yayılım algoritması gösterilmiştir.

(45)

Şekil 5.1. Geri yayılım algoritması

(46)

5.2.2. Destekleyici öğrenme (Reinforcement Learning)

Destekleyici öğrenme, öğretmenli öğrenmenin özel bir biçimidir. Bu öğrenmede stratejisinde, beklenen çıktı değeri tam olarak bilinmemektedir. Sadece üretilen çıktının doğru olup olmadığına bakılır (Yao, 1999). Sistemin verilen girdi değerlerine karşılık çıktı üretmesi beklenir. Girdi-çıktı uygunluğu öğretmen tarafından kontrol edilerek sisteme doğru veya yanlış şeklinde sinyal gönderilir. LVQ ağı bu stratejiyi kullanmaktadır (Sağıroğlu vd. 2003; Öztemel, 2003).

5.2.3. Öğretmensiz öğrenme (Unsupervised Learning)

Öğretmensiz öğrenme, girdi verileri arasındaki kolerasyona dayanır. Beklenilen çıktı değeri ile ilgili herhangi bir bilgi yoktur (Yao, 1999). Sisteme verilen girdi değerlerinden elde edilen çıktı değerlerine göre ağ sınıflandırma kurallarını kendi kendine geliştirmektedir. Girdi değerleri arasındaki matematiksel ilişkilere göre bağlantı ağırlıkları ayarlanır. Aynı özelikleri gösteren desenlerde (patterns) aynı çıkışlar, farklı özelliklerde ise yeni çıkışlar oluşturulur. Sistemin öğrenmesi bittikten sonra çıktıların ne anlama geldiğini gösteren etiketlendirmenin kullanıcı tarafından yapılması gerekmektedir. Grossberg tarafından geliştirilen ART ve Kohonen tarafından geliştirilen SOM ağları bu stratejiyi kullanmaktadır (Sağıroğlu vd., 2003; Öztemel, 2003). Bu öğrenme paradigması kümeleme, istatiksel dağılım tahminleri, karşılaştırma ve filtreleme uygulamalarında yaygın olarak kullanılmaktadır (Wikipedia, 2006).

5.2.4. Karma stratejiler

Yukarıdaki 3 stratejiden birkaçını birlikte kullanarak öğrenme gerçekleştiren ağlarda vardır. Radyal tabanlı yapay sinir ağları (RBN) ve olasılık tabanlı ağlar (PBNN) bunlara örnek verilebilir (Öztemel, 2003).

Referanslar

Benzer Belgeler

Santrifüj pompaların özgül hızına göre kanat kavitasyon katsayısı bilinirse, suyun sıcaklığı ve tesisin kurulduğu yere göre çizelgelerden bulunacak

Test Mikroorganizmalarına Karşı Antimikrobiyal Aktivitenin Belirlenmesi Bu çalışmada, 19 doğal mağaradan izole edilen 290 izolatın “agar piece” metodu ile antimikrobiyal

Bunun için seyir sırasında en çok frenleme yapan taşıtlardan birisi olan, şehiriçi toplu taşıma otobüsleri üzerine hidrolik sistem tasarımı yapılarak,

Toplam elektro magnetik alan bu düzlem dalgaların toplamıdır (Cheng, 2003). de görülen dalga, x doğrultusunda polarize olmuş ve bunun dalga vektörü ise z

Ayrıca, izole edilmiş DC-DC çeviricinin giriş gerilimi daha yüksek olduğundan, anahtarların akım oranları çok daha düşük olabilir, bu da transformatör sarım

Hava akımı (sıvı ve/veya buhar) III. Uçak yakıt tankı kullanımdan daha güvenilir bir bilgi sağlayabilmek için çeşitli miktarlardaki algılayıcı aletler test

Bor hidrürlerin sentezinde, bor nitrür ve diğer bor bileşiklerinin üretiminde, ekstra-saf elemental borun üretiminde, bor fiberlerinin üretiminde, katyon

Çalışmada plastik fabrikalarında bulunan enjeksiyon kalıplarının, enjeksiyon makinelerinin ve ekstruderlerin soğutma ihtiyacını karşılamak için kullanılan