• Sonuç bulunamadı

6. YAPAY SĐNĐR AĞI MODELLERĐ

6.6. Diğer Yapay Sinir Ağı Modelleri ve Son Araştırmalar

6.6.5. Gauss merkez taban fonksiyonlu sinir ağları

komşuluk fonksiyonudur. Đ ve k elemanlarının komşuluklarını belirler. i=k durumunda g(i,k)=1 olur. Bu fonksiyon zaman içerisinde azalan bir fonksiyondur. Genel olarak alanının genişliğini göstermektedir. Zaman içerisinde azalmaktadır (Öztemel, 2003).

6.6.5. Gauss merkez taban fonksiyonlu sinir ağları

Birçok yapay sinir ağı yapısındaki temel işlem parametre vektörü ile giriş vektörünün iç çarpımından elde edilen değerin doğrusal olmayan bir aktivasyon fonksiyonundan geçirilmesine dayalıdır. Bu işlemin sonucunda elde edilen büyüklük ise bir nöronun çıkışı olarak bilinmektedir. Bir diğer ağ yapısında ise nöron çıkışı uygun bir biçimde tanımlanmış taban fonksiyonlarından elde edilen değerlerin matematiksel bir birleşiminden elde edilmektedir. Taban fonksiyonları kullanan ağ yapıları gizli

katmanda tasarımcı tarafından belirlenen sayıda gizli nöronlar içermekte ve bu nöronların aktivasyon düzeyleri ise giriş vektörünün önceden tanımlanmış prototip vektörlere olan uzaklıkları ile belirlenmektedir. GMTFSA yapısı taban fonksiyonu kullanan ağ yapılarının özel bir şeklidir. Bu ağ yapıları içerisindeki gizli katman nöronları Gauss fonksiyonunu aktivasyon fonksiyonu olarak kullanırlar.

 bileşenlerini sıralamaktadır. Prototip vektör cij değişkenleri ile kurulmakta, ve bu değişkenler Gauss fonksiyonlarının merkez değerlerini belirlemektedir, σij değişkeni ise µij ile gösterilen fonksiyonunun kendi tanım uzayı (uj) üzerinde nasıl yayıldığını belirlemektedir. m-girişli, h gizli nörona sahip ve tek çıkışlı bir GMTFSA yapısı Şekil 6.21’de gösterilmektedir. Gizli katmandaki i. nöronun çıkışı (6.97) ile hesaplanmakta ve wi sembolü ile gösterilmektedir. GMTFSA yapısının çıkış fonksiyonu ise (6.98) ile tanımlanan ağırlıklı toplam ile verilmektedir (Efe vd., 2000).

Şekil 6.21. Gauss Merkezcil Taban Fonksiyonlu Sinir Ağı Yapısı

6.6.6. Radyal tabanlı fonksiyon ağı (Radial Basis Function Networks-RBFN)

Radyal tabanlı fonksiyon ağları (Radial Basis Function Networks-RBFN), çok boyutlu uzayda eğri uydurma yaklaşımıdır. RBFN’nin eğitimi, çok boyutlu uzayda eğitim verilerine en uygun bir yüzeyi bulma problemidir. RBFN, yapı olarak BPN (Back Propagation Networks) ile benzerdir. Girdi katmanı, ara katman ve çıktı katmanından oluşur. Ara katmandaki radyal tabanlı aktivasyon fonksiyonu (gauss, üstel) girdileri dönüştürmeyi sağlar. Çıktı katmanında doğrusal bir aktivasyon fonksiyonu vardır. RBFN’nin eğitimi, BPN’nin eğitiminden daha az bir zaman gerektirir. Ancak, BPN kadar doğru sonuçlar verebilmesi için daha fazla veriye ihtiyaç duymaktadır (Hamzaçebi ve Kutay, 2004).

RBFN, öğrenme sürecinde öğretmensiz ve öğretmenli öğrenme olmak üzere karma strateji kullanır ve böylece öğrenme süreci iki aşamaya ayrılır. Öğretmensiz öğrenme stratejisi ile gerçekleştirilen ilk aşama, girdi verilerine ara katmanda radyal tabanlı

fonksiyon uygulaması sürecidir. Öğretmenli öğrenme stratejisi ile gerçekleştirilen ikinci aşama ise, gizli tabakadan elde edilen çıktılar arasındaki hatayı en küçük yapan ağırlıkların belirlenme sürecidir (Türe ve Kurt, 2005: Haykin, 1999; Principe et al., 1999, Türe vd., 2005).

Radyal olarak simetrik olan ara katman işlemci için üç bileşen vardır. Đlki giriş uzayındaki bir merkez vektörüdür. Bu vektör, giriş ve ara katmanlar arasındaki ağırlık vektörü olarak saklanır. Đkincisi, bir giriş vektörünün merkezden ne kadar uzak olduğunu belirlemek için uzaklık ölçütüdür. Tipik olarak bu ölçüt standart öklit uzunluğu olarak alınır. Sonuncusu ise, tek değişkenli olan ve uzaklık fonksiyon çıkışını giriş olarak alan işlemci elemanın çıkış değerini belirleyen bir aktivasyon (transfer) fonksiyon yapısıdır. Diğer bir ifade ile ara katman işlemci eleman çıkışı, sadece merkezle çıkış vektörü arasındaki uzaklığın bir fonksiyonudur ve çok değişkenli enterpolasyon yaklaşımlarında kullanılan YSA yapılarındandır. Đlk katmandaki işlemci elemanlar girişlerin ağırlıklandırılmış şeklini kullanmaz. Đlk katmandaki işlemci elemanların çıkışları YSA girişleri ile temel fonksiyonun merkezi arasındaki uzaklığa göre belirlenir. Radyal bazlı YSA’ların son katmanı lineerdir ve ilk katmanın çıkışlarından ağırlıklandırılmış toplam çıkış üretir.

Genellikle uygulamada kullanılan RBFN yapısı, Moody ve Darken tarafından önerilmiştir. Benzer algoritmalar, enterpolasyon ve yakınsama problemleri üzerinde çalışan Powell, Bromhead ve Lowe gibi araştırmacılar tarafından da önerilmiştir. Bu ağ mimarisi Şekil 6.23’ de verilmiştir. Burada ara katman işlemci elemanları, lineer yapıdaki bir çıkış katmanına bütünüyle bağlantılıdır. Đşlemci elemanlarının çıkışı ise;

=

ile ifade edilebilir. Nöron çıkışı ise;

2 k

Ik

k e

v = σ (6.100)

X çok boyutlu giriş vektörünü, c giriş vektörü ile aynı boyutta olan merkez vektörünü, σ ise standart sapmayı göstermektedir.

Şekil 6.22. RBFN yapısı

Sınıflandırmada MLP yapıları, veri uzayındaki hiper-düzlemleri oluşturan ara katman işlemci elemanlarını kullanarak sınıfları oluştururken, RBFN yapıları, Şekil 6.22’de gösterildiği gibi yerel çekirdek (kernel) fonksiyonları kullanıyormuş gibi ayrı sınıf dağılımlarının modellenmesini sağlar. Bu sınıfları ayırmak için hiper-yüzeyler veya her bir sınıfa bir kernel fonksiyonu yerleştirilir. RBFN yapıları MLP ağlarından daha hızlı öğrenir. Fakat artan girişle çok yüksek boyutlu RBFN yapılarına ihtiyaç duyulur. Bu yapılar, genellikle sistem modelleme, tahmin ve sınıflandırma gibi problemlerin çözümleri için kullanılırlar (Sağıroğlu vd., 2003).

6.6.7. Olasılık tabanlı YSA (Probabilistic Neural Network-PNN)

PNN yapıları Donald Specht tarafından önerilmiştir. Bu tüp yapay sinir ağları, birçok sınıflandırma probleminin çözümünde kullanılmaktadır. Bu yapı, sınıfların

bağımlı olasılık yoğunluğu fonksiyonunun tahmininde, parametrik olmayan bir teknik olarak da bilinen Parzen pencerelerini kullana Bayes karar kuralının bir türünü kullanır.

Şekil 6.23. PNN yapısı

Şekil 6.23’ de bir PNN yapısı verilmiştir. Bu yapı, giriş, pattern, toplama ve çıkış olmak üzere dört katmandan oluşur. Saklı katmanda bulunan veri işleme elemanları K toplam mevcut sınıfı göstermek üzere K alt gruba ayrılır. Her veri işleme elemanı karşı geldiği sınıfı ifade eden bir Parzen penceresini gösterir ve sahip olduğu ağırlık değeri söz konusu pencerenin ağırlık merkezini ifade eder. PNN yapılarında öğrenme hızlıdır ve az sayıdaki veriyle etkin olarak kullanılabilirler. Buna karşın PNN yapıları hafızayı yoğun olarak kullanırlar ve her epokta (devirde) gerçekleştirilen işlem yoğunluğu fazladır. Kompleks veri kümeleri kullanıldığında ve kısmen de bu veriler bir sınıflandırma yarıçapı kullanılarak azaldığında problemlerle karşılaşabilirler. PNN’nin dezavantajı, genel olarak diğer kernel metotlarında olduğu gibi, çok boyutluluktur.

Temel algoritmada önemli değişiklikler yapılmadan ilgisiz girişler önemsenemez.

Bunun için modifiye edilmiş algoritmalar vardır. 5 veya 6 girişten fazla giriş bulunmayan durumlarda bu ağ yapısının seçimi uygun değildir (Sağıroğlu vd., 2003).

6.6.8. Genel regresyon YSA (General Regression Neural Network-GRNN)

Genel regresyon YSA (GRNN), sistem modelleme ve parametrelere bağlı tahmin amaçları için kullanılan bir ağ modelidir. Bu ağ modelinin şeması Şekil 6.24’de verilmiştir. Bu ağ yapısında öğrenme aşaması hızlıdır ve az sayıdaki veri ile etkin olarak kullanılabilir. Sınıflandırma problemlerinde kullanılan diğer YSA yapıları arasında MLPNN, MNN ve RBFN yapıları bulunur. GRNN yapısı olasılık yoğunluk fonksiyonu temelli ileri beslemeli bir ağ yapısıdır. Bu ağ yapısında dört katman bulunur. Giriş nöron sayısı diğer ağlarda olduğu gibi problem giriş sayısına bağlıdır. Ara katman sayısı ise örnek sayısı kadardır. Toplama katındaki nöron sayısı, çıkış sayısının bir fazlasıdır.

(Sağıroğlu vd., 2003).

Şekil 6.24. GRNN yapısı

6.6.9. Çoklu modüler YSA (MNN ve ModNN)

Çoklu YSA (Mutiple Neural Networks) terimi kesin olarak ayrıştırılmış sistemler için kullanılır. Her bir ağ kendi alanında bağımsız çalışır. Tek bir ağ, kendi özel işi için oluşturulur ve eğitilir. Sonuç karar, tek tek ağların sonuçlarına bakılarak verilir. Karar

sistemi, probleme bağlı olarak, diğer bir ağ veya kural tabanlı uzman sistem kullanılarak farklı şekilde yapılabilir.

Nesne hakkında bilgi almak için farklı bilgi kaynakları mevcutsa, MNN’ler kullanılır. MNN kullanmak için diğer metot, farklı filtrelerdeki giriş verilerine ön işlem yapmak veya ön işlem uygulanmış her bir giriş için ağı eğitmektir. MNN içindeki ağlar herhangi bir yapıda olabilir. Her ağ kendi alanında çalışan bir uzman gibi görülebilir.

Her ağ sadece kendi alanında eğitilir. Tek bir ağın çıkışı kendi özel girişine göredir.

Uzman ağların çıkışları, uzman ağlar eğitildikten sonra eğitilen karar ağının girişleri olur. Karar, doğrudan giriş verilerinden değil, uzman ağların çıkışlarına göredir.

Modüler YSA’lar (Modular Neural Networks-ModNN) terimi çok bulanıktır ve çok farklı yapılar için kullanılır. Modüler olduğu için her şey monolitik görünmez. ModNN yapıların amaçlarından biri de yapısal bloklar gibi modüler kullanarak daha büyük ağlar oluşturmaktır. Modülerliğin diğer bir amacı, ağın tamamen bağlantılı olmamasıdır. U modelde ağ, analiz için çok daha zorlanır. Modüller arasında kesin bir bölünme yapılamaz. Ağın bir parçası gibi görünen modül, kendi içinde tam olarak bağıntılıdır.

Bu modüler yapı yaklaşımı, biyolojik olarak çok akla yakın ve makul bir yaklaşımdır.

Tüm modüler yapay sinir ağıdırlar. Tekli modül yapısı daha basittir ve alt ağlar monolitik ağdan daha küçüktür. Yapısal değişikliklerden dolayı her modülün öğrenmesi tüm ağ yapısından daha kolaydır. Bu, tekli modülün eğitilmesini daha da kolaylaştırır.

Modüller, nöronlardan ziyade modül ağına bağlanır. Modüller, paralel çalışan sistemi sağlayan kesin seviye için bağımsızdır. Bu modüler yaklaşım, modüllerin birlikte çalışmasına imkan veren kontrol sistemi için daima gereklidir.

Çok katmanlı ileri beslemeli ağlarlardaki klasik YSA’larda meydana gelen problemler, özellikle büyük beyin benzeri yapılar için çok önemlidir. Modüler yaklaşım bu problemlerin üstesinden gelebilmektedir. Modüleri geliştirmek için öğrenme ve unutma gibi kavramlarda tanımlanmıştır. ‘Learning of modular structured networks’

olarak bilinen teknik büyük ölçekli ağların eğitim problemini aşmak için önerilmiştir.

Öğrenme iki aşamada meydana gelir. Đlk olarak küçük modüllerdeki bağlantılar

öğrenilir. Daha sonra modüler bağlantılar kurulur. Önceden bir fonksiyon olarak öğrenilen modüller ağ içinde başka bir yerde de kullanılabilir.

Nöronların dışında modülarite de gösterilmiştir. Bu yaklaşımda temel birimler, sinaps boşlukları, nöron blokları ve kontrol bloğudur. Sistem donanım olarak gerçekleştirilir. Bu sadece nöronları kullanan modelden daha esnektir. Modülarite doğada çok önemli bir kavram olup karmaşık bir nesnenin alt bölümlerinin daha basit nesneleri olarak tanımlanabilir. Altbölüm, ya nesnenin fonksiyonu veya yapısı ya da kendi alt parçası olarak belirtilebilir. Bu tür YSA yapıları, sistem modelleme, zamana bağlı tahmin, sınıflandırma ve filtreleme uygulamalarında kullanılmaktadır (Sağıroğlu vd., 2003).

Şekil 6.25. Çoklu YSA’lar: a) çoklu ysa’lar, b) modüler yapı

6.6.10. Mantıksal YSA (Logical Neural Networks-LNN)

Mantıksal YSA’lar (LNN), giriş-çıkış çiftlerini ezberleme yeteneği olan basit işlemci birimlere dayanan ağlardır. Temel bir LNN yapısı Şekil 6.26’de verilmiştir.

Giriş vektörü parçalara bölünür. Her parça, bir-bitlik RAM (Random Access Memory) birimin adres girişlerine bağlanır. Ayırıcı (diskriminatör) içindeki tüm RAM’lerin çıkışları toplanır. Ağda ihtiyaç duyulan ayırıcı sayısı, ağ tarafından ayırt edilen sınıf sayısı tarafından belirlenir. Mantıksal model, biyolojik sinir sistemini gerçekleştirmez.

Mantıksal yaklaşımdaki temel birim, sinir hücresinin doğrudan bir modeli değildir.

LNN tasarlamak, MLP’lerin parametrelerin seçiminden daha kolay gibi görünür. En önemli parametre, RAM tabanlı ağ için basit işlemci birimlerin boyutudur. Bu, her bir RAM’in hafıza sayısını göstermektedir. Bu boyutun ağın genelleştirme performansı üzerinde büyük bir etkisi vardır. Ağın doldurulması (filling), RAM’in boyutu için içeriği ‘1’ ile hafıza hücreleri arasındaki orandır. Bu doğrudan RAM için giriş sayısına, RAM boyutuna ve eğitiminde kullanımına bağlıdır. Giriş sayıları küçükse, doldurma çok yüksektir. En aşırı kabullere göre, iki giriş birimi varsa, buna karşılık RAM boyutu dört olur. Eğer eğitim kümesinde sadece dört alt desen varsa, doldurma %100 olur.

%100 doldurmalı maksimum durum, tüm giriş desenleri için diskriminatör cevabı ‘1’ e döndürecektir. Bu problem, eğitim kümesi çok büyükse veya veriler çok bozuk olduğu zaman sık sık görülür.

Zıt bir şekilde çok girişli RAM birimi, muhtemelen düşük bir doldurmaya sahiptir.

Bu durumda uygun bir doldurma durumunu sağlamak için eğitim örneklerinin sayısı gerekmektedir. Ayrıca, giriş vektörleri küçük alt desenlere paylaştırılacaktır. Doldurma düşükse, genelleştirme performansı zayıftır. Teorik olarak, giriş büyüklüğü giriş vektörlerinin boyutuna eşitse, genelleştirme yoktur. Vektörler basit bir şekilde depolanır. Seçilen eğitim vektörleri çok önemli olabilir. Ağı eğitmek ve performansını test etmek için yarı veri kümesinin kullanımı özellikle büyük veri kümeleri için daima uygun olmaz. Ağın eğitimi için daha yararlı alt kümelerin seçilmesinde istatiksel metotlar veya genetik algoritmaların kullanımı önerilmektedir (Sağıroğlu vd., 2003).

Şekil 6.26. RAM tabanlı bir LNN

6.6.11 GMDH (Group Method of Data Handling) ağı

GMDH (Group method of Data Handling) (veri işleme grup metodu) ağı yapısı öğrenme esnasında büyümektedir. Bu ağdaki her nöron genellikle x1 ve x2gibi iki girişe sahiptir ve bu girişlerin kuadratik birleşiminden ise y çıkışı üretilir.

y=w0 +w1x1+w2x12 +w3x1x2 +w4x22 +w5x2 (6.101)

Bir GMDH ağı eğitme işlemi; giriş katmanını oluşturulmasından, her bir nöron ağırlığını düzenleme ve ağ ile yapılması beklenilen iş başarılasıya kadar ara katman sayısı arttırmadan oluşur. Birinci katmandaki nöron sayısı uygulanan giriş sayısına

bağlıdır. Her iki giriş için bir nöron kullanılır. Eğitim, YSA girişlerinin giriş katına uygulanmasıyla başlar. Bir GMDH nöron N-Adaline bir ağdır (Şekil 6.27.a). Bu ağ, bir lineer olmayan önişlemciden oluşan adaptif lineer elemandır. (Şekil 6.27.b). Bu ağın ağırlıkları öğrenme algoritmasıyla ile değiştirilir. Delta kuralı buna örnek verilebilir.

)

2 (

1 k

T k d k k

k k

k y W X

X W X

W + = +α − (6.102)

Burada, wk k anında bir nöronun ağırlık vektörü, xk k anında bir nöronun değiştirilmiş giriş vektörüdür. Bu değişkenler; Wk =[w0w1w2w3w4w5]T,Xk =[1x1x12x1x2x22x2]T ykd ise k anında arzu edilen çıkış vektörüdür.

Şekil 6.27. Bir GMDH ağı: a) eğitilmiş bir GMDH ağ, b) bir GMDH nöronun detaylı gösterimi

Hata toplamı, eğitim seti içerisinde istenilen tüm çıkışların üzerinde ise o nöronda hata minimuma erişir ve o nöronun ağırlıkları sabitlenir veya eğitim durdurulur. Bir kattaki tüm nöronlarda eğitim sonlandırıldığında, o kattaki eğitim tamamlanır. Diğer veri seti ağa uygulandığında belirlenen seviyenin altında MSE (mean square error) değerlerini sağlayan nöronlar diğer katı oluşturmak için sayılarını artırır veya seçilir. Bu durumda elde edilen en düşük MSE değerinin elde edildiği yapı kaydedilir. Eğer o andaki kat en düşük MSE değeri kaydedilen bir önceki kattan düşükse, yeni bir kat oluşturulur. Bu kattaki nöron sayısı seçilen nöron sayısına bağlıdır. Bu işlem MSE değeri sıfırlanıncaya kadar devam eder. Đşlem yapılan kattaki en iyi nöron o ağın çıkış nöronu olarak seçilir (Sağıroğlu vd., 2003).

6.7. Birleşik Yapay Sinir Ağları

6.7.1. Birleşik ağların yapısı

Birden fazla ağın aynı probleme çözüm üretmek üzere geliştirildiği sistemlere

‘birleşik ağlar’ denmektedir. Ağların her birisi olayın farklı bir yönünü öğrenebilmekte ve hepsinin kararları bir araya getirilerek ortak bir karar oluşturulmaktadır. Oluşturulan birleşik ağın performansı sistemi oluşturan ağların her birisinden tek tek daha yüksektir.

N adet yapay sinir ağı bir araya gelerek aynı problemi çözmekte ve sonuçlarını Karar Verme Modülüne göndermektedir. Burada gelen bütün kararlar incelenerek birleşik ağın kararı oluşturulmakta ve dış dünyaya iletilmektedir.

Birleşik ağ oluşturmak için en az iki ağın bir araya gelmesi yeterlidir. Verilen kararların daha rahat ortak bir karara dönüştürülmesi için 3 adet YSA ağının kullanılması önerilmekle beraber böyle bir zorunluluk yoktur. Bazı durumlarda ağa sunulan bir örnek bir ağ tarafından tanınmaz iken diğer ağ tarafından tanınmaktadır.

Üçüncü bir ağın kararı bu durumda önemli olmaktadır. Bu ağın kararı hangi ağa yakın ise o zaman birleşik ağın kararı o yönde olacaktır.

Şekil 6.28. Birleşik sinir ağlarının elemanları

Şekil 6.28’de gösterilen ağların hepsinin aynı yapay sinir ağı olması gerekmez.

Farklı YSA modelleri aynı problemi çözebilir. Mesela şekilleri sınıflandırma probleminde ÇKA, LVQ ağları bir araya gelerek bir birleşik ağ oluşturabilirler. Benzer şekilde aynı modelden oluşan bir birleşik sistem oluşturulsa da bu ağların topolojik olarak eşit olması gerekmez. Bu ağın ara katmanı bir tane olurken diğerinin iki tane olabilir. Kullanılan ağların ara katman sayıları farklı olabilir.

Bunun yanında aynı problem üzerinde karar verebilmek için ağların girdi ve çıktılarının aynı olması gerekir. Birleşik sistemlerin sadece yapay sinir ağlarından oluşması da gerekmez. Đstatiksel sistemler, uzman sistemler, klasik öğrenme sistemleri de yine birleşik sistemlerin bir parçası olabilirler. Burada önemli olan bu sistemlerinde aynı girdi hakkında fikir üretebilmeleridir. Birleşik ağların bir özelliği de hepsinin aynı örnek üzerinde karar verebilmeleridir. Ağların kendilerinin ürettikleri bağımsız olarak kullanılmaz. Çıktıları sistemin çıktısını oluşturmak için girdi olarak kullanılmaktadır.

Ağların birbirlerine direkt ilişkisi bulunmamaktadır. Her ağ girdileri bağımsız olarak işlemekte, diğer ağların kararlarını etkileyecek bir girişimde bulunmamaktadır.

Kararların ortak değerlendirilmesinde ağların etkisi görülmemektedir (Öztemel, 2003).

6.7.2. Birleşik ağların eğitilmesi ve test edilmesi

Birleşik ağların eğitilmesi ve test edilmesinde herhangi bir özel algoritmaya gerek yoktur. Her ağ birbirinden bağımsız eğitilmekte ve test edilmektedir. Birleşik ağlar eğitimini tamamlamış ve test edilmiş ağlardan oluşmaktadır. Burada önemli olan noktalardan bazıları şunlardır;

• Birleşik sisteme ait olan ağırlıkları ve ağ parametreleri farklı olabilir.

•Ağları eğitmek için aynı örnek seti kullanılırsa bunlar ağlara farklı sıralarda sunulabilir.

Büyük bir örnek seti parçalara bölünerek her ağ farklı eğitim setinde eğitilebilir.

• Bütün ağları mümkün olduğu sürece aynı test seti üzerinde eğitmekte fayda vardır.

Böylece ağların öğrenip öğrenmedikleri birbirleri ile kıyaslanarak belirlenebilir (Öztemel, 2003).

6.7.3. Ortak karar verme modülü

Karar Verme Modülü problemin son çözümünü hesaplamaktadır. Problemin girdileri birleşik sistemin elemanı olan her ağa bağımsız olarak sunulmakta ve ağların çıktıları belirlenmektedir. Bu çıktılar bir araya getirilerek birleşik sistemin ortak kararı belirlenmektedir. Ortak kararın verilmesi ağlar arasında sağlanan ‘oy birliği’ anlayışına dayanmaktadır. Birleşik ÇKA Ağı ve birleşik LVQ sistemleriyle yapılan uygulamalara ağların performansının arttığı bilinmektedir. Hem ÇKA hem de LVQ ağlarından oluşan birleşik sistemler de geliştirilmiştir (Öztemel, 2003).

6.7.4. Karma sistemler (uzman sistemler + yapay sinir ağları)

Yapay sinir ağlarında sezgisel yöntemlerle başarılı sonuçlar alınması üzerine yapay zeka teknolojilerinden özellikle uzman sistemler ile birlikte çalışabilmeleri de incelenmiştir. Karma sistemler adı verilen bu sistemler iki şekilde bir arada kullanılmaktadır.

Fonksiyonel olarak birliktelik: Bu tür bir birliktelikte büyük bir problem alt parçalara bölünmekte ve parçaların her biri ya yapay sinir ağına ya da uzman sisteme çözdürülmektedir. Her teknoloji kendisinin en iyi olduğu alanlarda çözüm önerileri sunmaktadır. Gerekli görüldüğünde uzman sistemler ile yapay sinir ağları bilgi alışverişinde bulunmaktadırlar. Genellikle uzman sistem, sistemin bütününü kontrolü altında tutmakta ve yapay sinir ağını yönlendirmektedir. Bu aslında uzman sistemlerin sonuçların nasıl oluştuğunu açıklama yeteneklerinin olmamasından kaynaklanmaktadır.

Yapısal birliktelik: Bu tür birlikteliklerde genel olarak yapay sinir ağı bir uzman sistemin içine gömülmüştür. Her iki sistemde aynı problemi çözmek üzere geliştirilmişlerdir. Uzman sistemin bazı sorumlulukları yapay sinir ağına yüklenmiştir.

Yapay sinir ağı, uzman sistemin bilgi tabanı veya çıkarım mekanizmasının rolünü üstlenebilmektedir. Bu durumda yapay sinir ağının birbirine bağlı proses elemanları kuralların EĞER/ O ZAMAN ilişkisini, bağlantının ağırlık değeri ise ilgili kuralın belirsizlik katsayısını göstermektedir (Öztemel, 2003).

7. SANTRĐFÜJ POMPALAR

7.1. Santrifüj Pompalar

Pompalar, mekanik enerjiyi hidrolik enerjiye çeviren iş makineleri olarak tanımlanır. Pompalar, bir iş makinesi olarak çok değişik tiplerde yapılmaktadırlar.

Bunlar hacimsel ve santrifüj olmak üzere iki ana bölümde incelenir (Sungur ve Bal, 2003).

Santrifüj pompalar, sıvıyı düşük basınçtan yüksek basınca hareket ettiren, akışkanın içinde bir çark bulunan, kapalı hacmin söz konusu olmadığı rotodinamik tip pompalardır. Santrifüj pompalar maliyeti en düşük pompa tipidir (Wikipedia, 2007).

Santrifüj pompalarda suyun momentumu (hareket miktarı) değiştirilerek enerji yükseltilmektedir. Bu pompalarda bir gövde içerisinde dönen kanatlı çark ile suya sürekli olarak kinetik enerji iletilmekte, su kesiti sürekli genişleyen gövde içinde hareket ederken kinetik enerjisi basınç enerjisine dönüştürülmektedir (Sungur ve Bal, 2003: Tezer 1978).

Santrifüj pompalarda çark, gövde biçimi ve ölçüleri belirli bir işletme noktası (debi ve basınç) için geliştirilmektedir. Bu işletme değerlerinde en az kayba ve en yüksek verime ulaşılır. Ayrıca santrifüj pompalar hacimsel pompalardan farklı olarak, belirli bir devir sayısında, pompa geometrik ölçüleri, tasarım değerleri ve emme koşullarına bağlı

Santrifüj pompalarda çark, gövde biçimi ve ölçüleri belirli bir işletme noktası (debi ve basınç) için geliştirilmektedir. Bu işletme değerlerinde en az kayba ve en yüksek verime ulaşılır. Ayrıca santrifüj pompalar hacimsel pompalardan farklı olarak, belirli bir devir sayısında, pompa geometrik ölçüleri, tasarım değerleri ve emme koşullarına bağlı