• Sonuç bulunamadı

Batı Türkiye gravite ve deprem katalog verilerinin yapay sinir ağları ile değerlendirilmesi

N/A
N/A
Protected

Academic year: 2021

Share "Batı Türkiye gravite ve deprem katalog verilerinin yapay sinir ağları ile değerlendirilmesi"

Copied!
102
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

BATI TÜRK YE GRAV TE VE DEPREM

KATALOG VER LER N N YAPAY S N R

A LARI LE DE ERLEND R LMES

lknur KAFTAN

ubat, 2010 ZM R

(2)

A LARI LE DE ERLEND R LMES

Dokuz Eylül Üniversitesi Fen Bilimleri Enstitüsü

Doktora Tezi

Jeofizik Mühendisli+i Bölümü, Jeofizik Mühendisli+i Anabilim Dal/

lknur KAFTAN

0ubat, 2010 ZM R

(3)

ii

haz rlanan “BATI TÜRK YE GRAV TE VE DEPREM KATALOG VER LER N N YAPAY S N R A LARI LE DE ERLEND R LMES ” ba l kl tez taraf m zdan okunmu , kapsam ve niteli i aç s ndan bir doktora tezi olarak kabul edilmi tir.

Prof. Dr. Müjgan #ALK

Dan man

Prof. Dr. Co kun SARI Prof. Dr. Cüneyt GÜZEL/#

Tez /zleme Komitesi Üyesi Tez /zleme Komitesi Üyesi

Prof. Dr. Mustafa ERGÜN Prof. Dr. Zuhal DÜZG/T

Jüri Üyesi Jüri Üyesi

Prof.Dr. Cahit HELVACI Müdür

(4)

iii

Doktora çal mam öneren ve çal malar m boyunca deste ini esirgemeyen hocam Say n Prof.Dr. Müjgan #ALK’a te ekkürlerimi sunar m.

Tez çal mam n tüm a amalar nda kar la t m sorunlarda her an dan abildi im ve de erli görü leriyle tezime katk da bulunan tez izleme komitesi üyelerim Say n Prof.Dr. Co kun SARI ve Say n Prof.Dr. Cüneyt GÜZEL/#’e destekleri için te ekkür ederim.

Çal man n çe itli a amalar nda bilgi ve deste ini gördü üm Elektrik ve Elektronik Mühendisli i ö retim üyesi Say n Yrd. Doç. Dr. Yavuz #ENOL’a, destekleri ile bana güç veren bölümümüz ö retim elemanlar sevgili Ö r. Gör. Dr. Özer AKDEM/R, Ö r. Gör. Dr. Petek SINDIRGI, Ö r. Gör. Dr. Oya Pamukçu ve Ö r. Gör. Mehmet TARAKÇI’ ya te ekkür ederim.

Hayat m n her a amas nda yan mda olan, tüm kararlar mda bana inanan ve destek olan sevgili anne ve babam Nesrin-Ahmet KAFTAN’a , karde im Öznur KAFTAN’a te ekkür ve ükranlar m sunar m.

(5)

iv ÖZ

Son y llarda Yapay Sinir A lar (YSA) bilim ve mühendislikteki çe itli problemlerin çözümünde yayg n olarak kullan lmaktad r. Jeofizik alan ndaki uygulamalar da giderek artmaktad r. Özellikle sismik, elektromanyetik ve özdirenç gibi yöntemlerin ters çözümünde uygulanmaktad r. Ayr ca parametre tayini, önkestirim ve s n flama gibi uygulamalarda da kullan lmaktad r.

Bu çal mada Yapay Sinir A lar n n iki farkl türü olan Çok Katmanl Alg lay c (ÇKA) ve Radyal Taban Fonksiyonlu A lar (RTFA) kullan lm t r. Bu yöntemler gravitede önce kuramsal modellere, daha sonra Bat Türkiye verilerine uygulanm t r. Bölgedeki önemli tektonik unsurlar olan Gediz ve Büyük Menderes grabenlerinin tortul kal nl n n ve bölgenin kabuk kal nl n n bulunmas amaçlanm t r. Ö retmenli ö renme temeline dayanan ÇKA ve RTFA, farkl gravite modelleri içeren e itim setini kullanarak mevcut modellerin giri ç k ili kilerini ö renmekte ve benzer modeller için genelleme yöntemiyle çözümler üretebilmektedir. Böylece gravite yöntemindeki çok çözümlülük sorununa farkl bir bak aç s getirmektedir.

Gediz grabeni için tortul kal nl n n Salihli civar için 1,4 – 2 km, Ala ehir civar için yakla k 2,5 km oldu u saptanm t r. Büyük Menderes grabeninin tortul kal nl ise Ayd n civar için yakla k 1,7 km, Nazilli civar için yakla k 2,2 km, Sarayköy civar için ise yakla k 3,2 km olarak saptanm t r. Bölgenin ortalama kabuk kal nl ise yakla k 32 km olarak elde edilmi tir.

Gravite çal malar na ek olarak Yapay Sinir A lar n n zaman serilerindeki performans n test etmek amac yla sismoloji katalog verilerine uygulanm t r. Bat Türkiye deprem olu ayl k frekanslar hesaplanm , ÇKA ve RTFA ile de erlendirilmi ve ön kestirim çal malar yap lm t r. Frekans verileri 1, 2, 3, 4, 5,

(6)

v

kestirim sonuçlar n n ÇKA sonuçlar na göre daha yüksek korelasyon katsay s ve daha dü ük hata de erlerine sahip oldu u gözlenmi tir.

Anahtar sözcükler: Yapay Sinir A lar , Çok katmanl Alg lay c , Radyal Taban Fonksiyonlu A lar, Gravite yöntemi, Deprem frekans ön kestirimi

(7)

vi ABSTRACT

Artificial Neural Networks (ANN) has been used in a variety of problems in the fields of science and engineering. Applications of ANN to the geophysical problems have increased within the last decade. In particular, it has been used to solve inversion problems such as seismic, electromagnetic and resistivity. Also, there are some other applications such as parameter estimation, prediction and classification.

In this study, two different types of ANN, Feed Forward Neural Networks (FNN) and Radial Basis Function Networks (RBF NN) were used. These methods were applied first to synthetic gravity data and then to the Western Turkey Bouguer gravity data. The aim of the study was to obtain sediment thickness of the major structure of the regional tectonics such as the grabens of Gediz and Büyük Menderes and the crustal thickness of the region. ANN can learn input-output relation of available models by using training set, which includes various gravity models, and produce solutions for similar models via its generalization ability. Therefore ANN can provide a different perspective for the multi solution problem in gravity method.

The sediment thickness of the Gediz graben was determined as 1,4- 2 km around Salihli and about 2,5 km around Ala ehir. The sediment thickness of the Büyük Menderes was determined approximately 1,7 km around Ayd n and 2,2 km around Nazilli and 3,2 km around Sarayköy. Average crustal thickness was obtained as 32 km for the region.

In addition to the gravity studies ANN was also applied to seismological catalog data in order to test of the performance. Monthly earthquake frequencies were calculated using seismological catalogue data of the region and then the data set were evaluated with these FNN and RBF NN methods for earthquake prediction purposes. Frequency data were arranged as 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, and 11 input sets and

(8)

vii

gave a greater correlation coefficient and less error values than MLP.

Keywords: Artificial Neural Networks, Multilayer Perceptron, Radial Basis Function Networks, Gravity Method, Prediction of Earthquake Frequency

(9)

viii

DOKTORA TEZ/ SINAV SONUÇ FORMU ...ii

TE#EKKÜR...iii

ÖZ ...iv

ABSTRACT...vi

BÖLÜM B R – G R 0 ...1

1.1 Yapay Zeka ve Yapay Sinir A lar tan m ...3

1.1.1 Yapay Sinir A lar n n tarihçesi...4

1.1.2 Biyolojik Sinir Sistemi...5

1.2 Yapay Sinir A ve Temel Elemanlar ...7

1.3 Yapay Sinir A lar n n S n fland r lmas ...11

1.3.1 Yap lar na Göre A lar...12

1.3.1.1 /leri Beslemeli A lar ...12

1.3.1.2 Geri Beslemeli A lar...12

1.3.2 Ö renme Algoritmalar na Göre A lar ...13

1.3.2.1 Ö retmenli Ö renme (Supervised Learning)...13

1.3.2.2 Ö retmensiz Ö renme (Unsupervised Learning) ...14

1.3.2.3 Takviyeli Ö renme (Reinforcement Learning)...15

1.3.3 Ö renme Kurallar ...15

1.3.3.1 Hebb Kural ...16

1.3.3.2 Delta Bar Delta Kural ...16

1.3.4 Yapay Sinir A lar n n Avantaj ve Dezavantajlar ...16

1.3.4.1 Avantajlar ...16

1.3.4.2 Dezavantajlar ...17

1.4 Yapay Sinir A lar n n Jeofizikteki Uygulamalar ...17

BÖLÜM K -KULLANILAN YÖNTEMLER ... 21

(10)

ix

2.2 Radyal Taban Fonksiyonlu A lar (RTFA)... 29

2.3 ÇKA ve RTFA Aras ndaki Farklar... 30

BÖLÜM ÜÇ – UYGULAMALAR ...32

3.1. Gravite Verilerinin Yapay Sinir A lar ile De erlendirilmesi...32

3.1.1 Kuramsal Modeller...34

3.1.1.1 Nokta Kütle ve Küre ...35

3.1.1.2 Nokta Kütle ve Küre Anomalisi Üzerinde Random Gürültünün Etkisi.36 3.1.1.3 /ki Boyutlu Kuramsal Modeller ...38

3.1.1.3.1 Graben Modeli ...39

3.1.1.3.2 Dayk Modeli ...40

3.1.1.3.3 Basamak Modeli ...42

3.1.1.4 Kuramsal /ki Farkl Yap dan Olu an Modeller...43

3.1.1.5 Kuramsal /ki Farkl Yap dan Olu an Modellerde Gürültünün Etkisi ....44

3.1.2 YSA’ n n Jeofizik Verilere Uygulanmas ...47

3.1.2.1 Bat Türkiye’nin Tektoni i ...47

3.1.2.2 Bat Türkiye Gravite Verileri ...51

3.1.2.3 Gediz Grabeni ...52

3.1.2.4 Büyük Menderes Grabeni ...60

3.1.2.5 Seferihisar Jeotermal Bölgesi...65

3.1.2.6 Bat Anadolu’nun Kabuk Kal nl n n Saptanmas ...68

3.1.2.7 Bat Anadolu Deprem Frekanslar n n YSA ile de erlendirilmesi ...69

BÖLÜM DÖRT - SONUÇLAR ...77

(11)

Yapay sinir a lar teknolojinin de etkisiyle son y llarda bir çok problemin çözümünde yayg n olarak kullan lan yöntemlerden biri olmu tur. Uygulama alan n n geni olmas ve birçok problemin çözümünde ba ar l sonuçlar n elde edilmesi bu yönteme olan ilgiyi artt rm t r.

Son y llarda yer bilimlerinde de uygulanan yöntem birçok problemin çözümünde farkl bak aç lar n n olu mas na neden olmu tur. Özellikle tahmin- ön kestirim, modelleme ve veri i lem gibi alanlarda yöntemin ba ar s ve uygulanabilirli i test edilmi tir.

Bu çal mada Yapay Sinir A lar n n iki farkl türü olan Çok katmanl Alg lay c ve Radyal Taban Fonksiyonlu A lar gravite ve deprem ayl k frekans verilerine uygulanm t r. Çal ma alan olan Bat Anadolu’nun tektonik ve jeolojik aç dan çok ilgi çeken ve birçok ara t rmac n n çal t bölgelerden biri olmas nedeniyle uygulanan bu yöntemlerin daha önceki sonuçlarla kar la t r lmas söz konusu olabilmi tir.

Bilindi i gibi gravite yönteminin çok çözümlülü ü modelleme çal malar n güçle tirmektedir. Bugüne kadar farkl yöntemler gravite modellemesi amac yla kullan lm ve çok çözümlülük problemi a lmaya çal lm t r. Bu çal mada Yapay Sinir A lar yöntemi kullan larak gravite modellemesi amaçlanm t r. Bat Anadolu da özellikle grabenler üzerinde al nan gravite kesitleri Çok Katmanl Alg lay c ve Radyal Taban Fonksiyonlu a lar ile de erlendirilerek bölgenin tortul kal nl , kabuk kal nl ve birimler aras yo unluk farklar elde edilmi tir. Bat Anadolu’ nun temel grabenlerinden olan Gediz ve Büyük Menderes gravite verileri YSA ile de erlendirilmi tir. Gediz grabeni için ortalama tortul kal nl yakla k 0,5-2,5 km olarak saptanm t r. Büyük Menderes için elde edilen tortul kal nl ise yakla k 0,3-3,2 km olarak bulunmu tur.

(12)

Bölge sismolojik aç dan aç lma rejiminin sonucu olu an grabenler ve graben tektoni i nedeniyle aktiftir. Türkiye genelinde birinci deprem ku a içinde yer alan bölgede aletsel dönemden günümüze y k c depremler meydana gelmi tir. Bu depremleri önceden tahmin edebilme ve gereken önlemleri alabilme günümüzde oldukça ilgi çeken konulardan biridir. Bölgede meydana gelen depremlerin ayl k olu say lar düzenlenerek Yapay Sinir A lar yöntemleriyle deprem ayl k frekans ön kestirimi yap lm t r.

(13)

1.1 Yapay zeka ve Yapay Sinir A lar Tan m

Yapay zeka, bilgisayar n yada bilgisayar ile kontrol edilen bir makinan n, ak l yürütme, anlam ç kartma, genelleme, alg lama, geçmi deneyimlerden ö renme gibi genellikle insan zekas na özgü olan görevleri yerine getirme yetene idir. Yapay zeka (Artificial 6ntelligence) teknikleri 4 ba l k alt nda toplanabilir.

• Bulan k Mant k (Fuzzy Logic)

• Uzman Sistemler (Expert Systems)

• Genetik Algoritma (Genetic Algorithm)

• Yapay Sinir A lar (Artificial Neural Networks)

Yapay zeka tekniklerinden biri olan Yapay Sinir A lar (YSA) en basit anlam yla biyolojik sinir sisteminin çal ma prensiplerinden esinlenerek olu turulmu matematiksel bir modeldir. Beynin ö renme yoluyla yeni bilgiler elde etme, hat rlama, problem çözme, tahmin etme gibi yeteneklerinin bilgisayar ortam nda olu turulmas YSA’n n temel prensiplerindendir. Herhangi bir olay hakk nda girdi ve ç kt lar aras ndaki ili kiyi, do rusal olsun veya olmas n, elde bulunan mevcut örneklerden ö renerek daha önce hiç görülmemi olaylar , önceki örneklerden ça r m yaparak ilgili olaya çözümler üretebilme özelli i YSA’n n en temel ve ara t rmac lar n dikkatini çeken en önemli özelliklerdendir.

Günümüzde YSA farkl alanlarda birçok problemin çözümünde ba ar yla uygulanmaktad r. Özellikle insan beyninin çözüm buldu u ö renme, ili kilendirme, s n fland rma, genelleme, özellik belirleme ve optimizasyon gibi konularda yayg n olarak kullan lmaktad r.

Ayr ca günümüzde bir çok problemin k sa zamanda en iyi ekilde çözülmesi amac yla kullan lan eniyileme (optimizasyon) tekniklerinden biri olarak gösterilen YSA en iyi çözüm noktas na mümkün oldu unca yakla may sa lar. Geçmi ten günümüze kadar kar la lan birçok problemin çözülmesi amac yla, de i ik eniyileme teknikleri geli tirilip uygulanm t r. Eniyileme teknikleri uygulan

(14)

biçimine göre deterministik ve stokastik olmak üzere iki ana grupta toplanabilir (Haataja, 1999). Yayg n olarak kullan lan deterministik yöntemlerden baz lar Newton, Levenberg-Marquardt, Endik 6ni , Gauss-Newton olarak s ralanabilir. Simulated Anealing, Genetik Algoritma, Yapay sinir a lar ise stokastik optimizasyon yöntemlerine örnek olarak gösterilebilir.

1.1.1 Yapay Sinir A lar n n Tarihçesi

Yapay sinir a lar için ilk ad m 19. yüzy l n sonlar nda psikolog William James taraf ndan at lm t r. James (1890) taraf ndan yap lan çal mada beynin haf za fonksiyonu anla labilir, tahmin edilebilir basit örneklerle aç klanmaktad r. Mühendislik alan nda yapay sinir a lar n n temellerini 1940’l y llardan sonra Hebb, Mcculloch ve Pitts, gibi bilim adamlar n n çal malar olu turmu tur. 1949 y l nda Donald Hebb, taraf ndan geli tirilen ‘hebbian ö renme’ ö renme kural günümüzde de birçok ö renme kural n n temelini olu turmaktad r (Hebb, 1949; Mcculloch ve Pitts, 1943). YSA çal malar tam olarak 1950’ li y llarda ba lam t r. Basit sinir modeline dayal bir hesaplama modeli, Rosenblatt taraf ndan 1958 y l nda önerilmi ve perseptron (alg lay c ) diye bilinen tek katmanl ilk YSA modeli ortaya ç km t r. Bu model daha sonralar olu turulan çok katmanl alg lay c modelinin temelidir (Rosenblatt, 1958).

Widrow ve Hoff 1960 y l nda bu basit sinir modelini kullanarak ö renebilen ilk ADALINE (ADaptive LInear NEuron) ad verilen adaptif sistemler üzerinde çal m ve delta kural diye bilinen, gerçek ç k ile istenen ç k aras ndaki farka e it bir hata terimi kullanarak a rl klar n de i tirildi i ö renme kural n ortaya koymu lard r (Widrow ve Hoff 1960). 1970’ li y llar n sonunda ortaya ç kar lan MADALINE ise birden fazla Adaline ünitesinden olu mu a d r. 1970’ li y llarda YSA çal malar duraklama dönemini ya am t r.

1982 ve 1984 y llar nda Hopfield taraf ndan yay nlanan çal malar ile yapay sinir a lar n n genelle tirilebilece i görülmü tür. Hopfield tekrar beslemeli (recurrent)

(15)

YSA modeli ortaya atm ve bunun pratik optimizasyon problemlerinde kullan labilirli ini göstermi tir.

Kohonen 1984 de kendi kendine ö renme nitelik haritalar n (Self-Organizing Maps, SOM) geli tirmi tir. 1988 y l nda Grossberg, Adaptif Rezonans Teorisi (Adaptive Resonance Theory, ART) ad alt nda bir YSA yap s n geli tirmi tir

( Grossberg, 1988a). Bu ö retmensiz ö renme konusunda zaman n geli tirilmi en karma k yapay sinir a modeli olmu tur.

Rumelhart 1986 y l nda “Parallel Distributed Processing” adl kitab nda, ileri beslemeli (feed-forward) a larda yeni bir ö renme modeli olan hatan n geriye yay l m algoritmas n (backpropagation algorithm) geli tirmi tir. Geri yay l m algoritmas ile çal an ileri beslemeli yapay sinir a lar kullan m yayg n ve ö renilmesi kolay oldu undan birçok ara t rmac taraf ndan tercih edilmektedir. (Haykin,1999)

1.1.2 Biyolojik Sinir Sistemi

Yapay sinir a lar biyolojik sinir sisteminden esinlenerek geli tirilmi tir. Bu nedenle öncelikle biyolojik sinir sistemi üzerinde durulacakt r. Sinir a milyarlarca sinir hücresinin bir araya gelmesi ile olu maktad r. Beynimizde yakla k 1011 adet sinir hücresinin oldu u ve bunlar n 6x1013 ten fazla ba lant s n n bulundu u söylenmektedir (Öztemel, 2003; Sa ro lu, Be dok, Erler, 2003).

Biyolojik sinir a lar insan beyninin çal mas nda büyük öneme sahiptir. Be duyu organ ndan gelen sinyaller alg lama ve anlama mekanizmalar n çal t r r. Beyinde ekillenen sinyaller tekrar sinir sistemi ile organlara eylem olarak iletilir. Bir sinir hücresini olu turan birimler a a da gösterilmektedir.

(16)

Nekil 1.1 Biyolojik sinir hücresi (Sa ro lu ve di er, 2003).

Nekil 1.1 de de görüldü ü gibi temel bir biyolojik sinir hücresi OsomaO, OaksonO, OsinapsO ve OdendriteO lerden olu maktad r. Sinaps, sinir hücrelerini birbirine ba layan ve bir sinir hücresinden di erine elektrik sinyallerin geçmesini sa layan bo luklard r. Sinaps’lar yoluyla sinyaller dendrit’ lere ve dolay s ile soma’ya iletilir. Soma’da gelen sinyal i lenerek sinir hücresi kendi sinyalini olu turur. Olu turulan sinyal akson yard m yla sinaps’lardan geçerek dendrit’lere gönderilir. Dendrit’ler bu sinyalleri soma’ya ta yarak bir ç kt olu mas n sa larlar. Sinirler elektrik sinyalini hücre duvar ndaki voltaj de i tirerek üretirler. Bu durum hücre içinde ve d nda da lm bulunan iyonlar arac l ile olur. Bu iyonlar sodyum, potasyum, kalsiyum ve klor gibi iyonlard r. Potasyum yo unlu u sinirin içinde sodyum yo unlu u ise sinirin d ndad r. Bir hücre di er bir hücreye elektrik enerjisini bu iyonlar vas tas yla iletir. Baz iyonlar magnetik kutupla maya neden olurken baz lar kutupla madan kurtulup hücre zar n açarak iyonlar n soma’ya geçmesini sa lar. Sinyallerin bir hücreden di erine akmas n sa layanda bu kutupla man n azalmas d r.

Sinyaller hücrenin etkinli ini (dürtüsünü) belirler. Bir hücrenin etkinli i, hücreye gelen sinaps say s , sinaps’lardaki iyonlar n konsantrasyonu, sinaps’ n sahip oldu u güç olmak üzere üç faktöre ba l d r. Dendrit taraf ndan al nan sinyaller hücrede birle tirilerek bir ç k darbesi üretilip üretilmeyece ine karar verilir. Dendrit’lerce

(17)

al nan bir giri , harekete geçirici (tetikleyici, pozitif) ya da yasaklay c (negatif) olabilir. Dendrit’lere geçirilen iletiler soma’da birle tirilerek elektriksel bir ç kt olu tururlar. Soma’ya gelen girdilerin toplam akson üzerinde ç kt olu turacak de ere ula t nda (e ik seviyesi) akson bir ç k sinyali üretir. Akson’un ç k sinyali üretmesi akson ate lendi (fired) eklinde ifade edilir.

Biyolojik beynin en önemli özelliklerinden biri de ö renme olay d r. Ö renilen her yeni bilgi, beyin fonksiyonlar n da etkileyerek davran larda kendini gösterir. YSA’ n n geli tirilmesinde insan beyninin bu özelli i dikkate al nmaktad r (Haykin, 1999).

1.2 Yapay Sinir A ve Temel Elemanlar

YSA’ n n en temel eleman alg lay c d r (perceptron). 6lk olarak 1958 y l nda Frank Rosenblatt taraf ndan geli tirilmi tir. Nekil 1.2 de görüldü ü gibi alg lay c alt ana bölümden olu maktad r. Bunlar, giri ler (xi), a rl klar (wi), e ik (bi), toplam fonksiyonu (P), aktivasyon fonksiyonu (f) ve ç k de eri y’ dir. Bu alt temel eleman a a da detayl olarak aç klanmaktad r.

(18)

Giri ler: Yapay sinir hücresine d ar dan veya di er sinir hücrelerinden gelen

bilgilerdir.

A rl klar: A rl klar yapay sinir hücresine gelen bilgiyi di er sinir

hücrelerine de i tirerek aktarmaya yarayan ba lant lard r. Girdi de erleri a rl klarla çarp larak di er sinir hücresine iletilir. A rl klar negatif ya da pozitif de erler alabilir. A rl klar nöron yap s nda synapselere kar l k gelmektedir.

E ik: Sinir hücresinin ya da a n ç kt s n n s f r olmas n engellemek için e ik

de eri kullan l r.

Toplam Fonksiyonu: Hücreye gelen net girdinin hesaplanmas n sa layan

fonksiyondur. En yayg n kullan m ekli her girdi de erinin kendi a rl yla çarp larak toplanmas d r. Ancak farkl fonksiyonlar da bu amaç için kullan labilir.

Aktivasyon Fonksiyonu: Hücreye gelen net girdiye kar l k hücrenin

üretece i ç kt y hesaplar. Farkl fonksiyonlar aktivasyon fonksiyonu olarak kullan labilir. Çok katmanl alg lay c gibi a larda bu fonksiyonun hatan n geri yay l m a amas nda türevi al nd için türevi al nabilir bir fonksiyon olmas gerekmektedir. Ç kt y hesaplamak için kullan lan aktivasyon fonksiyonlar ndan baz lar ad m (step), e ik (threshold), sigmoid ve hiberbolik tanjant fonksiyondur. Sigmoid fonksiyonu;

v e v f + = 1 1 ) ( (1)

ba nt s ile tan mlan r. Ad m fonksiyonunda gelen net girdinin belirlenen bir e ik de erinin alt nda yada üstünde olmas durumuna göre ç kt n n de eri 1 yada 0 olur. Ad m fonksiyonu,

> = de er e ik v e er de er e ik v e er v f , 0 , 1 ) ( (2)

(19)

E ik (threshold) fonksiyonu girdinin 0 yada 1 den büyük olmas na göre de er al r. 0 ile 1 aras nda de i en de erler de alabilir. Bunlar n d nda kalan de erleri almaz. E ik fonksiyonu,

< < = 1 , 1 1 0 , 0 , 0 ) ( v e er v e er v v e er v f (3)

ba nt s yla verilmektedir. Hiberbolik tanjant fonksiyonu ise girdilerin tanjant fonksiyonundan geçirilmesiyle hesaplanmaktad r. Hiperbolik tanjant,

v v v v e e e e v f( )= + (4)

ba nt s yla tan mlan r.

Nekil 1.3 te YSA’ da en yayg n olarak kullan lan transfer fonksiyonlar görülmektedir. Bunlar n d nda Gaussian ve Sinüs fonksiyonu da bilinen aktivasyon fonksiyonlar ndand r.

Ç kt : Girdi ve a rl klar n çarp m n n toplam d r. Elde edilen toplam

aktivasyon fonksiyonu ile a n üretti i ç kt ya dönü ür. Yapay sinir hücresinin y ç kt s ; ) ( ) ( 1 = + = = M i i i b x w f v f y =wxT +b (5)

ba nt s yla verilir. Ba nt daki w a rl k de eri, x girdi de eri b ise nöronun e ik de erini göstermektedir. Girdi vektörü;

T M x x x x= 1 2 ... (6)

olarak tan mlan r. A a girilen 1xM boyutundaki vektördür. A rl k de erleri ise;

(20)

[

w w wM

]

w= 1 1 ... (7)

olarak tan mlan r. E ik de eri olan b ise katmandaki her nörona ba lanan de erdir ve katmandaki nöron say s kadar e ik de eri mevcuttur.

Nekil 1.3 En yayg n kullan lan transfer fonksiyonlar .

Biyolojik sinir sistemindeki birimler ile yapay sinir a lar ndaki birimlerin görevleri ve terminolojideki isimleri Nekil 1.4 de özetlenmektedir. Biyolojik sinir sistemindeki sinir hücresi YSA’da da sinir, nöron yada i lem eleman olarak isimlendirilir. Dendritler toplam fonskiyonunun, hücre gövdesi aktivasyon

(21)

fonksiyonunun, aksonlar YSA ç kt s n n, sinapslar ise a rl klar n görevlerini yerine getirmektedir.

Nekil 1.4 Biyolojik ve yapay sinir hücrelerinin birlikte gösterimi.

1.3 Yapay Sinir A lar n n S n fland r lmas

Yapay sinir a lar , yap lar na ve ö renme algoritmalar na göre çe itli s n flara ayr lmaktad r. Yap lar na göre ileri beslemeli ve geri beslemeli a lar olmak üzere iki, ö renme algoritmalar na göre ise ö retmenli ö renme, ö retmensiz ö renme ve takviyeli ö renme olmak üzere üç grupta s n flanmaktad r.

(22)

1.3.1 Yap lar na Göre A lar

Yap lar na göre a lar ileri beslemeli ve geri beslemeli olmak üzere iki gruba ayr l r. Bu a lar hakk nda detayl bilgi a a da verilmektedir.

1.3.1.1 (leri Beslemeli A lar

6leri beslemeli bir a da nöronlar genellikle katmanlara ayr lm lard r. Girdiler, giri katman ndan ç k katman na do ru tek yönlü ba lant larla iletilir. Nöronlar bir katmandan di er bir katmana ba lant kurarlar, ayn katman içerisinde birbirleri ile ba lant lar bulunmaz. Nekil 1.5 de ileri beslemeli a için blok diyagram gösterilmi tir. 6leri beslemeli a lara örnek olarak çok katmanl alg lay c (Multi Layer Perceptron-MLP) ve LVQ (Learning Vector Quantization) a lar verilebilir.

Nekil 1.5 6leri beslemeli a diyagram .

1.3.1.2 Geri Beslemeli A lar

Geri beslemeli sinir a , ç k ve ara katmanlardaki ç k lar n, giri birimlerine veya önceki ara katmanlara geri beslendi i bir a yap s d r. Böylece, giri ler hem ileri yönde hem de geri yönde aktar lm olur. Nekil 1.6 da geri beslemeli bir a görülmektedir. Bu çe it sinir a lar n n dinamik haf zalar vard r ve bir andaki ç k hem o andaki hem de önceki giri leri yans t r. Bu özelli inden dolay , özellikle ön kestirim uygulamalar için uygundurlar. Bu a lar çe itli tipteki zaman serilerinin tahmininde oldukça ba ar sa lam lard r. Bu a lara örnek olarak Hopfield, SOM , Elman ve Jordan a lar verilebilir.

(23)

Nekil 1.6 Geri beslemeli a diyagram .

1.3.2 Ö renme Algoritmalar na Göre A lar

Ö renmenin bir çok tan m olmas na ra men Simon (1983) ö renmeyi zaman içinde yeni bilgilerin ke fedilmesi yoluyla davran lar n iyile tirilmesi süreci olarak tan mlamaktad r (Simon, 1983). Yapay sinir a lar nda ise ö renme yoluyla a daki a rl klar n de i tirilmesi sa lanmaktad r. Bunun için genel olarak üç ö renme metodundan ve bunlar n uyguland de i ik ö renme kurallar ndan söz edilebilir.

1.3.2.1 Ö retmenli Ö renme (Supervised Learning)

Bu tip ö renmede, YSA’ya giri de erleri ve bunlara kar l k gelen ç k de erleri verilir. 6stenilen ve gerçek ç kt aras ndaki farka (hataya) göre nöronlar aras ba lant lar n a rl en uygun ç k elde etmek için düzenlenir. Sisteme verilen girdi ve bunlara kar l k gelen ç kt lardan olu an e itim seti yard m yla a e itilerek a rl klar de i tirilir. Giri ve ç k de erlerinden olu an e itim seti ö retmen yada dan man görevini görmektedir. Nekil 1.7 de dan manl ö renme yap s gösterilmi tir. Widrow-Hoff taraf ndan geli tirilen delta kural , Rumelhart ve McClelland (1986) taraf ndan geli tirilen genelle tirilmi delta kural veya geri besleme (back propagation) algoritmas dan manl ö renme algoritmalar na örnek olarak verilebilir.

(24)

Nekil 1.7 Ö retmenli ö renme (Haykin, 1999).

1.3.2.2 Ö retmensiz Ö renme (Unsupervised Learning)

Giri e verilen örnekten elde edilen ç k bilgisine göre a s n fland rma kurallar n kendi kendine geli tirmektedir. Bu ö renme algoritmalar nda, istenilen ç k de erinin bilinmesine gerek yoktur. Ö renme süresince sadece giri bilgileri verilir. Sisteme giri lere kar l k gelen ç k de erleri girilmez. Bir e itim seti mevcut de ildir. A daha sonra ba lant a rl klar n ayn özellikleri gösteren desenler olu turmak üzere ayarlar. Nekil 1.8 de dan mans z ö renme yap s gösterilmi tir. Grossberg (1986) taraf ndan geli tirilen ART (Adaptive Resonance Theory) veya Kohonen (1984) taraf ndan geli tirilen SOM (Self Organizing Map) ö renme kural dan mans z ö renmeye örnek olarak verilebilir.

(25)

1.3.2.3 Takviyeli ö renme (Reinforcement learning)

Bu ö renme kural dan manl ö renmeye yak n bir metod olmas na ra men istenilen a ç k n n bilinmesine gerek duyulmaz. Hedef ç kt y vermek için bir e itim seti yani ö retmen yerine, YSA’ ya bir ç k verilmemekte fakat elde edilen ç k n verilen giri e kar l k do ruluk derecesini de erlendiren bir kriter kullan lmaktad r. Nekil 1.9 da takviyeli ö renme yap s gösterilmi tir. Optimizasyon problemlerini çözmek için Hinton ve Sejnowski’nin (1986) geli tirdi i Boltzmann kural takviyeli ö renmeye örnek olarak verilebilirler.

Nekil 1.9 Takviyeli ö renme (Haykin, 1999).

1.3.3 Ö renme Kurallar

YSA’lar n en önemli özelliklerinden biri çevresinden yararlanarak ö renme yetene idir. Ö renme için geli tirilmi bir çok kural vard r. En bilinen ö renme kurallar aras nda Hebb, Oja, Delta, Hopfield, Kohonen, Widrow Hoff ö renme kural gibi birçok ö renme kural bulunmaktad r. Bu bölümde en temel ö renme kurallar na de inilecektir.

(26)

1.3.3.1 Hebb Kural

6lk ve en çok bilinen ö renme kural d r. 1949 y l nda Donald Hebb taraf ndan geli tirilmi tir. Hebb’in ö renme kural na göre, aralar nda do rudan ba lant olan bir nöron di er nöron ile e zamanl aktive oluyorsa, bu hücrelerin aras ndaki ba lant n n a rl bir miktar artt r l r.

Hebb kural , xj giri ve yk ç k sinyaline sahip bir k nöronu için n. ad mda matematiksel olarak a a daki gibi tan mlanabilir.

) ( ) ( ) (n y n x n wkjk j (8)

Ba nt daki µ ö renme h z n belirleyen bir sabit, wkj k nöronunun sinaptik a rl , xjve yknöronun girdi ve ç kt sinyallarini göstermektedir. (Haykin, 1999)

1.3.3.2 Delta Bar Delta Kural

Yayg n olarak kullan lan ö renme kural d r. Bu kural a dan istenilen ç kt ile a n hesaplad ç kt aras ndaki fark n yani hatan n en aza indirilmesini sa lamaya yöneliktir. Bu ö renme kural na göre a rl klar a n ortalama karesel hatas n en küçük yapacak ekilde de i tirilir. Bu kurala ayn zamanda Widrow-Hoff kural ve En Küçük Ortalamalar n Karesi kural da denmektedir.

1.3.4 Yapay Sinir A lar n n Avantaj ve Dezavantajlar

1.3.4.1 Avantajlar

• Matematiksel olarak modellenmesi mümkün olmayan karma k problemleri çözebilirler.

• Do rusal olmayan ili kileri de kolayl kla modelleyebilmektedirler.

• YSA’lar n n çal mas geleneksel sistemlerden h zl d r. (Özellikle paralel i leme özelli i olan sistemlerde)

(27)

• De i ikliklere kar yeniden e itilebilirler. Ortama uyum yetenekleri vard r.

• Paralel çal abilmeleri gerçek zamanl kullan mlar n kolayla t rmaktad r.

1.3.4.2 Dezavantajlar

• YSA model seçiminde, a topolojisinin belirlenmesinde ve a olu turulmas nda kesin kurallar yoktur. Kullan c kendi deneyimine göre a yap s n belirler.

• Örneklerin tasar m nda da bir kurallar seti yoktur. Farkl tasar mlarda farkl performans verebilir.

• A davran aç klanamaz.

• E itim süreci seçilen a a ve arzulanan hedef kriterlere ba l olarak uzun sürebilmektedir.

• E itim seti için fazla veriye ihtiyaç duyulmaktad r.

1.4 Yapay Sinir A lar n n Jeofizikteki Uygulamalar

Son y llarda jeofizikte yapay sinir a lar na olan ilgi artmaktad r. Farkl problemlerin çözümünde kolayl kla uygulanabilir olmas ara t rmac lar n ilgisini çekmektedir. Nekil 1.10 da 1999-2009 y llar aras nda yerbilimlerinde YSA uygulamalar n n yer ald SCI-EXP dergilerdeki yay n say lar görülmektedir. Yay nlar Web of science’ den ara t r larak derlenmi tir.

(28)

0 5 10 15 20 25 30 35 40 45 50 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 Y llar Y er b ili m le ri n d e ya p la n ya y n sa y s

Nekil 1.10 Yerbilimlerinde yapay sinir a lar uygulamalar n n SCI-EXP dergilerde yay nlanm makale say lar (Web of science’ dan derlenmi tir ).

Jeofizikte kullan lan yöntemler yapay ve do al kaynakl olmak üzere iki gruba ayr l r. Yapay kaynakl yöntemlerde d ar dan etki etme imkan varken do al kaynakl yöntemlerde herhangi bir etki söz konusu de ildir. Do al kaynakl yöntemlerde ayn anomaliyi verebilecek ba ka yer alt modelleri de olabilece inden bu sorun çok çözümlülü ü beraberinde getirmektedir.

Son y llarda YSA çe itli jeofizik yöntemlerde uygulanmaktad r. Çe itli yay nlar n derlenmesiyle olu turulan Tablo 1.1 de bugüne kadar jeofizikte yapay sinir a lar n n hangi alanlarda ve hangi amaçlarla kullan ld özetlenmeye çal lm t r.

Tablo 1.1 incelendi inde Yapay Sinir a lar n n jeofizikte ön kestirim, modelleme ve veri i lem amac yla yayg n olarak uyguland görülmektedir. Çok katmanl alg lay c türü a lar birçok problemin çözümünde oldu u gibi jeofiziksel uygulamalarda da yayg n kullan m alan na sahip olmu tur. Tablo 1.1 deki çal malar n uygulama oranlar n elde etmek amac yla pay diagramlar olu turulmu tur.

(29)

Tablo 1.1 Yapay sinir a lar n n jeofizik çal malardaki da l m . Tahmin /Ön kestirim Modelleme/Ters Çözüm Parametre

Tayini Veri ,lem

Katalog verilerinden yararlanarak deprem

olu zaman ve deprem ayl k frekans

de eri (ÇKA) (Bodri,2001), (Sri Lakshmi ve Tiwari,2009) Elektrik ve sismik verilerin 1D ters çözümü (ÇKA) (Macias ve di er., 2000)

NMO’ dan sismik h z tayini (ÇKA) (Macias ve di er, 1998) Sismik dekonvolüsyon, sismik wavelet (HP) (Wang ve Mendel, 1992)

EM verilerden yer alt yap lar n n yerlerinin

saptanmas (ÇKA), (SOM) (Poulton ve di er., 1992) DC rezistivite verilerinin ters çözümü (ÇKA) (El-Qady ve Ushijima, 2001)

Sismolojide ilk var lar n tayini (Dai ve MacBeth, 1996) MT transfer fonksiyonunun hesaplanmas (ÇKA) (Manoj ve Nagarajan, 2003) Farkl volkanik bölgelerde sismisite ve yer de i tirmenin tahmini (ÇKA) (Luongo ve di er., 2004) MT verilerinin ters çözümü (ÇKA), (HP), (Macias ve di er., 2000) (Zhang ve Paulson, 1997)

Peak ground acceleration (ÇKA) (Kerh ve Chu, 2002) Gravite-manyetik verilerden yararlanarak jeolojik yap s n r (CNN) (Aydo an ve di er., 2003) (Ucan ve di er., 2002) Sismik artç oklar n

yerinin ve zaman n n tahmini (ÇKA) (SOM)

(Lin ve Mohamed, 1999) (Allameh Zadeh,2004)

Sismik dalga biçimi ters çözümü (ÇKA) (He ve Zhou, 2003) Arkeolojik verilerin de erlendirilmesi (CNN) (Albora ve Uçan, 2005) Jeofizik kuyu loglar ndan termal

kondaktivitenin tahmini (ÇKA) (Goutorbe ve di er.,

2006)

AEM verilerinin 1 boyutlu ters çözümü (Ahl, 2003)

Deniz sismik verilerinde tekrarl yans malar n belirlenmesi (ÇKA) (Essenreiter ve di er, 2003)

Tekrarl yans mlar n belirlenmesi ve s n fland r lmas (SOM) (Essenreiter ve di er, 2001) Wireline logtan porozite ve permeabilitenin tahmini (ÇKA) (Hele ve di er., 2001) Gravite anomalisinin düz çözümü (ÇKA) (Osman ve di er., 2007) Sismik yans ma çal malar nda veri kalitesini artt rmak için gürültülerin giderilmesi

(ÇKA),(RTFA) (Van der Baan ve Jutten,

2000) Kuyu logu verilerinden k r lma frekans n n tahmini (ÇKA) (FitzGerald ve di er., 1999) Sismik ters çözüm (RTFA) (Baddari ve di er., 2009)

Manyetik rejyonel/ rezidüel ayr m , Bouguer anomali

haritans n ayr m (CNN) (Albora ve di er., 2001)

(30)

28% 28% 9% 35% Tahmin-ön kestirim Modelleme(Düz/Ters Çözüm) Parametre Tayini Veri ()lem

Nekil 1.11 Yapay Sinir A lar n n Jeofizikte kullan m alanlar ve oranlar .

Tablo 1.1 den yararlanarak elde edilen Nekil 1.11 deki diyagram incelendi inde yapay sinir a lar n n veri i lem, modelleme ve ön kestirim amac yla jeofizikte kullan ld görülmektedir. Süzgeç, s n flama gibi veri i lem a amalar nda alternatif bir yöntem olarak kullan lmaktad r.

61% 7% 11% 7% 7% 7% ÇKA(Çok katmanl, Alg,lay,c,)

Hopfield Sinir A3lar,(HP) Self-Organizing Map (SOM) Hücresel Sinir A3lar,(CNN) Radyal Taban Fonksiyonlu A3lar (RBF) Zorlanm,) Sinir A3lar,(FNN)

Nekil 1.12: Jeofizikte yayg n olarak kullan lan Yapay Sinir A türleri ve kullan m oranlar .

Tablo 1.1 den yararlanarak olu turulan Nekil 1.12 deki diyagramda en çok kullan lan a türünün çok katmanl alg lay c oldu u görülmektedir. Gerek kolay matematiksel yakla m ve gerekse bir çok alanda kolay uygulanabilirli i bu a türünün jeofizikte de tercih edilmesine neden olmu tur.

(31)

2.1 Çok Katmanl Alg lay c (Multilayer Perceptron)

Yapay sinir a lar nda uygulama kolayl ve bir çok problemin çözümü aç s ndan uygunlu u nedeniyle Çok Katmanl Alg lay c (ÇKA) yayg n olarak kullan lan bir modeldir. Bir girdi katman , bir ya da birden fazla gizli (ara) katman ve bir ç k % katman ndan olu%maktad r. Katmanlardaki nöronlar verilen girdiyi i%leyerek ve di er nöronlara ileterek istenilen ç kt ya ula%may sa lar. Verilen girdi vektörünün her eleman ilgili a rl k ile çarp l p birbirine eklenerek net girdi hesaplan r. Nöronda hesaplanan net girdiyi ç kt ya dönü%türmek için aktivasyon fonksiyonu kullan l r. ÇKA’ da türevinin kolay al nabilmesi hatan n geri yay lma sürecinde i%lem kolayl sa lad için aktivasyon fonksiyonu olarak genellikle sigmoid kullan l r. ÇKA’da nöronlar iki katman aras nda ba lant y sa lar. Ancak ayn katmandaki nöronlar aras nda ba lant yoktur. Bu yap s nedeniyle veri ak % girdi katman ndan ç kt katman na do ru ilerler. A rl klar a n ç kt s ile istenilen ç kt n n aras ndaki fark n azalt lmas n sa layacak yönde hesaplan r.

ÇKA ö retmenli ö renme s n f nda olan bir modeldir. Ö renmenin amac , verilen bir problemdeki bilinen girdi-ç kt çiftinin a e itmek için kullan lmas ve daha sonra e itilen bu a ile bir giri%e kar% l k do ru sonuç üretmesinin sa lanmas d r. YSA’ lar n hiç ö renmedikleri giri%lere kar% l k gelen ç k %lar do ru %ekilde verebilmelerine YSA’ lar n genelleme (generalization) özelli i denir. En yayg n ve en çok kullan lan ö renme algoritmas geri yay l m algoritmas d r. Anla% lmas kolay ve matematiksel olarak kolayca ispatlanabilir olmas ndan dolay en çok tercih edilen ö renme algoritmas d r. Bu algoritma, hatalar ç k %tan giri%e geriye do ru azaltmaya çal %mas ndan dolay geri yay l m ( back propagation ) ismini alm %t r .

(32)

0ekil 2.1 Çok katmanl alg lay c (Ham ve Kostanic, 2000).

E itim tamamland ktan sonra ileri beslemeli yap için ç kt de eri ;

]]

[

[

[

(3) (2) (2) (1) (1)x

]

) 3 ( W f W f W f y= (9) ba nt s yla verilir.

2.1.1 Geri Yay l m Algoritmas (Backpropagation Algorithm)

Geri yay lma algoritmas (genelle%tirilmi% delta kural ) ilk olarak 1970’li y llarda geli%tirilmi%tir. Bu algoritman n geli%tirilmesinde birbirlerinden ba ms z olarak birkaç ara%t rmac n n katk lar olmu%tur. As l katk ise Rumelhart, Hinton ve Williams (1986) taraf ndan yap lm %t r. Geriye yay l m algoritmas , yapay sinir a lar nda en çok kullan lan e itim algoritmas d r. Bu algoritman n ö renmesi

(33)

s ras nda a , her giri% verisini, ç k % nöronlar nda sonuç üretmek üzere gizli katmanlardaki nöronlardan geçirir. Daha sonra ç k % katman ndaki hatalar bulabilmek için, beklenen sonuç ile elde edilen sonuç kar% la%t r l r. Bir sonraki a%amada ç k % hatalar n n türevi ç k % katman ndan geriye do ru gizli katmanlara geçirilir. Hata de erleri bulunduktan sonra, nöronlar kendi hatalar n azaltmak için a rl klar n ayarlar. A rl k de i%tirme denklemleri, a daki performans fonksiyonunu en küçük yapacak %ekilde düzenlenir. Geri yay l m algoritmas nda kullan c , gizli katman say s , gizli katmandaki nöron say s , aktivasyon fonksiyonu (sigmoid, tanjanthiperbolik, do rusal, v.b) a rl klar n a a tan t lmas , ö renme katsay s ve momentum, e%ik, hata hesaplanmas , a rl klar n düzenlenmesi gibi parametreleri kontrol edebilmektedir (Poulton, 2001).

Geri yay l m algoritmas en genel haliyle aç klan rsa ç kt katman ndaki j. nöronun n. örnek için hata sinyali a%a daki gibi tan mlanmaktad r.

) ( ) ( ) (n d n y n ej = j j (10)

Burada dj(n) ve yj(n) n. örnek için s ras yla ç k % katman ndaki arzulanan ve gerçek

hata de erlerini belirtir.

ÇKA yapay sinir a lar için kullan lan standart geri yay l m algoritmas anl k hatay tan mlayan enerji fonksiyonunun azalt lmas nda kullan lan en dik ini% (steepest descent) gradient tabanl bir algoritmad r.

En aza indirgenmesi arzulanan hata fonksiyonu 3 katmanl bir a için;

2 3 1 ) ( 2 1 h n h qh q d y E = = (11)

%eklinde yaz l r. Burada dqh q. giri% verisi için h. nörondaki arzulanan a ç k % n temsil eder. yh(3) ise ç k % katman ndaki h. nöron için gerçek (hesaplanan) ç k % de erini verir.

(34)

En dik ini% yakla% m kullan larak a n herhangi bir katman için a rl k de i%imi, ) ( ) ( ) ( s ji q s s ji w E w = µ (12)

ba nt s yla verilir. Burada s ilgili ara katman ve µ(s) >0 kar% l k gelen ö renme katsay s d r.

(12) ba nt s her bir ilgili katman için zincir kural na göre tekrar

ji s j s j q s ji w v v E w = ) ( ) ( ) ( µ (13)

ba nt s yla yaz l r. Burada (s)

j

v s. katmandaki aktivasyon fonksiyonunun giri%ini verir. E er (13) denklemindeki k smi türevler tek tek hesaplan rsa elde edilen a rl k de i%imleri genel olarak,

) 1 ( ) ( ) ( ) ( ) ( ( +1)= ( )+ s i s j s s ji s ji k w k y w µ (14)

ba nt s ile yaz l r. Burada (s)

j ilgili katmandaki yerel hata olarak verilir ve ç k %

katman için bu hata

) ( ) ( () () ) ( s j s j qh s j = d y g v (15)

ile ifade edilir. Burada g(.) do rusal olmayan aktivasyon fonksiyonunun türevini ifade eder. Yerel hata ara katmanlar için,

) ( ) ( 1 ( 1) ( ) 1 ) 1 ( ) ( s j s hj ns h s h s j w + g v + = + = (16)

(35)

(14) denkleminde verilen ifadeye momentum katsay s eklenerek a rl k de i%imi ) 1 ( ) ( ) ( ) 1 ( () () () ( ) ) ( k+ = k y k + w k w s ji s i s j s s ji µ (17)

denklemiyle ifade edilir. Ba nt daki genellikle pozitif de erler alan momentum katsay s d r (Haykin, 1999). Geri yay l m algoritmas nda Levenberg- Marquardt ve momentum terimli gradyan azalmas yayg n olarak kullan lan ö renme algoritmalar d r.

Levenberg – Marquardt algoritmas , Newton ve Gradyen Azalmas algoritmalar n n en iyi özelliklerinden olu%ur. A rl klar n yenilenebilmesi için yap lmas gereken ilk ad m Hessian matrisini elde etmektir. Hessian matrisi, performans fonksiyonunun a rl klara göre ikinci dereceden türevlerinin al nmas yla olu%turulur. = 2 2 2 2 1 2 2 2 2 2 2 1 2 2 1 2 2 1 2 1 2 ) ( ... ) ( ) ( ... ... ... ... ... ) ( ... ) ( ) ( ) ( ... ) ( ) ( N N N N N w w E w w w E w w w E w w w E w w E w w w E w w w E w w w E w w E H (18)

Burada H Hessian matrisi, E performans fonksiyonu ve w ise a n sinaptik a rl klar d r. A rl klar n yenilenebilmesi için Hessian matrisinin tersinin bulunmas gereklidir. Ancak çok karma% k bir yapay sinir a için Hessian matrisinin hesaplanmas güçtür. Bu nedenle Levenberg-Marquardt algoritmas Quasi-Newton algoritmalar nda oldu u gibi bu matrisin yakla% k de erini kullanmaktad r. Levenberg-Marquardt için Hessian matrisinin yakla% k de eri;

(36)

I k k J k J k H( ) T( ) ( )+µ( ) (19)

olarak tan mlan r. Ba nt daki G Marquardt parametresi, I birim matris, k ad m say s , J ise Jakobien matrisidir ve a hatalar n n a rl klara göre birinci türevlerinden olu%maktad r. Jakobien matrisi,

= N p p p N N w e w e w e w e w e w e w e w e w e J ... ... ... ... ... ... 2 1 2 2 2 1 2 1 2 1 1 1 (20)

olarak verilir. Hessian matrisine göre hesaplanmas daha kolay oldu u için kullan lmas tercih edilmektedir. A n gradyeni ise;

) ( ) ( ) (k J k e k g = T (21)

ba nt s yla elde edilir. Böylece Levenberg-Marquardt algoritmas için a rl k de i%im ba nt s ;

[

( ) ( ) ( )

]

( ) ( ) ) ( ) 1 (k w k J k J k k I 1J k e k w + = T +µ T (22)

olarak tan mlan r. Ba nt daki Marquardt parametresi olan G skaler bir say d r. E er G s f r olursa bu yöntem Newton algoritmas , e er G büyük bir say ise küçük ad ml gradyen azalmas algoritmas haline gelir. (Ham ve Kostanic, 2000)

Momentum terimli geriye yay l m algoritmas ise standart geriye yay l m algoritmas na uygulanan en popüler iyile%tirmedir. Bu yöntemde a rl klar mevcut performans kriterinin gradyentlerinin toplam na ilave olarak önceki ad mda bulunan de eri de kullan r. A rl klar (23) denkleminde verildi i %ekilde hesaplan r.

(37)

) 1 ( ) 1 ( ( ) ) ( ) ( ) ( + = + w k w E k w s ji s ji q s s ji µ (23)

Burada J momentum katsay s olarak tan mlan r. (Ham ve Kostanic, 2000)

2.1.1.1 Ö renme ve Momentum katsay lar

Ö renme katsay s a rl klar n de i%im miktar n belirlemektedir. Ö renme katsay s ne kadar küçük olursa bir iterasyondan di erine a rl klar aras ndaki de i%im de o kadar küçük olur. Bu nedenle ö renme h z da daha yava% olmaktad r. Ö renme katsay s n n çok büyük olmas durumunda a rl klar aras ndaki de i%im de çok büyük olaca ndan a durays z bir hal al r. Bu dengesiz durumdan kaç nmak için delta kural na momentum terimi eklenmi%tir.

Momentum katsay s bir önceki iterasyondaki de i%iminin belirli bir miktar n n yeni de i%ime eklenmesidir. Yerel çözümlere tak lan a larda daha iyi sonuçlar n elde edilmesi amac yla kullan lmaktad r. Momentum katsay s n n küçük seçilmesi yerel çözümden kurtulmay sa lamayabilir. Büyük de erlerde ise tek bir çözüme ula%mak mümkün olmayabilir (Haykin, 1999).

0ekil 2.2 de çok katmanl alg lay c için ak % diyagram verilmektedir. Bu diyagramda i%lem ad mlar ve a n çal %ma süreci özetlenmi%tir.

(38)
(39)

2.2 Radyal Taban Fonksiyonlu A-lar (RTFA)

Radyal Taban Fonksiyonlu a lar (RTFA) ö retmenli ö renme temeline dayan r. Birçok ara%t rmac taraf ndan Çok katmanl Alg lay c ’ya alternatif olarak önerilmektedir. ÇKA’ya göre çok daha k sa sürede ö renme setini ö renmektedir. RTFA genel olarak ileri besleme a yap s ndad r. D % çevreyi a a ba layan bir girdi katman , bir gizli katman ve bir do rusal ç kt katman olmak üzere 3 katmandan olu%maktad r. A yap s 0ekil 2.3 de görülmektedir. Bu a türü s n flama ve fonksiyon yakla% m gibi alanlarda yayg n olarak uygulanmaktad r.

0ekil 2.3 Radyal Taban Fonksiyonlu a yap s .

RTFA’ n temeli 1985 y l nda Powell taraf ndan yap lan çal %maya dayanmaktad r. Powell (1985) çal %mas nda düzensiz olarak da t lan noktalar n RTFA ile çok de i%kenli interpolasyonunu göstermi%tir. Bu alandaki daha güncel çal %ma ise Light (1992 b) taraf ndan yap lm %t r.

Bu a türünde kullan lan aktivasyon fonksiyonu genellikle Gaussian da l ma dayanmakta ve (24) ba nt s yla ifade edilmektedir.

) / exp( ) (x x2 2 j = (24)

(40)

Ba nt daki O radyal tabanl fonksiyonlar n geni%li ini kontrol eden merkez yay l m parametresidir.

RTFA’ n ç kt katman ndaki herhangi bir nöronun ç kt s (25) ba nt s yla hesaplanmaktad r. m j w y n j j j ij i ( 2 1,2,... 1 = = = c x (25)

Ba nt da j j. nöronun ç kt s , x girdi vektörü, cj j. radyal tabanl fonksiyonlar n merkezleri ve . 2 Euclidean normu göstermektedir. Ayr ca wij gizli katmandaki j nöronunu ç kt katman ndaki i nöronuna ba layan a rl klar ve n ise gizli katmandaki nöron say s d r. RTFA n n e%leme özelli i ç kt katman ndaki a rl klar, RTFA’nun merkez vektörleri ve Gaussian fonksiyonunun geni%li i ile de i%tirilebilir. RTFA a n en basit e itim %ekli merkezlerin say lar n n sabitlenmesidir. E er merkezlerin say s girdi vektörünün say s na e%itlenirse, exact (tam) RTFA olarak isimlendirilir. Bu durumda e itim seti için istenilen ç kt ve hesaplanan ç kt aras ndaki hata s f r olacakt r.

Kullan lan Gaussian fonksiyonunun geni%li i ne kadar küçükse a n ayr ml l o kadar iyi olur. Geni%lik büyüdükçe ayr ml l k tersi oran nda azal r.

2.3 Çok Katmanl Alg lay c (ÇKA) ve Radyal Taban Fonksiyonlu A- (RTFA) Aras ndaki Farklar

Çok katmanl alg lay c ve Radyal taban Fonksiyonlu a lar n her ikisi de ileri beslemeli a lar s n f nda ve genel yakla% mc (universal approximator) olsalar da aralar nda baz farkl l klar mevcuttur. Bu farklar en genel haliyle verilirse;

• En temel haliyle RTFA tek gizli katmandan olu%maktad r. ÇKA ise bir veya birden fazla gizli katmana sahip olabilir.

(41)

• Girilen veri seti RTFA ile daha k sa sürede e itilir. ÇKA ise ayn veri setini e itmek için daha fazla zamana ihtiyaç duymaktad r.

• RTFA gizli katmandaki nöronlar do rusal de ildir. Ancak ç kt katman ndaki nöronlar do rusald r. ÇKA’ da ise tüm katmanlarda genellikle do rusal olmayan nöronlar kullan l r. E er ÇKA do rusal olmayan regresyon analizinde kullan l yorsa do rusal ç k % katman tercih edilir.

• Do rusal olmayan girdi-ç kt e%lemesinde ÇKA RTFA göre daha az parametreye ihtiyaç duymaktad r.

(42)

3.1 Gravite Verilerinin Yapay Sinir A lar ile De erlendirilmesi

Gravite verilerinin yapay sinir a lar ile de erlendirilmesinde ekil 3.1’de görülen ÇKA a yap s kullan lm t r. Teorik olarak hesaplanan gravite de erleri a n girdisi, yap n n derinli i, yo unluk fark ve lokasyonu gibi bilgileri içeren model ise a n ç kt s olacak ekilde a e itilmi tir. E itim kümesinde birbirinden farkl model ve bu modellere ait anomaliler kullan lm t r. Arazi verilerinin modellerini elde etmek için bu anomaliler test amac yla kullan lm t r.

ekil 3.1 de görülen *g vektörü N noktada ölçülmü ya da hesaplanm gravite de erlerini göstermektedir. Gravite modellemesinde her uygulama için nöron say lar de i en 2 gizli katmandan olu an ÇKA kullan lm t r. y Ç kt s ise yap n n özelliklerinden olu an modeli temsil eder.

ekil 3.1 YSA’ da gravite girdi ve ç kt gösterimi.

Farkl modellerden olu an e itim seti ÇKA yap s yla e itilerek e itim setinde bulunmayan farkl modellerle test edilmi tir. Arazi uygulamalar nda arazide gözlenen de erler test amac yla kullan lm t r. ÇKA çal ma ad mlar s ras yla a a da verilmektedir.

(43)

• Öncelikle girdi ve ç kt setleri belirlenir. Gravite uygulamas için *g ile gösterdi imiz gravite de erleri a m z n girdisi, bu gravite anomalisine neden olan yap n n parametrelerini gösteren model ise ç kt olarak seçilmi tir. Yap parametre modeli, yap n n derinli i, yo unluk fark ve bulundu u lokasyon bilgilerini içermektedir.

• A e itmek için gerekli olan parametreler, katmanlardaki nöron say s , gizli katman say s , ö renme ve momentum katsay lar ve istenilen hata de eri ile epok say lar sisteme verilir. Bu parametreler seçilirken belli bir kural yoktur. Deneme yan lma yoluyla problemimize en iyi sonucu veren parametreler bulunur. Sistemin e itilmesinde geri yay l m algoritmas kullan lm t r. Burada elde edilen ç kt de erleri a n gravite girdilerimize kar l k bize vermi oldu u ç kt lard r. E itim setinde vermi oldu umuz ç kt ile a n hesaplad ç kt aras ndaki hata hesaplan r. Öngörülen hassasiyet elde edilene kadar hata a n a rl k de erlerine da t l r ve bir sonraki a amada hatan n azalmas sa lan r. Geri yay l m a amas ile ilgili ba nt lar ve i lem a amalar Bölüm 1 de aç klanmaktad r.

leri besleme a amas : Bu a amada birinci katmandaki nöronlar n de eri

sisteme verilen giri lerle kar l k gelen a rl klar n çarp mlar n n toplam na e ittir. Nöron ç kt s aktivasyon fonsiyonundan geçirildikten sonra bir sonraki katmandaki nöronlara yine a rl klar yard m yla ba lan r ve de erleri ayn yöntemle hesaplan r. A a da giri katman için nöronlar n de eri

=

=

N j j ij

g

W

Net

1 (26)

ba nt s yla verilir. buradaki *g ifadesi N noktada ölçülmü yada hesaplanm gravite de erlerini, W girdi ile nöronlar aras ndaki a rl k de erlerini göstermektedir. Bu parametrelere ait ba nt lar Bölüm 1’ de 6 ve 7 e itlikleri ile tan mlanm t r. Böylece her nöron hücresine gelen girdilerin a rl klarla çarp m n n toplam ndan olu an net girdi hesaplanm olur. Bu i lem a da bulunun bütün nöron hücreleri için hesaplan r.

• Hesaplanan net girdi aktivasyon fonksiyonundan geçirilerek di er gizli katmandaki nöron hücresinin girdisi olu turulmu olur. Bu çal mada logaritmik sigmoid ve hiperbolik tanjant aktivasyon fonksiyonlar

(44)

kullan lm t r. Bu fonksiyonlar türevleri al nabilir olmas ve türev i leminin kolay hesaplanmas nedeniyle tercih edilmi tir. Aktivasyon fonksiyonlar n n matematiksel ifadesi Bölüm 1 de 1 ve 4 ba nt lar ile tan mlanmaktad r. Ç kt katman nda elde edilen de erler a m z n hesaplad ç k de erleridir. Ç k de erlerinin hesaplanmas yla ileri besleme a amas son bulur.

0 1000 2000 3000 4000 5000 6000 7000 8000 10-4 10-3 10-2 10-1 100 8047 Epochs T ra in in g-B lu e G oa l-B la ck Performance is 0.000999968, Goal is 0.001 0 1 2 3 4 5 6 x 104 10-4 10-3 10-2 10-1 100 60000 Epochs T ra in in g-B lu e G oa l-B la ck Performance is 0.00888912, Goal is 0.001 (a) (b)

ekil 3.2 YSA e itim e rileri.

A e itim süreci kullan c taraf ndan belirlenen hata de erine yada sisteme girilen epok (döngü) de erine ula ncaya kadar devam eder. ekil 3.2 (a) da görülen e itim e risinde sistem istenilen performans de erine 8047 epokta ula m ve girilen epok say s bitmeden e itim süreci sona ermi tir. ekil 3.2 (b) de görülen e itim e risinde ise sistem istenilen performans de erine ula amam ancak girilen epok say s na ula ld için e itim süreci sonlanm t r. E itim sürecinin bitmesiyle sisteme girilen test verileri sistemin performans n analiz etmek amac yla kullan l r.

3.1.1 Kuramsal Modeller

Yapay sinir a lar n n gravite yöntemindeki uygulanabilirli i öncelikle birbirinden farkl birçok kuramsal model üzerinde test edilmi tir. Olu turulan modeller ve uygulamalar a a da s ras yla verilmektedir.

(45)

3.1.1.1 Nokta Kütle ve Küre

Kütlesi m olan homojen bir kürenin d ndaki bir noktaya uygulad çekim kuvveti, kürenin merkezinde bulunan ve kütlesi m olan nokta kütlenin ayn noktaya uygulad kuvvete e ittir.

2 / 3 2 2 ) ( . . z x z m G g + = (27)

Ba nt da G=6.672.10-8 cm3/gsn2gravitasyon sabiti, m; yap n n kütlesi ve z; yap n n derinli i olarak verilmektedir.

(27) ba nt s kullan larak kuramsal gravite anomalileri olu turulmu tur. Bu anomaliler yapay sinir a lar yöntemi ile de erlendirilmi tir. Olu turulan anomaliler girdi, yap n n derinli i, yo unlu u, lokasyonu ve yar çap ç kt olacak ekilde olu turulan e itim seti ile a e itilmi tir. E itim setinin d nda kalan farkl modellerle a n performans test edilmi tir. E itimin setinde birbirinden farkl otuzbe model bulunmaktad r. Her modelde kürenin yar çap ve yo unlu u dolay s yla kütlesi, derinli i ve kürenin bulundu u yer farkl d r. Çe itli denemelerden sonra gizli katmanlar nda 30 ve 20 nöron bulunan ÇKA kullan lm t r. Ö renme ve momentum katsay lar 0,4 and 0,7 için en iyi sonuç elde edilmi tir. Test setinde modelin derinli i 17 m, yo unlu u ise 1,8 gr/cm3 olarak verilmi tir. ÇKA için elde edilen derinlik ve yo unluk sonuçlar 17 m ve 1.79 gr/cm3’ tür.

Ayn model RTFA ile de test edilmi tir. Bilindi i gibi RTFA tam dizayn için e itim seti hatas s f r olarak al n r. Test için derinlik ve yo unluk de erleri s ras yla 17 m ve 1,8 gr/cm3olarak saptanm t r. Elde edilen tüm sonuçlar ekil 3.3 ve Tablo 3.1 de görülmektedir.

(46)

ekil 3.3 Nokta kütle ve küre modeli için elde edilen yapay sinir a lar sonuçlar .

3.1.1.2 Nokta Kütle ve Küre Anomalisi Üzerinde Random Gürültünün Etkisi

Bir önceki kullan lan test verisi YSA’ n n gürültülü verilerdeki performans n test etmek amac yla %1, 5 ve 10 oranlar nda rastgele Gaussian gürültü eklenerek test edilmi tir. Eklenen de i ik orandaki gürültülü gravite anomalileri ekil 3.4 de görülmektedir. Önceki a amada kullan lan a n gizli katman ve katmanlarda bulunan nöron say lar ile ö renme ve momentum katsay lar bu a amada da ayn al nm t r. Her gürültü oran için ÇKA ve RTFA sonuçlar Tablo 3.1 de görülmektedir

(47)

ekil 3.4 Eklenen de i ik orandaki gürültüler.

Tablo 3.1 incelendi inde eklenen gürültünün oran artt kça elde edilen parametrelerdeki hata oran n n da artt gözlenmektedir.

Tablo 3.1 Kuramsal nokta kütle ve küre modeli için eklenen de i ik orandaki gürültülerin YSA sonuçlar .

Derinlik

(m) Yo unluk (gr/cm3) Yar çap (m) Lokasyon (m) Derinlik M. Hata Yo unluk Hata M.Hata Yar çap Lokasyon M. Hata

MODEL 17 1,8 3 50 - - - - Gürültüsüz 17 1,79 3,01 49,95 0 0,01 0,01 0,05 %1 Gürültülü 16,8 1,78 3,03 50,25 0,2 0,02 0,03 0,25 %5 Gürültülü 16,8 1,78 2,95 49,73 0,2 0,02 0,05 0,27 Ç K A % 10 Gürültülü 16,7 1,77 3,1 50,45 0,3 0,03 0,1 0,45 Gürültüsüz 17 1,8 3 50 0 0 0 0 %1 Gürültülü 17 1,79 3,03 50,3 0 0,01 0,03 0,3 %5 Gürültülü 17,1 1,78 3,05 50,4 0,1 0,02 0,05 0,4 R T F A % 10 Gürültülü 17,2 1,77 3,1 50,6 0,2 0,03 0,1 0,6

(48)

3.1.1.3 ki Boyutlu Kuramsal Modeller

Hki boyutlu kuramsal modeller olu turulurken bilinen bir geometriden yola ç karak meydana gelecek gravite anomalisi hesaplanm t r. Bu amaçla yer alt ekil 3.5 de görüldü ü gibi dikdörtgenlere bölünerek her dikdörtgene modelin geometrisine uygun yo unluk de erleri atanm t r. Yo unluk de erleri atan rken katmanlar aras yo unluk fark kuram na uyulmu tur.

ekil 3.5 Hki boyutlu model.

ekil 3.5 de görülen i noktas için gravite ba nt s ;

N i e v a g M j i j ij i , 1... 1 = + = = (28)

olarak verilmektedir. vj = j. blo un yo unlu u, ei= i.nokta ile ili kili gürültü; aij= j.blo un i. gravite de eri üzerindeki etkisini gösteren matris a a daki gibi ifade edilebilir.

(

)

[

/2 log( / ) log( / ) ( /2)( ) ( /2)( )

]

2 + 2 3 1 4 + 4 3 + 4 2 + 3 1 = G x x d r r rr d r r z h z h aij i j j j (29) 2 2 2 1 (z h/2) (x x d/2) r = j + i j + 2 2 2 2 (z h/2) (x x d/2) r = j + + i j + 2 2 2 3 (z h/2) (x x d/2) r = j + i j 2 2 2 4 (z h/2) (x x d/2) r = j + + i j (30) h d 1 xi N i j zj xj YER YÜZÜ

(49)

) 2 / /( ) 2 / arctan( 1 = xi xj +d zj h ) 2 / /( ) 2 / arctan( 2 = xi xj +d zj +h ) 2 / /( ) 2 / arctan( 3 = xi xj d zj h ) 2 / /( ) 2 / arctan( 4 = xi xj d zj +h (31)

G gravite sabitidir (Last ve Kubik, 1983).

3.1.1.3.1 Graben Modeli: Kuramsal graben modeli Last ve Kubik, 1983 te

oldu u gibi iki boyutlu modelin yatay ve dü ey dikdörtgen bloklara bölünmesiyle olu turulmu tur. Bloklar uygun jeoloji ve istenilen yap ekline göre farkl yo unluk de erlerine sahiptir. Derinli i, yo unluk fark , lokasyonu ve ekli farkl k rk de i ik model, a e itmek amac yla olu turulmu tur. Hesaplanan anomaliler girdi, model ise ç kt olacak ekilde a a sunulmu tur. Hlk katmanda 8 ikinci katmanda 5 nöron bulunan ÇKA en iyi sonucun elde edildi i yap olmu tur. Veriler [-1 1] aral nda normalize edilmi ve hiperbolik tanjant aktivasyon fonksiyonu kullan lm t r. Ö renme katsay s 0,5 momentum katsay s ise 0,9 olarak seçilmi tir. A test etmek amac yla olu turulan e itim seti d ndaki modelin yo unlu u ve derinli i s ras yla 2,3 gr/cm3ve 4 km’ dir. Bulunan sonuçlar ÇKA-GDM için 2,32 gr/cm3ve 4 km’dir. ÇKA-LM için ise 2,35 gr/cm3ve 4 km’ dir.

Ayn test verisi RTFA sonuçlar ise 2,33 gr/cm3ve 4 km dir. Olu turulan model ve yapay sinir a sonuçlar ekil 3.6 da görülmektedir.

(50)

ekil 3.6 Kuramsal graben modeli ve yapay sinir a sonuçlar .

3.1.1.3.2. Dayk Modeli: Kuramsal graben modelinde oldu u gibi yer alt

modeline uygun yo unluk fark na sahip 45 farkl model a e itmek amac yla olu turulmu tur. Modellerin yo unluk farklar , derinlikleri, lokasyonlar ve ekilleri birbirinden farkl d r. Birinci ve ikinci gizli katmanlar nda s ras yla 5 ve 3 nöron bulunan ÇKA kullan lm t r. Ö renme katsay s ve momentum katsay lar 0,4 ve 0,7 olarak seçilmi tir. Test verisinde yo unluk ve derinlik 2,6 gr/cm3 ve 3 km dir. ÇKA-LM için elde edilen yo unluk ve derinlik de erleri 2,58 gr/cm3 ve 3 km’ dir. ÇKA-GDM için ise elde edilen sonuçlar s ras yla 2,63 gr/cm3 ve 3 km dir.

(51)

Ayn test verisi için RTFA sonuçlar ise 2,63 gr/cm3 ve 3 km’ dir. Olu turulan model ve yapay sinir a lar sonuçlar ekil 3.7 de görülmektedir.

(52)

3.1.1.3.3.Basamak Modeli: Daha önceki a amalarda olu turulan kuramsal modellerde oldu u gibi yer alt modeline uygun yo unluk fark na sahip otuzsekiz farkl model a e itmek amac yla kullan lm t r. Modellerin yo unluk farklar , derinlikleri, lokasyonlar ve ekilleri birbirinden farkl d r. Birinci ve ikinci gizli katmanlar nda s ras yla 5 ve 3 nöron bulunan ÇKA kullan lm t r. Ö renme katsay s ve momentum katsay s s ras yla 0,4 ve 0,7 olarak seçilmi tir. Test verisinde modelin yo unlu u 2,65 gr/cm3, basama n üst ve alt bölümlerinin derinlikleri s ras yla 9 ve 11 km’dir. ÇKA GDM için elde edilen derinlik ve yo unluk de erleri 9-11 km ve 2,63 gr/cm3tür. ÇKA LM için sonuçlar ise derinlikler yakla k 10-11 km, yo unluk ise 2,64 gr/cm3 dir. Ayn modelin RTFA sonuçlar , yo unluk 2,63 gr/cm3 derinlik ise 10-11 km’ dir. Elde edilen tüm sonuçlar ve modeler ekil 3.8 de görülmektedir.

ekil 3.8 Kuramsal basamak modeli ve yapay sinir a sonuçlar .

Kuramsal modellerin tümü için elde edilen ÇKA ve RTFA sonuçlar Tablo 3.2 de verilmektedir.

(53)

Tablo 3.2 Kuramsal modeller ve yapay sinir a lar sonuçlar .

3.1.1.4 Kuramsal ki Farkl Yap dan Olu an Modeller

Modeller geometrik aç dan farkl graben, dayk ve küre gibi modellerin ikisinin birle iminden olu turulmu tur. E itim setinde lokasyonlar , yo unluk farklar , derinlikleri ve geometrik ekilleri farkl k rkbe model bulunmaktad r. Hesaplanan anomaliler girdi, model ç kt olacak ekilde a e itilmi tir. 8 ve 5 nörondan olu an, ö renme katsay s 0,4 momentum katsay s ise 0,9 olan ÇKA ve RTFA kullan lm t r. ÇKA LM ile dayk için derinlik ve yo unluk de erleri 4 km ve 2,82 gr/cm3, graben için de erler 4 km ve 2,18 gr/cm3 olarak saptanm t r. ÇKA GDM için dayk n derinlik ve yo unlu u 4 km ve 2,83 gr/cm3, grabenin ise 4 km ve 2,19 gr/cm3 olarak bulunmu tur. RTFA uygulamas nda dayk için derinlik ve yo unluk de erleri 4 km ve 2,78 gr/cm3, graben için ise 4 km ve 2,2 gr/cm3 olarak saptanm t r.

Derinlik

(km) Yo unluk (gr/cm3) Derinlik Mutlak Hata Yo unluk Mutlak Hata DAYK(MODEL) 3 2,6 - -ÇKA-LM 3 2,58 0 0,03 ÇKA-GDM 3 2,63 0 0,02 RTFA 3 2,63 0 0,03 GRABEN(MODEL) 4 2,3 - -ÇKA-LM 4 2,35 0 0,05 ÇKA-GDM 4 2,32 0 0,02 RTFA 4 2,33 0 0,03 BASAMAK(MODEL) 9-11 2,65 - - ÇKA-LM 10-11 2,64 1-0 0,01 ÇKA-GDM 9-11 2,63 0 0,02 Ç K A ve R T F A RTFA 10-11 2,63 1-0 0,02

(54)

ekil 3.9 Kuramsal model ve yapay sinir a sonuçlar .

3.1.1.5 Kuramsal ki Farkl Yap dan Olu an Modellerde Gürültünün Etkisi

Bir önceki a amada olu turulan e itim seti gürültü test verisinin YSA’ n n gravite uygulamalar ndaki etkisini incelemek amac yla kullan lm t r. E itim seti 45 modelden olu makta ayn test verisine %1, 5 ve 10 oranlar nda rastgele Gaussian gürültü eklenerek YSA’n n performans test edilmi tir. Eklenen de i ik orandaki gürültüler ekil 3.10 de görülmektedir.

(55)

ekil 3.10 Eklenen de i ik orandaki gürültüler

Gürültülü verilerin e itimi a amas nda 8 ve 5 nörondan olu an iki katmanl ÇKA yap s kullan lm t r. Ö renme ve momentum katsay lar 0,5 ve 0,9 olarak seçilmi tir. % 1 gürültü oran için ÇKA LM ve ÇKA GDM için Tablo 3.3 te görülen derinlik ve yo unluk de erleri elde edilmi tir. % 5 gürültü oran için ÇKA LM ve ÇKA GDM ile elde edilen derinlik ve yo unluk fark de erleri Tablo 3.3 te verilmektedir. % 10 gürültü eklenmi veri için ÇKA LM ve ÇKA GDM için elde edilen derinlik ve yo unluk de erleri Tablo 3.3 te verilmektedir. Ayr ca RTFA ayn veri setine uygulanm ve elde edilen derinlik ve yo unluk fark de erleri Tablo 3.3 te görülmektedir.

(56)

Tablo 3.3 Eklenen de i ik orandaki gürültüler için yapay sinir a lar ile elde edilen sonuçlar.

Tablo 3.3 incelendi inde gürültü oran artt kça elde edilen derinlik ve yo unluk de erlerindeki hata oran n n da artt görülmektedir. Gürültü oranlar na göre mutlak hata de erleri derinlikler için 0 ve 0,5 yo unluklar için ise 0,02-0,06 aras nda de i mektedir.

Derinlik

(km) Yo unluk (gr/cm3) Derinlik Mutlak Hata Yo unluk Mutlak Hata DAYK 4 2,8 - -Gürültüsüz 4 2,82 0 0,02 %1 Gürültülü 4 2,83 0 0,03 %5 Gürültülü 4 2,84 0 0,04 % 10 Gürültülü 4,5 2,86 0,5 0,06 GRABEN 4 2,2 - -Gürültüsüz 4 2,18 0 0,02 %1 Gürültülü 4 2,17 0 0,03 %5 Gürültülü 4 2,17 0 0,03 Ç K A % 10 Gürültülü 3,5 2,15 0,5 0,05 DAYK 4 2,8 - -Gürültüsüz 4 2,78 0 0,02 %1 Gürültülü 4 2,82 0 0,02 %5 Gürültülü 4 2,83 0 0,03 % 10 Gürültülü 4,5 2,75 0,5 0,05 GRABEN 4 2,2 - -Gürültüsüz 4 2,2 0 0 %1 Gürültülü 4 2,17 0 0,03 %5 Gürültülü 4 2,17 0 0,03 R T F A % 10 Gürültülü 3,5 2,15 0,5 0,05

(57)

3.1.2 Yapay Sinir A lar n n Jeofizik Verilere Uygulanmas

Çal ma alan olan Bat Türkiye Bouguer gravite verileri (Maden Tetkik ve Arama (MTA), 1979) ve sismoloji katalog verileri (Bo aziçi Üniversitesi Kandilli Rasathanesi ve TC Bay nd rl k ve Hskan Bakanl Afet H leri Genel Müdürlü ü Deprem Ara t rma Dairesi) Yapay sinir a lar ile de erlendirilmi tir. Bölgenin en temel karakteristik özelli i olan grabenler üzerinden al nan gravite kesitleri ÇKA ve RTFA ile yorumlanarak tortul kal nl ve yo unluk fark elde edilmi tir. Sismolojik katalog verileri ayl k deprem frekanslar derlenerek ÇKA ve RTFA ile de erlendirilip deprem ayl k olu say lar n n ön kestirimi yap lm t r.

3.1.2.1 Bat Türkiye’nin Tektoni3i

Bat Türkiye’nin aktif tektoni i, Anadolu'nun sa yanal Kuzey Anadolu (KAF) ve sol yanal Do u Anadolu (DAF) do rultu at ml fay zonlar boyunca bat ya kaç , Yunanistan' n bat s ndaki k tasal kal nla madan dolay Anadolu'nun bat ya kaç n n engellenmesi kuzey ve orta Ege bölgesinde do u-bat s k man n meydana gelmesi ve bunun sonucunda Bat Anadolu'nun saatin tersi yönünde dönerek güneybat yönünde Hellenik yay n üzerine do ru hareketiyle aç klanmaktad r. (Dewey ve

engör, 1979; Le Pichon ve Angelier, 1979, 1981; McClusky ve di er., 2000 McKenzie, 1972, 1978; engör ve di er., 1985). Bölgenin güncel tektoni ini kontrol eden ana yap lar ekil 3.11 de görülmektedir.

Bölgedeki D-B yönlü s k ma sonucu yakla k K-G yönlü geni leme tektoni i meydana gelmektedir. Geni lemenin olu umu konusunda üç farkl görü öne sürülmektedir.

(58)

ekil 3.11 Bat Anadolunun güncel tektoni ini kontrol eden ana yap lar (Okay ve di er., 2000).

Tektonik Kaç : Bu görü e göre Anadolu levhas geç Serravalian zaman

boyunca Arap ve Avrasya levhalar n n çarp mas n n etkisiyle geli en Do u Anadolu ve Kuzey Anadolu faylar boyunca bat ya do ru hareket etmi tir. Anadolu levhas n n B-GB yönlü tektonik kaç , Bat Anadolu’ da aç lma tektoni i ile aç klanan horst-graben yap lar n n geli mesine neden olmu tur (Dewey ve engör, 1979; engör, 1979, 1980, 1987; engör ve di er., 1985).

Yay ard geni leme: Bu geni leme görü üne göre Hellenik Trenc sisteminin

G-GB yönlü hareketi, yay ard geni lemeye ve horst-graben sisteminin olu mas na neden olmu tur (LePichon ve Angelier, 1979; Meulenkamp ve di er., 1988).

Orojenik Çökme: Da ku aklar n n kendi a rl klar nedeniyle yanal olarak

yay lmas ve çökmesidir. (Dewey, 1988; Seyito lu ve Scott, 1992, 1996).

Epizodik Grabenle me Modeli: iki evreli graben olu um modelidir. Bu

modele göre Bat Anadolu’ daki grabenle me iki farkl çekme tektoni i rejimi alt nda geli mi tir. Miyosen- erken Pliyosen ilk evre orojenik çökme

Referanslar

Benzer Belgeler

Spesifik (özgül) ağırlık: o maddenin belli sıcaklıktaki ve hacimdeki ağırlığının yine aynı sıcaklık ve hacimdeki suyun ağırlığına oranıdır. Tartım vakumda

TABLOLAR LİSTESİ ... GÖRÜNTÜ İŞLEME VE ÖZELLİK ÇIKARIMI ... Biyometrik Kimlik Tanıma ... Görüntünün oluşturulması ... Görüntüyü sayısallaştırma ...

%81 civarında etkilemektedir.. Bina taban alanını içine alan dikdörtgenin boyutu bilgisinin eksik olduğu ve işlem elemanı değeri olarak sıfır girilen

Çalışmada, yapay sinir ağının en sık kullanılan modeli olan Çok Katmanlı Algılayıcı (ÇKA), derin öğrenme metodu olarak yeni geliştirilen Uzun Kısa Süreli Bellek

Benlik-alg›s› boyutlar› ile benlik-kurgusu temel boyutlar›n›n kutuplar› dikkate al›narak aralar›ndaki örüntüye ayr›nt›l› olarak bak›ld›¤›nda, bireysel

Yetişkin dokularının bakımı ve onarımındaki döngü genellikle kendi kendini yenileme yeteneğine sahip olan yetişkin kök hücreler olarak adlandırılan küçük bir

ÇeĢitlerin tümünde tane protein oranları artan azot dozlarına bağlı olarak artıĢ göstermiĢ ancak cycocel dozlarının artması protein oranlarının önemli

Sa¤l›kl› hasta yak›nlar›nda HLA klas I antijenlerinden A26, A28, B57, B62, HLA klas II antijenlerinden DR14,DR4,DQ1 anlaml› derecede yüksek HLA-A29, A30, HLA-DR3, DR11,