• Sonuç bulunamadı

bir katsaydr. Bu formül do§ru olursa çkt 1, yanl³ ise çkt 0 olur. Orjinal alglayc e§itim sürecinde, bir snandrma e§itimi için, özellik vektörü pe³ pe³e i³leme sokulur. E§er belli bir e³ik de§erinin üzerinde bir hata olu³ursa, a§rlklar güncellenir. Yapay Sinir A§lar 4.6 nolu ³ekilde görüldü§ü gibi birden çok alglayclar iç içe kullanr.

Ancak orjinal algoritma e§er veri do§rusal bir ³ekilde ayrlmaya uygunsa ba³arl bir sonuca ula³r. E§er verinin do§rusal olmayan bir karakteri var ise, di§er bir alglayc olan voted perceptron kullanlabilir. Bu algoritma orjinal süreçte olu³an tüm a§rlklandrmalar kullanarak tahminde bulunmaya çal³r. Bunu herbir a§rlklandrma vektörünün kaç e§itim örne§ini do§ru bir ³ekilde snandrd§n bellekte tutarak ba³arabilir.

4.4.3 Sonuçlar

Ele alnan bu be³ algoritma, önceki bölümlerde bahsedildi§i gibi derlem üzerine uygulanm³tr. Her bir algoritmann farkl ifade gücüne sahip iki farkl snand- rcs kullanld. Bu deneyde kullanlan parametreler 4.7 nolu tablodaki gibidir. Bu tablodaki ayar isimleri WEKA programnda kullanld§ gibi verilmi³tir.

Bu be³ algoritmann iki farkl snandrcsn uygulanmas sonucu ortaya çkan sonuçlar 4.8 nolu tablodaki gibidir.

Tablo 4.7: Algoritma ve Parametreleri Algoritma Parametreler

IBk No Distance Weighting Use Euclidean Distance Naïve Bayes No Supervised Discretization

J48 Condence Factor: 0.25 No Reduced Error Prunning Use Subtree Raising On Pruning No Laplace-based Smoothing

Do not Force Binary Split on Nominal Attributes Voted Perceptron Maximum Number of Alternation:10000

C-SVC Cost: 1.0

Gamma: 1/maxindex

No Normalization

Tablo 4.8: Snandrclarn Sonuçlar

No Snandrc Parametre De§i³ikli§i Snandrma Sonuçlar

Do§ruluk Precision Recall F-Ölçütü Kappa

Baseline / Dayanak-1 Ço§unluk tabanl 67.3 - - - 0

Baseline / Dayanak-2 Snf Da§lm tabanl 55.2 31.5 31.5 31.5 0

Baseline / Dayanak-3 En Yakn Aday - - 46.7 - -

1 IBk k=1 0.75 0.60 0.76 0.67 0.4792

2 C-SVC Do§rusal Çekirdek 0.77 0.66 0.62 0.64 0.4736

3 Naïve Bayes Normal Da§lm 0.78 0.65 0.71 0.68 0.5202

4 J48 boosted ve budamasz 0.77 0.64 0.70 0.67 0.4968

5 Voted Perceptron üs= 1 0.79 0.71 0.65 0.68 0.5155

6 Naïve Bayes kernel estimator 0.80 0.69 0.71 0.70 0.5402

7 IBk k=11 0.80 0.67 0.76 0.72 0.5534

8 J48 Budamal 0.81 0.71 0.71 0.71 0.5712

9 Voted Perceptron Üst= 2 0.81 0.72 0.70 0.71 0.5739

10 C-SVC Radyal Tabanl Çekirdek 0.82 0.73 0.74 0.74 0.6017

bahsedilebilir. Tablodaki Do§ruluk oran (Accuracy)

(T P + T N )

(T P + T N + F N + F P ) (4.23)

T P

(T P + F P ) (4.24)

formülüyle, anma (recall)

T P

(T P + F N ) (4.25)

formülüyle ve F-ölçütü

(2 ∗ kesinlik ∗ anma)

kesinlik + anma (4.26)

formülüyle hesaplanr. Bu formüllerde geçen TP, TN, FP, ve FN ifadeleri 4.9 nolu tabloya göre açklanabilir.

Tablo 4.9: Kar³klk Matrisi Tahmin Pozitif Negatif

Gerçek pozitif TP FN

Negatif FP TN

Çal³ma alannda varolan bir ö§eye var dendi§inde ya da gerçekte do§ru olan bir ³eyi tasarlanan sistem de do§ru olarak tahmin etmi³ ise bu durum TP (True Pozitif) olarak ifade edilir. Gerçekte do§ru olan bir ³ey yanl³ olarak tahmin edilirse bu FN (False Negative) olarak ifade edilir. Gerçekte yanl³ olan bir ³eyin do§ru oldu§u söylenirse, bu durum FP (False Pozitive) olarak ifade

edilir. Son olarak gerçekte yanl³ olan bir duruma sistem yanl³ derse, bu durum TN (True Negative) olarak isimlendirilir.

“imdi bu performans de§erlendirme ölçümlerinin artgönderim çözümlemesi için ne ifade etti§ine baklacak.

Do§ruluk (Accuracy),

Sistem tarafndan do§ru tahmin edilmi³ tüm durumlar

Sistemdeki tüm durumlar (4.27)

formülüyle, kesinlik (Precision)

Sistem tarafndan do§ru ³ekilde çözülmü³ artgönderim ili³kileri

Sistem tarafndan ifade dilmi³ toplam artgönderim ili³kiler (4.28)

formülüyle ve anma (Recall) ise

Sistem tarafndan do§ru ³ekilde çözülmü³ artgönderim ili³kileri

Derlemde bulunan toplan artgönderimsel ili³kiler (4.29)

formülüyle hesaplanr edilebilir.

4.8 nolu tablodaki de§erlere bakld§nda, tüm sonuçlar belli bir aralkta ve birbirine yakndr. Çok net bir ³ekilde belli algoritmalarn di§erlerine göre daha ba³arl oldu§u söylenemez. Ancak yine de snandrclar, genel performanslar açsndan de§erlendirildi§inde olumlu bir sonuç oldu§u söylenebilir. En azndan bu alanda yaplm³ di§er çal³malarla kyasland§nda bu daha net söylenebilir. Bunun söylenmesindeki en önemli dayanak ise, tabloda da gösterilen ilk üç daya- nak algoritmalardr. Dayanak (baseline) algoritmalar elde edilen sonuç için bir temel olu³turur. Bu algoritmalar ile önerilen algoritma kyaslanr ve ortaya bir ba³ar oran çkar. Bu çal³madaki deneyde üç dayanak algoritmas kullanld: Ço§unluk tabanl, Snf da§lm tabal ve en yakn aday. Birinci dayanak algorit-

mas, ço§unluk tabanl algoritma, tüm yeni örneklere e§itim kümesinde baskn olan snf atar. Bu tez çal³mas alannda baskn snf de§eri hayr etiketlidir. Yani iki ö§e arasnda bir ili³ki var m sorusunun cevab hep hayrdr. kinci dayanak algoritmas Snf Da§lm üzerine kuruludur. Test kümesindeki snf- landrlacak yeni örneklere yaplacak rastgele snf etiketlerinin da§lm e§itim kümesindeki da§lmla ayn tutulur. Üçüncü dayanak algoritmas söz konusu adldan önceki en yakn aday öncül olarak kabul eder. Buradaki yöntem ba- sit bir ilkeyi temel alr. Artgönderimler onlardan önce gelen ve en yakn ö§eye gönderimde bulunmaya e§ilimlidirler. Yaplan çal³malarn bu dayanak algo- ritmalarndan ne kadar ba³arl oldu§u önemlidir. Bunlardan birine yakn bir sonuç veren sistemin bir yatarcl§ yoktur. Çünkü basit bir bilgi ile kurulmu³ dayanak algoritmalaryla ayn sonucu vermesi istenilen bir durum de§ildir.

Bu noktada rahatlkla belirtilmesi gereken bir nokta ³udur: Bu çal³mada sununal modeller ve kullanlan makine ö§renme algoritmalar, bu dayanak al- goritmalardan çok daha iyi bir performans göstermi³tir. Bu performans daha iyi ifade etmek için makine ö§renmesi modeliyle dayanak algoritmas arasndaki farka baklabilir.

Ele alnan ve uygulanan di§er bir yöntem Kappa statisti§idir. Tablo 4.8'de sunulan sonuçlarda bu istatistiksel bilgi mevcuttur. Kappa istatisti§i, snandrclarn performansn bir temel çerçevesinde ölçmek için kullanlan alternatif bir yöntemdir. Ölçüm formülü

K = P0− Pc (1 − Pc)

(4.30)

ifadesi kararn rastgele verilmesiyle ortaya çkan ba³ar orandr. Bu formül- den de anla³ld§ gibi bu istatistiksel ölçüm de§eri -1 ile 1 arasnda yer alr. -1 tümüyle kötü bir sistemi, +1 ise tamamen ba³arl bir sistemi ifade eder. [Landis ve Koch, 1977]'e göre Kappa de§erinin 0.4'ten büyük olmas o sitemin ³ansn ötesinde makul bir ba³ar gösterdi§ini anlamna gelir. 4.8 nolu tablodaki Kappa sonuçlar çal³mada denenen yakla³mlarn rastgele snandrclardan çok daha iyi oldu§unu ifade ediyor.

Her ne kadar ö§renme algoritmalarnn sonuçlar rastgele snandrclarn- dan ba³ar olsa da, problemin çözümüne ili³kin de§erlendirmede tam anlamyla ba³arl saylmaz. [Ho vd., 2006] bunun sebebine ili³kin üç olas etkenden bah- seder:

1. Algoritmadan kaynakl eksiklik 2. Verideki içkin zorluklar

3. Metod ile problemin uyu³mamas

“imdi bu üç ba³lkl çerçevede problem tart³lacak. Tablo 4.8'de sunulan sonuçlara bakld§nda belli bir algoritmann daha ba³arl oldu§u söylenemez. Ayn algoritma de§i³ik parametrelerle de§i³ik sonuçlar üretebiliyor. lk be³ sra- lamada do§rusal çekirdekli C-SVC neredeyse en kötü ba³arya sahip olmasna kar³n, ikinci be³lide radyal çekirdekli C-SVC en iyi ba³arya sahiptir. Sonuç olarak artgönderim problemi için ba³arl olabilecek evrensel bir algoritmadan bahsedilmesi mümkün de§il. Bu de§erlendirme kural tabanl yöntemler içinde söylenebilir.

Bir di§er zorluk ise verideki ya da derlemdeki zorluklardr. Artgönderim problemi için bakt§mzda bu durumu a³a§daki söylemle örneklemek müm- kündür.

Ayse Hasan'a yardm etti. Çünkü Onun yardma ihtiyac vard. (4.31)

Yukardaki örnekte Onun ifadesi Ayse'ye mi yoksa Hasan öncülüne mi gönde- rimde bulunacak ? Merkezleme kuramnn yakla³m ele alnd§nda Özne nes- neye tercih edilecektir. Dolays ile Ayse öncülü seçilecektir. Ancak normal bir okumada Hasan öncülü daha do§ru gözükmektedir. Bu çkarma ula³mak için belki de anlambilimsel yöntemler kullanlmas gerekiyor. ³te Artgönderim prob- lemine dair buna benzer birçok örnek vardr. Bu tip örnekler mu§laklk (ambi- guity) olarak niteleniyor Tüm bu örnekler burada sralanmayacak. Öte yandan Türkçe için cinsiyet kodu bir dezavantaj ol³turmaktadr. Yukardaki örnek n- gilizce için mu§laklk yaratmazd. Çünkü Ayse ve Hasan farkl ³ekilde cinsiyet kodlamal adllarla ifade edileceklerdi. Örne§in his ya da her adl kullanlrd ve bir mu§laklktan bahsedilmezdi.

Artgönderim problemindeki bir di§er önemli husus adllar için elemeler so- nunda kalan öncül saysdr. E§er eleme sonucu sadece bir aday kalm³sa bu problemin çözümü kolaydr. Dolaysyla veritabannda ya da derlemde kaç ad- ln elemeler sonunda tek bir adaynn kald§ çok önemlidir. Bu oran yüksekse söz konusu verinin karma³kl§ oldukça dü³üktür. Bu tez çal³masndaki der- lemde bu oran % 3.1'dir ve bu anlamda çal³lan derlem karma³ktr.

Snandrclarn performansn etkilyecek bir di§er ö§e ise verinin da§nk- l§ veya yetersizli§idir (sparsity). Veri e§er yeterli miktarda örne§e sahip de§ilse, snandrclar genel bir kural olu³turma yeteneklerini kaybederler. Yani bir ge- nelleme yapmak için belli sayda örne§e ihtiyac duyarlar. Bu hassasiyeti ölçmek için yaplan deneyde, veri 1100 örnek kalncaya kadar de§i³tirildi§inde f-ölçütü %60 de§erinden %73'e çkyor. Ve bundan sonra bir doyum yakalyor ve doyum

noktasnda sabit kalyor.

Bir di§er etken ise problem ile bu probleme uygulanan metod arasndaki uyu³mazlktr. Bu tez çal³masna yönelik olarak 4.8 nolu tabloda gösterilen C- SVC, Voted Perceptron ve Naïve Bayes snandrclar ele alnabilir. Bu algo- ritmalar için uygulanan parametrelerdeki do§rusal ve do§rusal olmayan seçimler üzerinden bir yorum yaplabilir. C-SVC ile alnan en kötü sonuç bu yöntem için uygulanan do§rusal formüldür. Bu formül a³a§daki 4.32 nolu formüldür.

f (x) = (wTx) + b (4.32)

En iyi sonuç ise radyal tabanl kullanlan a³a§daki 4.33 nolu formüldür.

k(x, x) = exp(k x − x k)

2

2σ2 (4.33)

Weka yazlmndaki Voted Perceptron için kullanlan a³a§daki 4.34 nolu formüldeki

k(x, x0) = (x.x0 + 1)d (4.34)

d de§eri 1 seçildi§inde do§rusal bir çekirdek, daha büyük seçildi§inde do§- rusal olmayan bir çekirdek kullanm³ oluruz. Bu algoritmada yine do§rusal ol- mayan çekirdek kullanld§nda ba³ar oran artm³tr. Benzer bir özelli§i Naïve Bayes için söyleyebiliriz. Bu algoritma normal da§lm ile uyguland§nda do§-

rusal bir snandrc ve çekirdek yo§unluk tahmini (kernel density estimator) kullanld§nda do§rusal olmayan bir snandrc snfna dahil olur. Bu örnekte de di§er örneklerde oldu§u gibi do§rusal olmayan ayarlar çerçevesinde artgön- derim sistemi biraz daha ba³arl olmu³tur. Yukardaki gözlemler veritabannn ya da derlemdeki gönderimsel ili³kilerin do§rusal bir ³ekilde de§ilde do§rusal olmayan bir biçimde olu³tu§u sonucunu verir. Ve bu nedenle do§rusal olmayan yöntemlerin daha iyi sonuç vermesi ola§andr.

A³r Uyum (Overtting) ve Yetersiz Uyum (Undertting)

Makine Ö§renmesi ve istatistik alanndaki en önemli sorulardan biri A³r Uyum ve Yetersiz Uyum ikili§idir. Üretilen modelin kendisini olu³turan veriye a³r bir ³ekilde ba§ml olmas ve genellikten uzakla³mas A³r Uyuma yol açar. Veri içinde birçok istisna barndrr ve ayn ³ekilde çe³itli gürültüler içerebilir. Yani ele alnan veri birçok tutarszl§n birlikte getirir. çinde hatal veriler barndrr. Verinin bütününe ula³maya ve onu modellemeye çal³mak yeni olu³acak verileri anlamay zorla³trr. Bu olguya veri madencili§i alannda ngilizce'de overt- ting denir. Tükçe için yaygn bir kar³l§ olmasa da bu kavram a³r uyum olarak çevrilebilir. 4.7 nolu ³ekildeki e§riler ö§renme sürecindeki hata e§rileridir. Üstteki e§ri sa§lama ya da test kümesinin hata durumunu ifade ederken, alttaki e§ri e§itim kümesine ili³kindir. Bu grakteki e§itim kümesinde hatann belli bir etkene göre azald§ görülür. Bu etkenin ne oldu§u bu tart³ma açsndan ³imdi- lik önemli de§ildir. Sadece yaratlan modelin e§itim kümesi üzerindeki hatasnn belli bir etken sebebiyle azald§n dü³ünülsün. Bu azalmaya sa§lama/test kü- mesi de belli bir noktaya kadar e³lik eder ve bu noktadan itibaren sa§lama kümesindeki azalma durur ve artmaya ba³lar. ³te bu durma ve artma noktas- nn sonras çal³mann A³r Uyum (overtting) oldu§u bölgeyi ifade eder.