• Sonuç bulunamadı

Bu örnekte görüldü§ü gibi kendi dönü³lü adlndan, onu yöneten NP 1_loc dü§ümüne geçiliyor. Ardindan VP1 ve S1 dü§ümleri takip edilerek Mr. Smith öncülüne ula³lyor. Bu a³amada program do§ru çal³yor. Ancak bu tümcedeki kendi dönü³lü adl yerine, onun açk adl olsayd bu algoritmann çözümü yanl³ olacakt. Bunu için ba³ka bir kural olu³turmak gerekiyor. Bu konu bah- setti§imiz çal³malarda ayrntl bir ³ekilde tart³lm³tr.

3.2.2 Merkezleme Teorisi ve Algoritmas (Centering Te-

ory)

Bu kuramn arkaplan bölüm 2.3.4'de verilmi³tir. Bu bölümde de belirtildi§i gibi her söylem bir dizi tümceden olu³ur. Her tümce daha sonraki adllar için öncül olabilecek bir dizi söylem varl§na sahiptir. Bu söylem varlklar belli bir sralama yöntemine göre sralanr ve ileriye dönük merkez (Mi) listesini

olu³turur. Bu ileriye dönük merkez listesi söylem boyunca sürekli güncellenir ve sralama de§i³ir. Bu liste yeni bir listeyle de§i³ecektir. Dolaysyla Mi ba³ka

olacaktr. Mi listesindeki en belirgin ö§e ya da ilk adln olas öncülü olabilecek

söylem varl§ o listenin oda§ olacak ve Mo olarak ifade edilecektir.

3.2.3 BFP

Merkezleme Algoritmalarndan en önemlisi [Brennan vd., 1987] tarafndan ta- sarlanan BFP algoritmasdr. Algoritma, verili bir adln çözümlenmesi için, süzme a³amasnda aday öncülleri biçimbilgisel kstlarla (cinsiyet, say, ki³i uyumu gibi) sözdizimsel kstlar(ba§lama kstlar gibi) kullanarak eler. Ardndan aday öncüllerin sralanmas merkezleme teorisi ilkeleriyle yaplr.

Ancak daha sonra yaplan çal³malar Merkezleme Algoritmasnn açklarn ya da eksiklerini tamamlamaya çal³m³tr. Merkezleme Teorisi sadece yerel söy- lem alannda bir çözüm arar ve verilen bir gönderge ya da adl için yerel söylemin d³na çkmaz. Ama gerçek uygulamalarda yerel söylem d³na gönderimde bulu- nan göndergeler mevcut oldu§undan bu aç§ kapamaya yönelik ba³ka çal³malar da olmu³tur. Bir di§er problem ise her bir göndergenin gönderimi için bir önceki tümce analiz edilir. Bu da teorik olarak sorun olmasa da pratik uygulamalarda bir sorun olarak görülmektedir. Çünkü bir adl iki tümce öncesine gönderimde bulunabilir. Ayn zamanda sralama yöntemi de yeterince belirgin olmad§ndan baz varlklar ayn sraya sahip olabilmektedir.

Merkezleme Kuram dikkat oda§ndaki de§i³imleri ve dönü³ümleri de ince- lemektedir. Söylemdeki merkezde meydana gelen de§i³iklikler devam, içerme, yumu³ak-dönü³ ve sert-dönü³ olmak üzere dört ³ekilde ifade edilmektedir.

[Brennan vd., 1987] bu geçi³leri 3.1 nolu tablodaki gibi açklam³tr.

Bu merkezleme geçi³leri söylem varlklarnn belirginlik derecelerine göre s- ralanr. Merkezdeki her türlü de§i³iklik bu geçi³lerle ifade edilmi³tir. Merkezleme

Tablo 3.1: Merkezdeki De§i³iklikler

Mg(Tn)=Mg(Tn-1) Mg(Tn)!=Mg(Tn-1)

Mg(Tn)=Mo(Tn) Devam Yumu³ak Dönü³

Mg(Tn)!=Mo(Tn) çerme Sert Dönü³

Teorisine göre söylem bu geçi³lerden bazlarn daha çok tercih eder. Mesele De- vam geçi³i ilk tercihtir. Devam geçi³i iki önceki ve bir önceki tümcede merkezde yer alan ö§renin yine merkezde olmas durumudur. Yani merkezin de§i³memesi söylem yapsnn ilk tercihidir. Bu anlamda teoriye göre söylemler merkezleri- nin fazla de§i³memesini tercih eder. Dolaysyla bu geçi³leri belli bir öncelikle sralamak gerekiyor.

Devam >çerme > Yumu³ak-dönü³ > Sert-Dönü³ (3.4)

Söylemdeki adllarn gönderimsel ili³kileri çözümlenirken bu sralamadan ya- rarlanlr. Tümcedeki adllar aday öncüllerle birçok biçimde e³le³ebilir. Bu e³le³- meler farkl senaryolar olu³turur. Bu farkl senaryolar ise farkl geçi³ durumla- rna denk gelir. Bu a³amada hangi geçi³in seçilece§i i³te yukardaki sralamaya göre seçilir. Yani Devam geçi³i çerme geçi³ine tercih edilir. Benzer bir ³ekilde çerme Yumu³ak Dönü³e, Yumu³ak Dönü³ Sert-dönü³e tercih edilir. Bu tercih yapldktan sonra hangi adln hangi öncüle gönderimde bulundu§u ortaya çkar. Bu da Merkezleme Algoritmasnn çözümü olmu³ olur. Bu algoritmann adm adm bir örne§i izleyen bölümlerde verilecektir.

3.2.4 Lappin ve Leass'in Sözdizim Tabanl Yakla³m

[Lappin ve Leass, 1994] belirginlik temelli ve sözdizimsel kstlar ve kurallar içe- ren bir yöntem sunar. Bu yöntemde herhangi anlambilimsel ve edimsel kst bu- lunmaz. Sunulan yakla³m sadece biçimbilimsel ve sözdizimsel kstlar uygular. Yöntemin temel yakla³m aday öncüllere biçimbilimsel ve sözdizimsel özellik- lerine bakarak belli puanlar(scoring) vermesidir. Her bir öncül toplad§ puana göre sralanr ve en çok puan toplayan öncül verilen adln ya da göndergenin öncülü olarak sisteme önerilir. Toplanan bu puan o öncülünün söylem içindeki belirginli§ini (salient) ifade eder. Dolaysyla bu teorinin sadece do§rusal bir yakla³m vardr.

Tüm söylem varlklarna ya da gönderimsel ifadelere bu belirginlik a§rlk- landrlmas uygulanr. Ve her söylem varl§nn puan hesaplanr. Ancak bu puan ele alnan adla göre belirlenir. Her söylem varl§nn adldan ba§msz pu- an olmaz. Ele alnan adl ile olan uyumu en büyük etkendir. Örnek olarak adl ile öncülün tümce yaknl§ önemli bir etkendir. Ayn zamanda adl ile say/ki³i ve cinsiyet uyumu da bir di§er önemli etkendir. Ancak yine de her ö§enin ele alnan adldan ba§msz özellikleri bulunur. Örne§in ele alnan öncülün dilbigisel görevi (özne, nesne vb.) a§rlklandrmay etkileyen güçlü bir bilgidir ve bu bilgi adldan ba§mszdr.

“imdi hangi etken için ne gibi bir a§rlklandrma yaplaca§na baklacak. [Lappin ve Leass, 1994] Tablo 3.2 içindeki a§rlk de§erlerini kendi modelle- rinde uygulam³tr.

Gönderimi çözümlenecek adl ile aday öncül arasndaki uzaklk en çok bir tümce kadarsa, öncülün belirginlik de§erine 100 puan eklenir. E§er öncül özne pozisyonundaysa 80 puan eklenir. Öncül varolu³sal pozisyonunda 4 ise 70, be-

Tablo 3.2: Belirgenlik Türleri ve A§rlklar

Etkenin Türü A§rl§

Tümce Yaknl§ 100

Özne Olma Durumu 80

Varolu³sal Vurgusu (Exis-

tential Nominal) 70

Belirtme Durumu (Accusa-

tive Case) 50

Dolayl Nesneler (Indirect

Object) 40

Ba³ Ad Öbe§i Vurgusu

(Head Noun Emphasis) 80 Belirteç Öbe§inde olmama

vurgusu (Non-adverbial Emphasis)

50

lirtme durumuna sahipse 50, dolayl nesne ise 40, ba³ ad öbe§i5 ise 80 ve Belirteç

öbe§inde ise 50 puan eklenir. Bu a§rlklandrma tablosu kullanlarak rastgele seçilen yakla³k 360 adl üzerinde algoritma snand. Bu snama sonucunda % 86 orannda bir ba³ar kaydedildi.

3.2.5 Kennedy ve Boguraev'in Yöntemi

[Kennedy ve Boguraev, 1996] RAP alogritmasnn de§i³tirilmi³ bir versiyonunu sundular. Bu çal³mada kullandklar sistem, ayr³trma a§acna (parse tree) ih- tiyaç duymuyor. Bu yöntemde dilbilgisel görevler (Grammatical Role) yerine sadece sözdizimsel bilgiye göre, verilen bir adln aday öncülleri puanlanr ve s- ralanr. Bu özelli§i ile RAP algoritmasndan daha avantajl bir noktada duruyor. Çünkü gerçek sistemlerde mümkün oldu§u kadar az bilgi kullanarak tasarlanan

öbekleri için ayrca bir a§rlk de§eri eklenir. Çünkü bu yapda bulunan ad öbekleri söylemde vurgulanrlar. Örnek olarak "There are some books on the table" ifadesindeki some books ad öbe§i varolu³sal vurgusu içerir.

5Öncül söyleme ilk ad öbe§i olarak dahil olmu³sa o öncülü ödüllendiriyoruz. Örne§in "Ah-

met birden uyand..." ile ba³layan bir söylemde daha sonra her Ahmet öncülü için ba³ ad öbe§i vurgusu yaplacaktr.

modeller her zaman çok daha etkili ve pratik oluyorlar. Bilgiye ba§mll§n en aza indirilmesi son zamanlardaki çal³malar için önem verilen bir noktadr. Bi- çimbirimsel analiz yapan LINGSOFT isimli modelden gelen bilgileri kullanan bu yakla³m, RAP alogritmasnda oldu§u gibi belirginlik a§rlklandrmas içerir. Magazin dergilerinden, ürün tantmlarndan ve gazete haberlerinden olu³turu- lan derlem üzerinde test edilen algoritma 306 adl için uyguland ve % 75 gibi bir ba³ar elde etti.

3.2.6 Baldwin's Cogniac

[Baldwin, 1997] az bilgili ve bir takm kurallardan olu³an bir model sundu. Bu kurallar srayla adllar üzerinde uygulanr. Bu kurallar önemleri ve artgönderim çözümüyle olan ili³kilerine baklarak sralanr. Adla ili³kin uygun bir kural sa§- land§nda süreç tamamlanr ve sonuca varlr. Dolaysyla kurallarn sras çok önemlidir.

Bu yöntemde uygulanan kurallar ve bu kurallarn ne gibi bir ba³ar sa§la- d§n a³a§daki ³ekilde sralayalm:

1. Söylemde Teklik (Unique in Discourse): E§er sadece bir aday öncül varsa onu adln öncülü olarak seç. Bu kural 8 kere do§ru sonuç verdi.

2. Dönü³lü (Reexive): E§er adl dönü³lü ise tümcedeki en yakn aday öncül olarak kabul et. Bu kural 16 kere do§ru, bir kere yanl³ çal³t.

3. Önceki ve mevcut tümcedeki tekillik (Unique in current and prior): E§er bir önceki tümce ya da mevcut tümcede tek bir adl varsa onu öncül olarak seç. Bu kural 114 kere do§ru, 2 kere yanl³ cevap verdi.

4. yelik durumundaki adllar (Possessive Pronoun): E§er adl iyelik halinde ise (my, your, his, her vb.) ve bir önceki cümlede iyelik halinde olan bir öncül var ise onu adln öncülü olarak kaydet. Bu kural 4 kere do§ru, 1 kere yanl³ çal³m³tr.

5. Mevcut Tümcede Teklik (Unique current sentence): E§er mevcut tümcede sadece bir aday öncül varsa, onu adln öncülü olarak kaydet. Bu kural 21 kere do§ru ve 1 kere yanl³ sonuç vermi³tir.

6. Tekil Özne / Adls Özne (Unique Subject / Subject Pronoun): E§er bir önceki tümcenin özne Ad Öbe§i sadece bir aday öncül içeriyorsa ve mevcut tümcenin öznesi adl ise, bir önceki tümcenin ad öbe§ini öncül olarak kaydet. Bu kurallar 11 kere do§ru çal³m³ ve hiç yanl³ sonuç vermemi³tir.

Srasyla uygulanan bu kurallar d³na çkan durumlar için daha sonra iki ek kural daha eklenmi³tir. Bu çal³ma The Wall Street Dergisi'nden elde edilen derlem üzerinde 200 adl için uyguland ve % 92 kesinlik (precision), % 64 anma (recall) orannda bir ba³ar elde etti.

3.2.7 MARS

[Mitkov, 2002] tarafndan geli³tirilen MARS (Mitkov's Anaphora Resolution System) isimli sistem tam otomatik çal³abilme 6 yetene§ine sahiptir. Yani hiç-

bir i³aret koyulmam³ serbest metinler sistem tarafndan analiz edilir. Ve içerdi§i artgönderimsel ili³kiler otomatik olarak belirlenir ve belli bir ba³ar oranyla çö- zülür. MARS02 kodlu ilk versiyonda toplam be³ a³amada i³lemler tamamlanr.

6Bu sistemin ilk versiyonu yar-otomatik olarak çal³yordu. Daha sonraki denemelerde tam

otomatik bir sistem kuruldu. Ancak do§al olarak tam otomatik sistem yar-otomatik sisteme göre daha az ba³arl olmu³tur.

Birinci a³amada de§erlendirilecek i³lenmemi³ metin sözdizimsel olarak ayr³t- rlr. Bu a³amada ayr³trlm³ her bir parçann biçimbilimsel, sözdizimsel, dil- bilgisel analizi yaplr. Ad Öbekleri bu süreçte belirlenmi³ olur. kinci a³amada artgönderimsel adllar, gönderimsel olmayan ö§eler makine ö§renmesi algorit- malar aracl§ ile ayklanr. Üçüncü a³amada her bir adl için, adln bulundu§u tümce ile iki tümce öncesine kadar olan metin parçasndaki olas adaylar belir- lenir. Bu a³amada mevcut adaylar belli kstlar çerçevesinde yar³rlar. Yar³ta sözdizimsel kstlar uygulanr. Öncelikle her bir aday öncül adl ile say, ki³i ve cinsiyet uyumu içinde olmaldr. Dördüncü a³amada RAP algoritmasnda oldu§u gibi her bir aday öncülün puan hesaplanr. Bunun için etkenlere ba§l olarak adaylar de§erlendirilir ve puanlanr. Be³inci a³amada ise en yüksek puana sahip aday adln öncülü olur. MARS'n en son versiyonunda baz güncellemeler yaplm³tr. MARS06 olarak nitelendirilen yeni versiyonda daha kat ve kesin uyum yöntemleri uygulanr. MARS sistemin en önemli özelli§i dünyadaki en iyi sistem olmas ve bu sistemin metin özetleme (text summarization), bilgi çka- rm (information extraction) ve metin snandrlmasnda (text categorisation) kullanlmasdr.

MARS bilgisayar kullanm klavuzlarndan olu³an 8 farkl döküman üzerinde çal³trlm³tr. Bu derlem 247.000 kelimeden ve 2263 adldan olu³ur. MARS'n tam otomatik versiyonundaki deneyler sonunda ortaya çkan ba³ar oran %61.55 olarak ölçülmü³tür. Bu oran do§ru çözümlenmi³ adl saysnn sistemde bulunan adl saysna orandr. Öte yandan yar otomatik versiyonundaki sonuçlar %85- 90 arasnda çkm³tr. Bu yöntemin Bulgarca dili adaptasyonu % 72.6, Japonca dili adaptasyonu % 75.8 ba³ar elde etmi³tir.

3.3 Ö§renme Tabanl Artgönderim Çözümleme

Çal³malar

Makine ö§renmesi yapaz zeka alannn en önemli alt alanlarndan biridir. Bu disiplin içinde üretilen teoriler di§er disiplinlerdeki hemen hemen tüm alanlara, özellikle de yapay zeka alt alanlarna uygulanabilmektedir. Bu anlamda bilgi tabanl yöntemlere bir alternatif olu³turur. Ö§renme tabanl algoritmalar daha önceki deneyim durumlarndan bir model olu³turur. Olu³turulan modeller, da- yand§ veriyi iyi bir ³ekilde ifade etmeye çal³r ve bu verinin içindeki özellikle gizli olan kurallar çkarmaya çal³r. Ksacas, veri madencili§inin bir parças olan makine ö§renme algoritmalar insann bulamayaca§ kurallar çkarmak için kullanlr. En önemlisi ele ald§ veriyi analiz ederek gelecekte olu³acak durumlara tahminde bulunmasdr. Bu gücü sebebiyle ö§renme algoritmalar bilgisayarl dilbilim çal³malarnn hemen hemen tüm alt ba³lklar için uygu- lanmaktadr. Bu alt görevlerden biri olan Artgönderim Çözümlemesi için de uygulanmaktadr. Bu uygulamalarn ne tür süreçlerden geçti§ine bakalm.

3.3.1 Artgönderim çin Ö§renme Süreçleri

Ö§renme algoritmalar bir veritabanndaki veriye dayanarak bir model ortaya çkarr. Bu veritaban birçok özellik ve tek bir hedef özellik (ya da sonuç) içeriyor ise bu ö§renme yöntemine kontrollü (supervised), e§er sonuç alan içermiyorsa kontrolsüz (unsupervised) ö§renme denir. Kontrollü ö§renmede amaç, ba§msz özelliklerin hedef özellik ile olan ili³kisini bulmak. Buradaki Hedef ya da sonuç di§er özellik ö§elerinden hangilerine daha çok ba§lysa o özellik ön plana çkar. Bu özellikler birbirinden ne kadar ba§msz olurlarsa ve hedef snfa ne kadar ba§ml olurlarsa model o kadar ba³arl olur.

Peki Artgönderim çal³malar bu sürece nasl ba§lanacak ? Söylemdeki her- bir artgönderimsel adl ya da ö§e kendisinden önce gelen tüm söylem varlkla- ryla e³le³ir. Bu e³le³melerin her biri bir kayda denk dü³er. Bu kaytlarn hedef snf, sözkonusu artgönderim ile e³le³di§i varl§n ya da gönderimsel ifadenin gönderimsel bir ili³ki içinde olup olmad§na baklarak belirlenir. E§er iki ö§e arasnda gönderimsel bir ili³ki var ise hedef snf (sonuç) EVET olarak imlenir, aksi durumda ise HAYIR olarak imlenir. Bu duruma basit bir örnekle açklk getirelim. Diyelim ki

e1...e2...a1(> e1 )...e3...e4...e5...a2(>e4) (3.5)

söylem 3.5' deki gibi bir söylem üzerinde çal³yoruz. Bu söylemde e1,e2,e3,e4 ve e5 ö§elerinin gönderimsel ifade ve p1 ve p2 ö§elerinin ise adl oldu§unu kabul edelim. Adl a1'in e1'e ve adl a2'nin e4'e gönderimde bulundu§unu varsayalm. Bu durumda olu³turulacak veri kayt listesi Tablo 3.3'deki gibi olacaktr.

Tablo 3.3: Ö§renme Veritaban Adl Gönderimsel fade Sonuç

a1 e1 EVET a1 e2 HAYIR a2 e1 HAYIR a2 e2 HAYIR a2 e3 HAYIR a2 e4 EVET a2 e5 HAYIR

Bu tablodan da görüldü§ü gibi herbir adl ile ondan önce gelen her bir gönde- rimsel ifade e³le³iyor. Bu e³le³meler iki ³ekilde yaplmaktadr. Birincisi olumsuz e³le³me, ikincisi ise olumlu e³le³me. Bu tablo makine ö§renme algoritmas için bir e§itim kümesini temsil eder. Ancak bu a³amada belirtilmesi gereken bir

nokta ³udur: a ve e ile ifade etti§imiz adl ve gönderimsel ifadeler yerine bu ö§elerin ya da varlklarn özellikleri koyulmaldr. Yani adla ait özellikleri ve aday öncüle ait özellikler bu satrlarda bulunmaldr. Ayrca adl ile aday öncül arasndaki yaknlk, uyum gibi ili³kisel bilgiler de bu özelliklere eklenmelidir. Böylelikle ortaya çkan model, çözümü belli olmayan bir söylem üzerine uygula- nr ve bir çözüm sunar. Makine ö§renmesi tekni§ini Türkçe artgönderim çözüm- lemesi için uygulayan henüz yoktur. Bu nedenle bir sonraki bölümde ö§renme yakla³m içeren bu tekni§i di§er diller için kullanan çal³malara bakaca§z.

3.3.2 Di§er Dillerdeki Ö§renme Tabanl Çal³malar

[Aone ve Bennet, 1995.] Japonca metinlerde geçen farkl türdeki artgönderim- ler için makine ö§renme tabanl bir sistem geli³tirdiler. Bu çal³ma artgönderim problemine makine ö§renmesi yakla³mn sunan ilk çal³madr. Bu çal³madan sonra birçok makale bu çal³maya atfta bulunmu³tur. Ö§renme algoritmas için gereken özellik vektörü için toplam 66 özellik kullanm³lardr. Bu özellikler söz- lüksel bilgiler, sözdizim bilgileri, anlamsal bilgiler ve adl ile öncül arasndaki mesafe bilgisinden olu³ur. Çal³mada iki olumlu örnek yaratma metodu kullanl- m³tr: Geçi³li ve geçi³siz. Geçi³li olumlu örnekler, herbir artgönderim ile dahil oldu§u artgönderimsel zincir üzerindeki onlardan önce gelen tüm ad öbekleriyle olu³turulan örneklerden olu³ur. Geçi³siz örnekler ise, herbir artgönderim ile da- hil olduklar artgönderimsel zincir üzerindeki onlardan önce gelen ilk (en yakn) ad öbekleriyle olu³turulan örneklerden olu³ur. Olumsuz örnekler ise benzer bir ³ekilde her bir artgönderimsel ifade ile ondan önce gelen ve artgönderimsel zin- cir üzerinde olmayan gönderimsel ifade e³le³melerinden yaratlr. Bu ³ekildeki e³le³meler e§itim ve sa§lama kümesini olu³turur. Bu deney [Quinlan, 1993.] - C4.5 karar a§ac algoritmasn kullanm³ ve çal³mann sonunda ö§renme ta-

banl sistemin bilgi tabanl sisteme oranla daha ba³arl oldu§u vurgulanm³tr. Bu çal³madaki model 1971 adl kapasiteli e§itim kümesi ile e§itilmi³ 1359 adl kapasiteli sa§lama kümesi ile snanm³tr. Bu test sonucunda alnan en iyi anma sonucu (recall) % 70.20, kesinlik sonucu (precision) % 88.55 ve f-ölçütü ise % 77.27 olarak ölçülmü³tür.

C4.5 karar a§acn kullanan bir ba³ka çal³ma [McCarthy ve Lehnert, 1995.] tarafndan uygulanm³tr. Ad öbekleri arasndaki gönderimsel ili³kiler (corefe- rence resolution) gibi tüm ili³kileri kapsayan bir sistem kurulmu³tur. Kullan- dklar 1230 örnek durumun % 26's olumlu ve %74'ü olumsuzdur. RESOLVE ismini verdikleri sistem MUC-5 isimli ngilizce metinlerden olu³an bir derlem üzerinde denenmi³ ve ba³arl sonuç alnm³tr. Bu çal³mada da yine ö§renme tabanl yöntemlerin bilgi tabanl yöntemlere göre daha ba³arl oldu§u vurgu- lanm³tr. Çal³mada kullannan a§aç budamasz oldu§unda anma, kesinlik ve f-ölçütü srasyla % 85.4, % 87.6 ve % 86.5 çkm³tr. Budamal bir a§aç kulla- nld§nda ise srasyla %80.1, % 92.4 ve % 85.8 sonucu elde edilmi³tir.

[Soon vd., 2001.] yine karar a§ac ö§renme algoritmas kullanarak az bilgili

7 bir yakla³m sunmu³tur. Toplam 12 adet özellik kullanlm³tr. Sistem bir söz-

lüksel özellik (e³sesli), sekiz dilbilgisel özelliksel (cinsiyet, say, ek, ad öbe§i türü vb.), iki anlamsal özellik ve bir pozisyon özelli§i (ad öbekleri ve adllar arasndaki uzaklk bilgisi) içerir. Bu çal³mada olumlu örnekler ile olumsuz örnekler arasn- daki denegesizli§i 8 gidermek için olumsuz örneklerin sadece bazlar alnm³tr.

Olumsuz örnekler ³u ³ekilde olu³turulmu³tur: Her bir adl ya da gönderimsel ad

7Az bilgili yakla³mlar bilgiye ba§ll§ azaltmak ve böylelikle daha pratik, daha hzl, daha

az ba§ml bir sistem olu³turmak isterler. Özellikle gerçek uygulamalarda az bilgiyle çal³mak çok önemlidir

8Olumlu örnekler olumsuz örnekler göre daha az oldu§undan bu oran baz uygulamalarda

yüzde 10 seviyesinin altina dü³er. Bu seviye makine ö§renmesi algoritmalar için oldukça zararldr. Çünkü ö§renme algoritmalar her iki snf de§eri -yani evet ve hayir ya da 1 ve 0- için mümkün oldu§unca dengeli bir veritaban olmasn ister. Bu dengesizlik ve bunun giderilmesi ö§renme tabanl artgönderim çözümlemelerinin en ciddi problemlerindendir.

öbe§i ile onun en yakn öncülü arasnda kalan ve gönderimsel bir ili³ki içinde olmayan ad öbekleri ya da gönderimsel ifadeler ile olu³an küme olumsuz küme olarak belirlenir. Olu³turulan sistem, gönderimsel ili³kileri önceden belirlenmi³ iki veri kümesi (MUC-6, MUC-7) üzerinde denenmi³ ve ba³arl bir sonuç elde etmi³tir. 13.000 kapasiteli bir derlem üzerinde gerçekle³tirilen deneylerden çkan sonuçlar % 52 /anma, % 68 /kesinlik ve % 58.9 /f-ölçütü ³eklindedir.

3.4 Türkçe için Bilgisayarl Artgönderim Çözüm-

leme Çal³malar

Türkçe'ye yönelik dilbilimsel çal³malarn bollu§una kar³n bilgisayarl dilbilim- sel çal³malar çok fazla de§ildir. Artgönderim çözümlemesi için de bu durum geçerlidir. Türkçe için yaplan ilk bilgisayarl çal³malardan biri

[Tn ve Akman, 1994] tarafndan yaplm³tr. Durum Anlambilimini (Situ- ation Semantic) temel alan bir çerçeve sunulmu³tur. Bilgisayarl bir çerçeve içinde çözüm sunan bu yap BABY-SIT olarak adlandrlm³tr. Bu durum te- orisine göre bir söylem yapsn bireyler, onlarn özellikleri, birbirleri arasndaki ili³kileri ve durumlar belirler. Ancak bu teorik çerçevede sunulan bilgisayarl model deneysel bir sonuç sunmam³tr. Dolaysyla bir ba³ar oran belirtilme-