• Sonuç bulunamadı

2. EKK KESTİRİCİSİ İÇİN TANILAMA ÖLÇÜLERİ

3.1. Yanlı Kestirim Yöntemleri

3.1.8. Modified Liu Kestiricisi

Swindel (1976) tanımladığı modified ridge kestiricisine benzer bir düşünce ile Yalian Li ve Hu Yang (2010) Liu kestiricisi ile ön (prior) bilgiyi birleştirerek Modified Liu kestiricisini tanımlamışlardır. Modified Liu kestiricisi,

= ( + ) ( + ) = − ( − )( + ) olmak üz ere;

( , ) = + ( − )

= ( + ) ( + ) + (1 − )

= + −1 + +(1 − ) 0 (3.12)

şeklinde ifade edilmiştir. Burada , boyutlu stohastik olmayan bir vektör olup üzerindeki ön bilgiyi temsil edecek şekilde seçilmelidir. ( , ) nın bazı özellikleri şu şekildedir:

1) (1, ) = 2) ( , 0) =

3) = ( + ) ( + ) olmak üzere, Modified Liu kestiricisinin Yanlılık vektörü, varyans-kovaryans matrisi ve matris kareler ortalaması;

( ( , )) = + ( − ) − = ( − )( − ) ( ( , )) = ( )

( ( , )) = ( ) + ( − )( − )( − )( − )

şeklinde ifade edilir.

3.2. Yanlı Kestiricilerin Bir Sınıfı

= + modelinin kanonik formu; = ve = olmak üzere, = + ile verilmişti. Bu durumda = ⋀ ve = ⋀ olmak üzere parametresinin EKK kestiricisi;

= ( ) =

şeklinde ifade edilir. Böylece = olarak elde edilir. ( = 1,2, … , ); ilk elemanı ile aynı olan vektör yani = ( … 0 0 … 0) olsun. Burada ler lineer bağımsız vektördür. Dolayısıyla … ; boyutlu uzay için baz olarak düşünülebilir. parametresinin kestiricileri de boyutlu uzayda vektörler olduğundan, lerin lineer kombinasyonu olarak yazılabilirler. Bir başka ifade ile nın herhangi bir kestiricisi

= + + ⋯ + + + ⋯ + …

olarak yazabiliriz. Burada ler önceden hesaplanmış sabitlerdir ve bu sabitlerin

farklı seçimleri ile parametresinin farklı kestiricileri elde edilebilir (Hocking ve ark., 1976). İşlem kolaylığı açısından = ∑ , olarak tanımlanırsa

parametresinin bir kestiricisi; ( , , … , ) şeklinde ifade edilir.

Tanım 3.1. = ∑ , = 1,2, … , ve = ( , , … , ) olmak üzere; = şeklinde yazılan kestiriciye parametresinin genel yanlı kestiricisi

denir. = şeklinde yazılabilen kestiricilerin oluşturduğu sınıfa ise genel yanlı sınıf adı verilir.

Genel yanlı sınıf; içinde ridge, genelleştirilmiş ridge, modified ridge, temel bileşenler, ondalık rank kestiricisi, Stein, Liu, genelleştirilmiş Liu ve modified Liu gibi pek çok kestiriciyi içine alan zengin bir sınıftır. = olması durumunda EKK kestiricisi elde edilir. kestiricisinin özellikleri şu şekildedir:

1. kestiricisi;

( ) = = − ( − ) ⇒ ( ) ≠

olduğundan yanlı bir kestiricidir ( ≠ ). Bu nedenle ler yanlılık parametresi ve matrisi de yanlılık matrisi olarak adlandırılır. Genel yanlı sınıf kestiricisi için yanlılık

( ) − = −( − )

ile verilir.

2. Genel yanlı kestirici için varyans-kovaryans matrisi;

( ) = ⋀

şeklinde ifade edilir.

3. Genel yanlı sınıf kestiricisi için nin matris formu;

= ⋀ + ( − ) ( − ) (3.13)

şeklinde ifade edilir. (3.13) ifadesinden;

( ) − ( ) = ⋀ ( − ) − ( − ) ( − )

ifadesi elde edilir. Eğer ( ) − ( ) matrisi yarı tanımlı (psd) ise, kestiricisi kriterine göre EKK kestiricisinden daha iyi bir kestiricidir.

4. Hata kareler ortalaması;

( ) = [( − )( − )] = ∑ + ∑ 1 − (3.14)

şeklinde elde edilir. = 1,2, … , için → 0 iken → 0 ; → ve eğer → 1 ise = ile → 0 olacaktır.

5. yanlılık parametrelerinin optimal değeri, ( ) yı minimum yapacak şekilde elde edilir. Bunun için ( ) nın ye göre ( = 1,2, … , ) türevi alınıp sıfıra eşitlenirse;

( )

= 2 − 2 1 − = 0

⇒ + =

⇒ = = (3.15) şeklinde elde edilir ( = ⁄ , = 1,2, … , ). Elde edilen optimal değeri, (3.14) ile verilen ( ) formülünde yerine konursa;

( ) = ∑

+ ∑

buradan da

( ) = ∑ = ∑ (3.16)

elde edilir. (3.16) ile verilen ifade de yerine 1 − 1 − yazılırsa;

( ) = ∑ − ∑ 1 − = ( ) − ∑ 1 −

⇒ ( ) − ( ) = ∑ 1 − (3.17)

ifadesinden ve kestiricilerinin değerleri arasındaki ilişki görülür. Dikkat edilirse (3.17) ile verilen kestiricilerin leri arasındaki fark 0 < < 1 olmak üzere her zaman pozitiftir. Ayrıca bu farkın ile ters orantılı olduğu görülür. Başka bir ifadeyle matrisinin özdeğerleri küçüldükçe (kötü koşulluluk arttıkça);

kestiricisinin değeri ile kestiricisinin arasındaki fark artacak, böylece kriterine göre kestiricisi kestiricisinden daha iyi bir kestirici olacaktır.

Kanonik model için parametresinin genel yanlı kestiricisi olmak üzere (1.1) modeli için parametresinin genel yanlı kestiricisi ;

= = (3.18)

şeklinde elde edilir (Lee ve Birch, 1988).

3.2.1. Genel Yanlı Sınıf İçinde Yer Alan Kestiriciler

Ridge , genelleştirilmiş ridge, modified ridge, ondalık rank, temel bileşenler, Stein, Liu, genelleştirilmiş Liu ve modified Liu kestiricileri; matrisinin özel seçimleri ile bu yanlı sınıf içerisinde yer alan kestiricilerdir.

1. Ridge Kestiricisi: Kanonik modeldeki parametresinin ridge kestiricisi ( + ) şeklinde olup;

= (⋀ + ) = (⋀ + )

olarak elde edilir. O halde = (⋀ + ) ⋀ olarak alınırsa ridge kestiricisinin, genel yanlı sınıf içerisinde yer aldığı görülür ( > 0). Böylece (1.1) modeli için ridge kestiricisi;

= (⋀ + ) ⋀ =

şeklinde ifade edilir. Ridge kestiricisi için matrisini ( + ⋀ ) olarak da ifade edebiliriz. Bu durumda ;

= 1 + ⇒ = 1 − (3.19)

şeklinde ifade edilir. Dolayısıyla ridge kestiricisi, bu genel kestiricinin = 1,2, … , − 1 için;

1 − = 1 − (3.20)

kısıtlamasını sağlayan özel bir halidir ( 1 − değeri tüm ler için eşit). (3.20) ile verilen ifadeyi kullanarak, parametresinin elde edilmesi için başka bir yöntem önerilebilir. (3.19) ile ifade edilen 1 − lerin ortalaması alınırsa;

= ∑

şeklinde verilir (Hocking ve ark., 1976). Bu durumda eğer yanlılık parametresinin optimal değeri biliniyorsa bundan yararlanarak değeri elde edilebilir.

2. Genelleştirilmiş Ridge Kestiricisi: Kanonik modeldeki parametresinin genelleştirilmiş ridge kestiricisi ( + ) şeklinde olup;

= (⋀ + ) = (⋀ + )

olarak elde edilir. O halde = (⋀ + ) ⋀ olarak alınırsa genelleştirilmiş ridge kestiricisinin, genel yanlı sınıf içerisinde yer aldığı görülür ( = ( ), ≥ 0, = 1,2, … , ). Böylece (1.1) modeli için genelleştirilmiş ridge kestiricisi;

= (⋀ + ) ⋀ =

şeklinde ifade edilir. Genelleştirilmiş ridge kestiricisi için matrisini ( + ⋀ ) olarak da ifade edebiliriz. Bu durumda ;

= 1 + (3.21)

şeklinde ifade edilir. (3.21) ifadesinde , yerine = yazılırsa; nin (3.15) ile verilen optimal formu elde edilir. Dolayısıyla, ∑ şeklinde yazılabilen genel yanlı sınıf kestiriciler için;

= ∑ , = 1,2, … ,

olmak üzere, ler hakkında herhangi bir kısıt olmaksızın genelleştirilmiş ridge kestiricisi için elde edilebilmektedir (Hocking ve ark., 1976).

3. Modified Ridge Kestiricisi ( , ) = ( + ) ( + ), ≥ 0 (3.6) ile verilen modified ridge kestiricisinde, ön bilgi olduğundan dolayı yerine

= alırsak;

( , ) = ( + ) [ + (( + ) )]

ifadesini elde ederiz. Kanonik modeldeki parametresinin modified ridge kestiricisi;

( , ) = ( + ) [ + (( + ) )]

şeklinde olup,

( , ) = (⋀ + ) [ + (⋀ + ) ]⋀

olarak elde edilir. O halde = (⋀ + ) [ + (⋀ + ) ]⋀ olarak alınırsa modified ridge kestiricisi genel yanlı sınıf içerisinde yer aldığı görülür ( > 0).

Böylece (1.1) modeli için modified ridge kestiricisi;

( , ) = (⋀ + ) [ + (⋀ + ) ]⋀ ( , )

şeklinde ifade edilir. Modified ridge kestiricisi için,

= (⋀ + ) [ + (⋀ + ) ]⋀

olduğundan yanlılık parametresi;

= = 1,2, … ,

şeklinde elde edilir.

4. Ondalık Rank ve Temel Bileşenler Kestiricisi: Bölüm 3.1.5. de verilen ondalık rank kestiricisi için kanonik form;

= (1 − ) + 0 ≤ ≤ 1

şeklinde ifade edilir. Dolayısıyla bu kestirici genel yanlı kestiriciler sınıfının; ≠ için + = 1 ≥ 0, ≥ 0 ve ≠ için = 0 kısıtlamalarını sağlayan bir eleman olacaktır. Böylece yanlılık parametresi ler;

= 1 ; ≤

⁄1 + ; = + 1 0 ; > + 1

şeklinde elde edilir. Seçilmiş değeri için, (3.16) ile verilen ifade de lerin yerine konulmasıyla;

( ) = ( ) − ∑ (1 − ) + (1 + )

olarak elde edilir. Yukarıdaki ifade de görüldüğü gibi, bu kestiricinin EKK ya göre daha küçük değerine sahip olması değerlerine bağlıdır. parametresi için ondalık rank kestiricisi = (1,1, … ,1, , 0, … ,0) olmak üzere;

= =

şeklinde ifade edilir. Ondalık rank kestiricisinin özel bir hali olan temel bileşenler kestiricisi; = 1 ve ≠ için = 0 kısıtlamaları ile bu genel sınıfın içinde yer alır. parametresi için temel bileşenler kestiricisi ise = (1,1, … ,1,0, … ,0) olmak üzere;

= =

şeklinde ifade edilir (Hocking ve ark.,1976).

6. Stein Kestiricisi: (3.10) ile verilen Stein kestiricisi, bu sınıfın

= 0, = 1,2, … , − 1 kısaltmalarını sağlayan bir elemanıdır. Dolayısıyla

= , = 1,2, … , olacaktır. Bu durumda ( ) değerini minumum yapan = ;

= + ∑

şeklinde hesaplanır. Bu ifade bilinmeyen parametreleri içerdiğinden uygulamada kullanılmaz. Bu durumda optimal değerlerinin elde edilmesine ilişkin yöntemler

Bölüm 3.2.2 de verilecektir. Böylece (1.1) modeli için Stein kestiricisi;

= , , … , ve = = ⋯ = = olmak üzere;

= =

şeklinde ifade edilir (Hocking ve ark., 1976).

6. Liu ve Genelleştirilmiş Liu Kestiricisi: Kanonik modeldeki parametresinin Liu kestiricisi ( + ) ( + ) şeklinde olup;

= ( + ) ( + ) = (⋀ + ) (⋀ + )

olarak elde edilir. O halde = (⋀ + ) (⋀ + ) olarak alınırsa Liu kestiricisinin, genel yanlı sınıf içerisinde yer aldığı görülür (0 < < 1). Böylece (1.1) modeli için Liu kestiricisi;

= (⋀ + ) (⋀ + ) =

şeklinde ifade edilir. Liu kestiricisi için yanlılık matrisi, = (⋀ + ) (⋀ + ) olduğundan yanlılık parametresi;

= , = 1,2, … , (3.22)

şeklinde elde edilir. (3.22) ifadesini kullanarak;

= − 1 + (3.23)

ifadesi elde edilir. parametresinin elde edilmesine ilişkin, parametresine benzer şekilde başka bir çözüm yolu önerilebilir. (3.23) ile verilen − 1 + ifadesinin ortalaması alınırsa;

= ∑ − 1 +

ile verilen ifade kullanılarak, yanlılık parametresinin optimal değeri biliniyorsa parametresinin optimal değerini elde edilebiliriz. Genelleştirilmiş Liu kestiricisi için yanlılık matrisi ve yanlılık parametresi şu şekildedir:

Kanonik modeldeki parametresinin genelleştirilmiş Liu kestiricisi ( + ) ( + ) şeklinde olup;

= (⋀ + ) ( + ) = (⋀ + ) (⋀ + )

olarak elde edilir. O halde = (⋀ + ) (⋀ + ) olarak alınırsa genelleştirilmiş

Liu kestiricisi, genel yanlı sınıf içerisinde yer aldığı görülür ( = ( ), 0 < < 1, = 1,2, … , ). Böylece (1.1) modeli için

genelleştirilmiş Liu kestiricisi;

= (⋀ + ) (⋀ + ) =

şeklinde ifade edilir. Genelleştirilmiş Liu kestiricisi için yanlılık matrisi, = (⋀ + ) (⋀ + ) olduğundan yanlılık parametresi;

= , = 1,2, … ,

şeklinde elde edilir.

8. Modified Liu Kestiricisi: ( , ) = ( + ) ( + ) + (1 − ) 0 < < 1 (3.12) ile verilen Modified Liu kestiricisinde, ön bilgi olduğundan yerine = alırsak;

( , ) = ( + ) ( + ) + (1 − ) ( + ) ( + )

ifadesini elde ederiz. Kanonik modeldeki parametresinin Modified Liu kestiricisi;

( , ) = ( + ) ( + ) + (1 − )[( + ) ( + ) ]

şeklinde olup, gerekli işlemler yapılırsa;

( , ) = (⋀ + ) (⋀ + )[ + (1 − )(⋀ + ) ]

olarak elde edilir. O halde = (⋀ + ) (⋀ + )[ + (1 − )(⋀ + ) ] olarak alınırsa Modified Liu kestiricisinin genel yanlı sınıf içerisinde yer aldığı görülür (0 < < 1). Böylece (1.1) modeli için Modified Liu kestiricisi;

( , ) = (⋀ + ) (⋀ + )[ + (1 − )(⋀ + ) ] ( , )

şeklinde ifade edilir. Modified Liu kestiricisi için,

= (⋀ + ) (⋀ + )[ + (1 − )(⋀ + ) ]

olduğundan yanlılık parametresi;

= ( − + 2) = 1,2, … ,

şeklinde elde edilir.

Genel yanlı sınıf içerisinde yer alan kestiriciler ve yanlılık parametreleri aşağıdaki çizelgede verilmiştir.

Çizelge 3.1. Genel yanlı sınıf içinde yer alan kestiriciler ve yanlılık parametereleri

KESTİRİCİ

EKK = 1 , = 1,2, … ,

RİDGE = , = 1,2, … , , > 0 GENELLEŞTİRİLMİŞ RİDGE = , = 1,2, … , , > 0 MODIFIED RİDGE =

, = 1,2, … , , > 0 TEMEL BİLEŞENLER

{ ( ) = , }

= 1 , = 1,2, … ,

= 0 , (diğer durumlarda) ONDALIK RANK

{ ( ) [ , + 1]} = 1, = 1,2, … , ; =

= 0 , (diğer durumlarda) STEIN = , = 1,2, … ,

LIU = , = 1,2, … , , 0 < < 1 GENELLEŞTİRİLMİŞ LIU = , = 1,2, … , , 0 < < 1

MODIFIED LIU =

− + 2 , = 1,2, … , 0 < < 1

3.2.2. Yanlılık Parametresi nin Hesaplanması

(3.15) ile verilen optimal değerini;

= (3.24)

olarak da yazabiliriz. (3.24) ifadesinde ve parametrelerinin bilinmemesinden dolayı (3.24) ifadesi uygulamalarda kullanılmaz. Bu nedenden dolayı optimal değerinin hesaplanması için önerilen çeşitli yaklaşımlar kullanılmaktadır. Bu yaklaşımlardan bazıları şu şekildedir:

i) Birinci yaklaşım; Hoerl ve Kennard tarafından (1976) optimal değeri için verilen iteratif yöntemi esas alır. (3.24) ile verilen ifade de; iterasyon sayısını göstermek üzere, yerine EKK kestiricisi ; yerine , ( ) ( -inci iterasyonda elde edilen genelleştirilmiş ridge kestiricisi) yazılırsa;

, [ + 1] =

, ( ) (3.25)

ifadesi elde edilir ( = 0,1, … ). = 0 için , (0) = yani genelleştirilmiş ridge kestiricisi yerine, nın EKK kestiricisi kullanılacaktır. İteratif işleme;

genelleştirilmiş ridge kestiricisinin uzunluğu sabitleninceye kadar devam edilir (Hocking ve ark.,1976).

ii) İkinci yaklaşım; = 0 için genelleştirilmiş ridge kestiricisi yerine nın EKK kestiricisi kullanılmasının çoklu iç ilişki problemi durumunda sağlıksız olduğu düşünülürek önerilmiştir. Bu yaklaşım da başlangıç değer olarak temel bileşenler kestiricisini ve her iterasyon için yerine;

( ) = − ( ) − ( ) −

ifadesini kullanır ve -inci iterasyonda elde edilen yanlılık parametresi , ( + 1) ile gösterilir. Araştırmacılar bu değerin iteratif olarak hesaplanabileceği gibi tek iterasyon sonucunda hesaplanan değerin de alınabileceğini savunmaktadırlar.

, ( + 1) ifadesinin, iterasyon sayısı sonsuza giderken limiti alınarak elde edilen yanlılık parametresi , ( + 1) olmak üzere ilk iterasyonda elde edilen değerden önemli derecede farklı değildir (Hocking ve ark.,1976).

iii) Üçüncü yaklaşım; , ( + 1) ile gösterilen yanlılık parametreleri, (3.25) de , ( ) yerine ( ) ( ) ⁄ yazılmasıyla elde edilir. Burada ( ) t-inci iterasyonda elde edilen ridge kestiricisi ve (0) ise EKK kestiricisidir. Bu iteratif

işleme ⁄ ( ) ( ) değeri sabitleninceye kadar devam edilir (Hocking ve ark., 1976).

iv) Dördüncü yaklaşım; ridge kestiricisi kullanılarak verilen yanlılık parametreleri için başlangıç değer olarak EKK yerine temel bileşenler kestiricisi kullanır. Benzer şekilde yerine her bir itersayonda elde edilen ( ) alınırsa , ( ) ile gösterilen yanlılık parametreleri hesaplanabilir. Ayrıca işlem kolaylığı açısından , ( ) de olduğu gibi ilk iterasyon sonucu kullanılabilir. , ( + 1) ifadesinin, iterasyon sayısı sonsuza giderken limiti alınırak elde edilen yanlılık parametresi ( + 1) olmak üzere bu değer ilk iterasyonda elde edilen değerden önemli derecede farklı değildir (Hocking ve ark.).

Bu yanlılık parametrelerinin performansını karşılaştırmak için yapılmış bir simülasyon çalışmasında, farklı parametreleri ve değerleri için tekrarlı denemeler yapılmıştır (Lee, 1986). Bu çalışmanın sonucunda, dört yöntemden herhangi biriyle elde edilen yanlılık matrisleri kullanılarak hesaplanan kestiriciler EKK kestiricisine göre daha iyiyken; birisinin diğerine göre üstünlüğü parametresinin uzaydaki konumuna, değerine ve çoklu iç ilişki probleminin derecesine göre değişmektedir (Lee, 1986).

4. GENEL YANLI KESTİRİCİLER İÇİN TANILAMA ÖLÇÜLERİ

Veride, çoklu iç ilişki problemi ve sapan değerlerin bir arada bulunması çok sık karşılaşılabilen bir durumdur. Bu gibi durumlarda ilk önce çoklu iç ilişki problemi kontrol altına alınmalıdır. Bu nedenle öncelikle parametre kestirimi için;

EKK kestiricisi yerine çoklu iç ilişki probleminin etkilerine dayanaklı alternatif yanlı kestiricilerin kullanılması gerekmektedir. Ancak EKK analizinde sapan değerlerin belirlenmesi için çok sayıda tanılama ölçüleri olmasına rağmen yanlı kestirim yöntemleri için pek fazla çalışma yapılmamıştır. Walker ve Brich (1988) ve Chalton ve Troskie (1992) EKK kestiricisi için verilen bir gözlem tanılama ölçülerinden yola çıkarak, yanlı kestiriciler için tanılama ölçüleri önermişlerdir. Walker (1980) Bölüm 3 de verilen genel yanlı sınıf kestiricileri için bazı tanılama ölçülerini, yanlılık ve yanlılık matrisinin fonksiyonları olarak tanımlamıştır.

4.1. Genel Yanlı Kestiriciler İçin Tanılama Ölçüleri

Genel yanlı sınıf kestiricileri; = şeklinde yazılabilen kestiricilerdir ( ≠ ). Yanlılık matrisi nin farklı seçimleri ile ridge, genelleştirilmiş ridge modified ridge, temel bileşenler, ondalık rank, Stein, Liu, genelleştirilmiş Liu ve modified Liu kestiricileri elde edilebilmektedir. EKK kestiricisinde olduğu gibi, bu kestiriciler içinde tanılama ölçüleri verilebilir. Yanlı sınıf kestiricileri için tanılama ölçüleri genel olarak, yanlılık matrisi ve yanlılık parametrelerinin bir fonksiyonu olarak yazılabilmektedir. Böylece bu sınıf içerisinde yer alan herhangi bir kestirici için ve lerin özel seçimleriyle tanılama ölçüleri verilebilir.

4.1.1. Genel Yanlı Sınıf Kestiriciler İçin Rezidü ve Leverage Ölçüleri

Bölüm 2 de EKK için verilen etki ölçüleri, leverage ve rezidülerin bir fonksiyonu olarak yazılabilmekteydi, Genel yanlı kestiriciler için de rezidü ve leverage değerleri, etki ölçülerinin oluşturulmasında önemli rol oynamaktadır. Genel yanlı sınıf kestiriciler için uydurulmuş değer vektörü , = tekil değer

ayrışımı (Mandel, 1982) (burada ; matrisinin özdeğerlerinin pozitif kareköklerinden oluşan × tipinde köşegen matris, ; kolonları matrisinin özdeğerlerine karşılık gelen özvektörlerden oluşan × tipinde ortogonal matris ve ; kolonları matrisinin sıfırdan farklı özdeğerine karşılık gelen özvektörler olan × tipinde ortogonal matristir) ve buradan = ⋀ ( ) = olmak üzere;

= = = = ( ) = (4.1)

ifadesi elde edilir. (4.1) ifadesi kullanılarak i-inci uydurulmuş değer = 1,2, … , için;

= = ∑

şeklinde ifade edilir. matrisi tam olarak şapka matris değildir; fakat şapka

matrisine benzer özelliklere sahiptir. matrisi simetrik bir matristir; fakat ( ) = olup = olması durumu dışında idempotent bir matris değildir.

matrisi ile şapka matrisi arasında;

= ( ) = [ − ( − )] = − ( − )

şeklinde bir ilişki vardır. Bu durumda matrisinin elemanları, ℎ = ∑

ve ℎ = ∑ olmak üzere;

= ℎ − ∑ (1 − ) (4.2)

= ℎ − ∑ (1 − ) = ∑ (4.3)

şeklinde elde edilir. (4.3) ifadesinde (1 − ) ≥ 0 olduğundan; = 1,2, … , için ℎ ≥ ℎ olacaktır. Ayrıca her için ℎ değerindeki azalma aynı değildir ve

yanlılık parametrelerine bağlı olarak değişebilir. matrisinin izi (trace) olarak adlandırılır ve bu değer ye yaklaştıkça matrisi şapka matrisi gibi davranır. ℎ değerleri ℎ ile aynı rolü oynamaktadır ve bu nedenden dolayı ℎ ( = 1,2, … , ) genel yanlı kestiriciler için leverage değeri olarak adlandırılır.

, yanıt vektörünün de uydurulmuş değerlere yakın olması, başka bir ifade ile rezidünün küçük olması beklenir. Genel yanlı kestiriciler için alışılmış rezidü vektörü;

= − = − = ( − ) (4.4)

şeklinde ifade edilir. (4.4) de ( − ) ifadesinin yerine − + − yazarsak

= ( − ) + ( − )

= + ( − ) (4.5)

ifadesi elde edilir. (4.5) ifadesinde ( − ) matrisi gerek matrisi gerekse üzerinde yanlılık parametrelerinin etkisini göstermektedir. Özel olarak −inci alışılmış rezidü;

= + ∑ (1 − ) (4.6)

şeklinde elde edilir. ve için; ℎ ≥ ℎ gibi benzer bir karşılaştırma söz konusu değildir. Çünkü (4.6) ifadesinde toplamdaki ikinci terim matrisinin elemanlarına bağlı olarak pozitif ya da negatif olabilir. Dolayısıyla bu terime bağlı olarak , EKK kestiricisi rezidüsünden daha büyük ya da daha küçük olabilir.

Genel yanlı sınıf için elde edilen ve ℎ değerleri, bu sınıf için özelleştirilebiliriz. Bu sınıfta yer alan yanlı kestiriciler için, Bölüm 3 de verilen yanlılık parametreleri yerine yazılırsa özel olarak bu kestiriciler için rezidü ve leverage değerlerini tanımlayabiliriz. Örneğin Liu kestirici için leverage değeri;

= ∑ (4.7)

şeklinde elde edilir. (4.7) ifadesini kullanarak önemli sonuçlar elde edilebiliriz. İlk olarak daha önce de belirtildiği gibi Liu kestiricisi için leverage değerleri EKK kestiricisi leverage değerinden daha küçüktür. İkinci olarak değeri arttıkça leverage değeri artmaktadır ve bu artmanın oranı −inci satırın özvektörlerle olan konumuna göre değişir. Liu kestiricisi için −inci alışılmış rezidü ise;

= + (1 − ) ∑ (4.8)

şeklinde elde edilir. (4.8) ifadesinin toplamdaki ikinci terim pozitif ya da negatif olabileceğinden, Liu kestiricisi için rezidü değerinin genel olarak EKK kestiricisi rezidüsünden daha büyük veya daha küçük olduğu söylenemez.

4.1.2. Genel Yanlı Sınıf Kestiricileri İçin Etki Ölçüleri

Bölüm 2.1.4. de tek gözlem için etki ölçüleri verilmişti. Walker (1990) bu ölçülerden, Cook Uzaklığını ( ) ve Welsch- Kuh ( İ ) Uzaklığı ölçülerini genel yanlı sınıf içerisinde yer alan kestiriciler için tanımlamıştır. Genel yanlı sınıf için Welsch- Kuh Uzaklığı;

İ = = ( )

şeklinde tanımlanır. Herhangi yanlılık matrisi için;

( ) = ( ) = ( ) = ( )

şeklinde ve -inci gözlem için ( ) = ( ) = ∑ ℎ olmak üzere;

= ( ) =

ile verilir. Bu durumda genel yanlı sınıf kestiricileri için Welsch- Kuh Uzaklığı;

İ = = ( )

( ) = 1,2, … , (4.9)

şeklinde ifade edilir. Genel yanlı sınıf kestiriciler için Cook Uzaklığı;

= ( ) ( ) = 1,2, … , (4.10)

şeklinde tanımlanır. uydurulmuş değerlerin ve yanıt değişkenlerinin fonksiyonu olup, matrisinin özdeğerlerine bağlı değildir. Dolayısıyla çoklu iç ilişki probleminden etkilenmez (Walker ve Birch, 1988). Bu nedenden dolayı parametresinin kestiricisi olarak EKK yönteminden elde edilen kullanılmıştır.

(4.9) ve (4.10) ölçüleri elde edilirken, her bir gözlem çıkartıldıktan sonra uydurulmuş değerler ve parametre kestirimleri tekrar hesaplanmalıdır. Genel yanlı sınıfta yer alan kestiriciler ölçeklemeye bağımlı olduğundan; her bir gözlem çıkartıldıktan sonra açıklayıcı değişkenler matrisinin, ( ) ( ) korelasyon formunda olacak şekilde yeniden merkezleştirilip, ölçeklendirilmesi gerekmektedir. EKK kestiricisi için verilen tanılama ölçülerini, tam model için elde edilen leverage ve rezidünün bir fonksiyonu olarak yazılabiliyorduk. Ancak genel yanlı sınıf kestiricileri için tanılama ölçüleri, bu şekilde tam olarak elde edilemezler, sadece yaklaşık formüller verilebilir. Dolayısıyla eğer yanlı kestiriciler için tanılama ölçüleri tam olarak elde edilmek isteniyorsa, ilgili gözlem çıkartıldıktan sonra tüm kestiriciler yeniden hesaplanmalıdır. Diğer taraftan tanılama ölçülerinin leverage ve rezidü cinsinden yazılması uygulamada oldukça kullanışlıdır. Bu nedenden dolayı ( )

değerinin, ve tam model rezidü ve leverage değerleri kullanılarak elde edilmesi konusunda çeşitli yaklaşımlar önerilmiştir.

Özel olarak ridge kestiricisi kullanılarak önerilen yöntemler verilebilir.

( ) = ( ) ( )+ ( ) ( ) olmak üzere ( ) değerini tam olarak hesaplamak için, ( ) birim kolon uzunlukta olacak şekilde yeniden ölçeklendirilmelidir. Aksi takdirde ( ) ( ) korelasyon matrisi formunda olmayacaktır. -inci gözlem çıkartıldıktan sonra matrisinin merkezileştirilmiş formu ( )∗∗, merkezileştirilip ölçeklendirilmiş formu ise ( ) ile gösterilmek üzere;

( ) = ( )∗∗ ( ) = ( )∗∗ 1 − = 1,2, … , , = 1,2, … ,

şeklinde ifade edilir. Böylece,

( )

( ) = ( ) ( ) =

olarak elde edilir. Eğer korelasyon matrisinin köşegen elemanlarına sabiti eklenirse;

= + − olmak üzere;

= + = ( ) ( )

ifadesi elde edilir. Böylece -inci gözlem çıkartıldıktan sonra elde edilen gerçek ridge kestiricisi;

( ) = ( ) +

şeklinde ifade edilir. Yukarıda görüldüğü gibi ridge kestiricisi oldukça karmaşık işlemler sonucu elde edilmektedir. Bu işlem karmaşıklığını önlemek amacıyla ( ) için çeşitli yaklaşımlar önerilmiştir.

i) Birinci yaklaşım: Walker ve Birch (1988) tarafından;

( )

(4.11) şeklinde önerilmiştir. (4.11) ile verilen bu yaklaşık değer yüksek leverage noktaları iyi sonuç vermemektedir.

ii) İkinci yaklaşım: Billor (1992) tarafından, ≅ (1 √ ⁄ ) varsayımını kullanarak

önerilmiştir. Bu varsayım kullanarak elde edilen yaklaşık ridge kestiricisi = ( + ) olmak üzere;

( ) ( ) +

+ (4.12) şeklinde ifade edilir. (4.12) ifadesi n (gözlem sayısı) arttıkça daha iyi sonuç veren bir yaklaşımdır.

iii) Üçüncü yakalaşım: Billor (1992) tarafından, iteratif bir yöntem kullanılarak önerilmiştir. Başlangıç değeri tam model için ridge kestiricisi, iterasyon sayısı ve = matrisi olmak üzere iteratif kestirici;

( )

= − 1 ( ) + ( ) + + − 1

− − 1

olarak hesaplanır. İşleme bu şekilde iteratif olarak devam edilir. İteresyon sayısı arttıkça gerçek parametre kestirimi ( ) değerine daha çok yaklaşır.

Böylece ridge kestiricisi için -inci gözlem çıkartıldıktan sonra, parametresinin kestirimi için üç farklı yaklaşık değer önerilmiştir. Bu çalışmada işlem kolaylığı açısından, Walker ve Birch tarafından (4.11) ile verilen yaklaşım kullanılacaktır. Ridge kestiricisi için verilen bu yaklaşımı, yanlı sınıf için

genelleştirebiliriz. Genel yanlı sınıf kestiricileri; = ×

× , = 0 × × ve = ( − ) olmak üzere;

= ( ) = ( + ) =

ifadesi elde edilir. Dikkat edilirse matrisi matrisinin tekil değer ayrışımına dayalıdır. Eğer matrisinin bir satırı çıkarılırsa, tekil değer ayrışımı ve dolayısıyla matrisi değişecektir. Ancak matrisinin sabit kaldığı varsayımıyla;

( ) ≅ ( − + ) ( − )

ifadesi elde edilir. Burada Sherman-Morrison-Woodbury teoremi (Belsley ve ark., 1980) kullanılarak = + = olmak üzere;

( ) = + ( − )

ile verilir. Burada = alınıp, bir dizi işlemlerin yapılmasıyla;

( ) =

(4.13) ifadesi elde edilir. (4.13) ifadesi kullanılarak elde edilen ve ölçüleri leverage ve rezidünün fonksiyonu olarak yeniden yaklaşık olarak tanımlanabilir. Bu ölçülerden ölçüsü;

≅ İ ≅

( )

= 1,2, … , (4.14)

şeklinde ifade edilir. Benzer şekilde ölçüsü;

= 1,2, … , (4.15) şeklinde ifade edilir.

Chalton ve Troskie (1992) ridge ve ondalık temel bileşenler kestiricisi için verilen ve ölçüleri için eşik değer konusunda simülasyon çalışması yapmışlardır. Ancak simulasyon çalışması sonucunda önerilen eşik değerlerin, ridge ve ondalık rank kestiricileri için çok fazla kullanışlı olmadıkları sonucuna ulaşılmıştır. Dolayısıyla EKK kestiricisi için tanılama ölçülerinde olduğu gibi, elde edilen sonuçların karşılaştırılıp farklı davranan gözlemlerin belirlenmesi daha sağlıklıdır.

4.1.3. Genel Yanlı Sınıf İçin Tanılama Ölçülerine Farklı Bir Yaklaşım

Bölüm 4.1.2. de verilen etki ölçülerinde parametresinin EKK kestiricisi kullanılmıştı. yerine ile gösterilen;

= = (4.16)

şeklinde ifade edilir. (4.16) ifadesi kullanılarak ve ölçülerini yeniden elde edebiliriz. ( ) için de (4.13) ifadesi ile verilen yaklaşık değer kullanılacaktır.

( ) = − − − ( )( ) ( ) ( )( ) ( ) şeklinde olup, gerekli işlemler yapılırsa;

( ) = − 2 +

ifadesi elde edilir. Burada;

=

= 1,2, … , olarak tanımlanır.

5. UYGULAMA

Bu bölümde iki farklı uygulama yapılacaktır. İlk uygulama 2. Bölümde EKK kestiricisi için verilen uzaklık ölçüleri yardımıyla tek sapan gözlemlerin belirlenmesi, ikinci uygulamada ise 4. Bölümde verilen uzaklık ölçüleri yardımıyla tek sapan gözlemlerin belirlenmesidir.

5.1. Gelişmiş Ülkelerdeki Yaşam Döngü Tasarrrufu Verisi

Arlie Sterling (1977), Franco Modigliane (1975) tarafından geliştirilmiş yaşam döngü tasarrufu hipotezlerini kullanarak gelişmiş 50 ülke üzerinde topladığı

Arlie Sterling (1977), Franco Modigliane (1975) tarafından geliştirilmiş yaşam döngü tasarrufu hipotezlerini kullanarak gelişmiş 50 ülke üzerinde topladığı

Benzer Belgeler