• Sonuç bulunamadı

1. Ders Matrisler, Çok Değişkenli Normal Dağılım, Karesel Formlar ve Lineer Modeller

N/A
N/A
Protected

Academic year: 2022

Share "1. Ders Matrisler, Çok Değişkenli Normal Dağılım, Karesel Formlar ve Lineer Modeller"

Copied!
19
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

1. Ders

Matrisler, Çok Değişkenli Normal Dağılım, Karesel Formlar ve

Lineer Modeller

Bu derste matrisler, çok değişkenli normal dağılım, normal dağılımlı vektörlerin karesel formlarının dağılımı ve lineer modeller ile ilgili bazı hatırlatmalar yapacağız.

Matrislerin Genelleştirilmlş Đnversleri

A n m: × matrisi için AA A = A özelliğini sağlayan A m n: × matrisine A

nın g-inversi denir. Bir matrisin sonsuz tane g-inversi olabilir. A matrisi regüler ise A = A1 dır.

A matrisinin bir g-inversinin hesaplanması :

>>A =

[1 1 1 1 1 1 1 1 1];

>> [U D V]=svd(A);

>> r=rank(A);

%F,G,H isteksel (keyfi) matrisler

>> F=ones(r,size(A,1)-r); % F=rand(r,size(A,1)-r) olabilir

>> G=rand(size(A,2)-r,r); % G=zeros(size(A,2)-r,r) olabilir

>> H=rand(size(A,2)-r,size(A,1)-r); % H=ones(size(A,2)-r,size(A,1)-r) olabilir

>> ginvA=V*[inv(D(1:r,1:r)) F ; G H]*U'

ginvA =

-0.2943 -0.3043 -0.1574 1.9667 -0.1458 -0.5140 0.6609 -0.2165 0.0047

>> A*ginvA*A

1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

>> pinv(A)

0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111

>> A*pinv(A)*A

1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

(2)

Örnek

>> A=

[ 1.0000 1.0000 0.8147 0.1419 0.7060 0.4898 0.7513 1.0000 1.0000 0.9058 0.4218 0.0318 0.4456 0.2551 1.0000 1.0000 0.1270 0.9157 0.2769 0.6463 0.5060 1.0000 1.0000 0.9134 0.7922 0.0462 0.7094 0.6991 1.0000 1.0000 0.6324 0.9595 0.0971 0.7547 0.8909 1.0000 1.0000 0.0975 0.6557 0.8235 0.2760 0.9593 1.0000 1.0000 0.2785 0.0357 0.6948 0.6797 0.5472 1.0000 1.0000 0.5469 0.8491 0.3171 0.6551 0.1386 1.0000 1.0000 0.9575 0.9340 0.9502 0.1626 0.1493 1.0000 1.0000 0.9649 0.6787 0.0344 0.1190 0.2575 1.0000 1.0000 0.1576 0.7577 0.4387 0.4984 0.8407 1.0000 1.0000 0.9706 0.7431 0.3816 0.9597 0.2543 1.0000 1.0000 0.9572 0.3922 0.7655 0.3404 0.8143 1.0000 1.0000 0.4854 0.6555 0.7952 0.5853 0.2435 1.0000 1.0000 0.8003 0.1712 0.1869 0.2238 0.9293 ];

>> [U D V]=svd(A);

>> r=rank(A);

%F,G,H isteksel (keyfi) matrisler

>> F=rand(r,size(A,1)-r);

>> G=rand(size(A,2)-r,r);

>> H=rand(size(A,2)-r,size(A,1)-r);

>> ginvA=V*[inv(D(1:r,1:r)) F ; G H]*U'

invA =

Columns 1 through 9

-0.5799 1.0458 0.4512 0.7129 -0.1402 0.9847 0.0198 -0.7058 -0.0397 -1.2140 2.8284 -0.1956 1.5514 -1.3061 1.1640 1.4847 -0.4271 0.5270 -0.7175 1.7153 -0.4567 1.7339 -0.3243 0.8762 0.1978 -0.9652 0.6426 0.2068 -1.2409 0.1690 -0.6189 0.6085 -0.4534 -0.8495 0.4796 0.1592 -0.1398 0.3061 -0.2003 0.4168 -0.2722 0.6017 0.2334 -0.3936 0.5662 -0.1030 0.3769 -0.0250 0.6963 0.1375 0.0412 0.4212 -0.1640 -0.2337 1.3586 -2.6636 -0.0287 -1.7016 1.0615 -1.2744 -0.9126 0.7315 -0.6819 Columns 10 through 15

-0.5533 -0.3035 -0.7640 -0.4302 -0.5051 -0.3070 -0.3539 -0.7260 -0.4796 0.1476 -0.0191 -0.8674 -0.8845 -0.9141 -0.1010 0.4666 -0.4662 -0.8029 0.4697 0.4874 0.2669 -0.0366 0.1755 0.1768 -0.6873 -0.2953 -0.0067 0.3447 0.1007 -0.5744 -0.8610 -0.2866 0.5257 0.0282 0.0104 -0.5643 0.9021 1.0189 0.4717 0.1714 0.2138 1.3333

(3)

Ax=g Denklem Sisteminin Çözümü

* Denklem sisteminin tutarlı olması için gerek ve yeter şart

AA g = g

olmasıdır. (Burada A , A nın bir g-inversidir.)

* Denklem sistemi tutarlı olsun. x0 =G g nin bir çözüm olması için gerek ve yeter şart G matrisinin A nın bir g-inversi olmasıdır. z isteksel bir vektör olmak üzere,

x= A g + −(I A A z )

denklem sisteminin bir çözümüdür.

Örnek

Yij = +µ αi +εij , i =1 2, , j=1 2 3, ,

Y Y Y Y Y

11 12 13 21 22

1 2

23

L

N MM MM MM M

O

Q PP PP PP P

=

L

N MM MM MM M

O

Q PP PP PP P L N MM M

O Q PP P

+

1 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 0 1

µ α α

ε

modelinde,

X =

L

N MM MM MM M

O

Q PP PP PP P

1 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 0 1

, β µ α α

=

L N MM M

O Q PP

1

P

2

ve

X X' β=X Y'

normal denklemler,

(4)

..

1 1.

2 2.

6 3 3 ˆ ˆ 3 3 0

ˆ 3 0 3

Y Y Y µ α α

 

 

  =

 

 

 

Y Yij Y Y Y Y

j

i j

j j

j

.. = , . = , . =

=

= = =

1 3 1 2

1 1

1 3

2 2

1 3

olmak üzere, katsayılar matrisinin rankı 2 dir. Tutarlı olan bu denklem sisteminin birden çok (sonsuz) çözümü vardır.

6 3 3

' 3 3 0

3 0 3 X X

=

matrisi için

6 3 3 0 0 0 6 3 3 6 3 3

3 3 0 0 1/ 3 0 3 3 0 3 3 0

3 0 3 0 0 1/ 3 3 0 3 3 0 3

   

   

    =

   

   

   

olmak üzere,

1

0 0 0

( ' ) 0 1/ 3 0 0 0 1/ 3 X X

=

matrisi, X X' matrisinin bir g-inversidir.

6 3 3 1/ 6 0 0 6 3 3 6 3 3

3 3 0 1/ 6 1/ 3 0 3 3 0 3 3 0

3 0 3 1/ 6 0 1/ 3 3 0 3 3 0 3

   

   

    =

   

   

   

olmak üzere,

2

1/ 6 0 0

( ' ) 1/ 6 1/ 3 0 1/ 6 0 1/ 3 X X

= −

matrisi de X X' matrisinin bir g-inversidir. Bu iki g-invers yardımıyla,

..

1 1 1. 1.

2 1 2. 2.

ˆ 0 0 0 0

ˆ ( ' ) ' 0 1/ 3 0 1/ 3

ˆ 0 0 1/ 3 1/ 3

Y

X X X Y Y Y

Y Y

µ α α

 

 

= =   =

 

 

 

.. ..

1 1 1. 1. ..

2 2 2. 2. ..

ˆ 1/ 6 0 0 1/ 6

ˆ ( ' ) ' 1/ 6 1/ 3 0 1/ 3 1/ 6

ˆ 1/ 6 0 1/ 3 1/ 3 1/ 6

Y Y

X X X Y Y Y Y

Y Y Y

µ α α

 

 

= = −   =

 

 

 

(5)

gibi farklı iki çözüm elde edilebilir.

λ=

L N MM M

O Q PP P

6 3 3

için

1 1 1. 2.

2 1 2 2

ˆ ˆ

ˆ ˆ

' '

ˆ ˆ

Y Y

µ µ

λ α λ α

α α

= = +

dır.

yRn,X n: ×p olmak üzere Y=X β+ε lineer modelinde X X β=X y normal denklemlerin bir çözümü βˆ olmak üzere λ β' ˆ lineer bileşiminin (sayısının) bir tek olması için gerek ve yeter şart

' '( )

( )

X X X X X X X X

λ λ

λ λ

=

=

olmasıdır.

1 1 1' '2

2 2

( )

ˆ ˆ

( )

X X X X X X X X

λ λ

λ β λ β λ λ

=

=

=



λ: p×1 vektörünün X n: ×p matrisinin satır vektörlerinin gerdiği uzayda olması (yani λ'=c X' , ∃ ∈c Rn) için gerek ve yeter şart λ λ'= '(X X )X X

olmasıdır.

' ' , ' '( )

, ( )

n

n

c X c R X X X X

X c c R X X X X

λ λ λ

λ λ λ

= ∃ ∈ =

= ∃ ∈ =

(6)

Moore-Penrose Tipi Genelleştirilmiş Đnversler

X n: ×p matrisi için,

*

1) 2) 3) 4)

XX X X X XX X XX simetrik X X simetrik

+

+ +

+ +

 =

 =







koşullarını sağlayan bir tek X+ matrisi vardır. Bu matrise X matrisinin Moore-Penrose genelleştirilmiş inversi denir.

X Rn p× ,yRn olmak üzere Euclide normunda,

min y X min(y X ) (y X )

β β = β β β

problemin çözümü,

min y X y XX y

β β = +

dır. Üstelik β+ =X y+ vektörü, çözümü sağlayan β vektörleri içinde en küçük normludur.

Örnek:

>>A =

[1 1 1 1 1 1 1 1 1];

>> [U D V]=svd(A);

>> r=rank(A);

>> F=zeros(r,size(A,1)-r);

>> G=zeros(size(A,2)-r,r);

>> H=zeros(size(A,2)-r,size(A,1)-r);

>> ginvA=V*[inv(D(1:r,1:r)) F ; G H]*U'

0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111

>> pinv(A)

0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111

(7)

Lineer Modeller Parametre Tahmini

Y = Xβ ε+ modelinde, εN(0,σ2In) , (rank X n( : × p)= p), parametre kümesi,

Ω =

{

( ,β σ β2): Rp,σ2 >0

}

ve

( , 2 n) Y N Xβ σ I

olmak üzere, olabilirlik fonksiyonu

L Y e

n n

Y X Y X

( , ; )

( ) ( ) /

( ) ( )

β σ π σ σ

β β

2

2 2

1

1 2

2

= 2 ′ −

logaritması,

ln ( ,L ; )Y nln( ) nln( ) ( ) ( )

Y X Y X

β σ π σ

σ β β

2 2

2 2 2

2

1

= − 2 ′ −

= −n n ′ − ′ + ′ ′ Y Y Y X X X

2 2

2

1 2

2 2

ln( π) ln(σ ) 2( )

σ β β β

dır.

∂β β σ

σ β

(ln ( ,L 2; ))Y ( X Y X X )

2

1 2

2 2

= − ′ +

∂σ β σ

σ σ β β

2

2

2 2 2

2

1 2 (ln ( , ; ))

( )

( ) ( )

L Y n

Y X Y X

= − + ′ −

türevlerin sıfıra eşitlenmesiyle elde edilen,

= ′

= ′ −

R S|

T|

X X X Y

Y X Y X

n β

σ β β

2 ( ) ( )

denklem sisteminin, normal denklemler ismini taşıyan, X X β= ′X Y

denkleminden,

(X X) 1X Y X Y (rank X( ) p) βɶ= = + =

+( - )z , z p ( ( ) ) X Y I X X R rank X p

βɶ= + + <

ve ikinci denklemden,

2 (Y X ) (Y X )

n

β β

σ

=

ɶ ɶ

ɶ = 1 +

nY (I XX )Y

elde edilir.

(8)

* ˆ2 1 Y I( XX )Y n p

σ = +

, σ2 için yanlılığı düzeltilmiş en çok

olabilirlik tahmin edicisidir.

* βˆN( ,β σ2(X X ) )1 dır.

*

2 2

( )

2

ˆ

( )

n p

n p σ

σ χ

dır.

* βˆ ve σˆ2 bağımsızdır.

* i=1 2, ,...,p için ˆ ( )

ˆ

i i

n p ii

c t β β

σ

dır.

* βˆ ve σˆ2 , β ve σ2 için yeterli istatistiklerdir.

* βˆ ve σˆ2 tam istatistiklerdir.

* β ve σ2 nin reel değerli bir fonksiyonu t ( ,β σ2) olsun ve bu fonksiyonun yansız bir tahmin edicisi var olsun. O zaman βˆ ve σˆ2 tam yeterli istatistiklerinin bir g β σ( ,ˆ ˆ2) fonksiyonu vardır öyleki, g β σ( ,ˆ ˆ2) de

t ( ,β σ2) nin yansız tahmin edicisidir ve üstelik g β σ( ,ˆ ˆ2) tahmin edicisi düzgün olarak minimum varyans yansız tahmin edicidir (uniformly minimum variance unbiased estimator, UMVUE) (Graybill, 1976).

(9)

Lineer Tahmin Edilebilme

Tanım: Bir parametre (veya parametrenin bir foksiyonu) için yansız ve lineer (örneklemin lineer dönüşümü olan) bir tahmin edici varsa bu parametreye (parametrenin fonksiyonuna) lineer tahmin edilebilir veya kısaca tahmin edilebilir denir.

Y = Xβ ε+ modelinde X n: × p , (n> p) matrisinin rankı rank X( )= p

olduğunda β parametresi lineer tahmin edilebilir, çünkü Y örnekleminin

(X X )1X Y lineer fonksiyonunun beklenen değeri,

E (X X )1X Y′ = E (X X )1X(Xβ ε+ ) =β , ∀ ∈β Rp

dır. Model tam ranklı olmadığında, yani rank X( )= <k p olduğunda β parametresi lineer tahmin edilebilir mi? Başka bir ifade ile,

E(C ) = ,Y β ∀ ∈β Rp

olcak şekilde C p n: × matrisi varmıdır? Olduğunu varsayalım. O zaman, E(C ) = E C(Y Xβ ε+ ) = CXβ β= , ∀ ∈β Rp

olmalı, yani

CX = I olmalıdır. Ancak eşitliğin sağ tarafındaki birim matris p× p boyutlu olup

rankı p dır. Sol taraftaki matris için, rank CX( )≤ <k p

dır. Dolayısıyla varsayımımız doğru değildir.

E(C ) = , Y β ∀ ∈β Rp

olacak şekilde C matrisi yoktur, yani β nın lineer yansız bir tahmin edicisi yoktur. β parametresi lineer tahmin edilemez olmasına rağmen β nın bazı dönüşümleri tahmin edilebilir. Xβ için Y nin kendisi veya X X X( )1X Y

birer lineer yansız tahmin edicidir. Gerçekten, E Y( )= Xβ

E X X X( )1X Y′ = X X X( )1X X β = Xβ dır.

(10)

Örneğin,

Yij = +µ αi +εij , i =1 2, , j=1 2 3, ,

Y Y Y Y Y

11 12 13 21 22

1 2

23

L

N MM MM MM M

O

Q PP PP PP P

=

L

N MM MM MM M

O

Q PP PP PP P L N MM M

O Q PP P

+

1 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 0 1

µ α α

ε

modelinde,

X =

L

N MM MM MM M

O

Q PP PP PP P

1 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 0 1

, β µ α α

=

L N MM M

O Q PP

1

P

2

: 6 3

X × matrisinin rankı 2 dir. β vektörü lineer tahmin edilemez. Normal denklemler,

..

1 1.

2 2.

6 3 3 ˆ 3 3 0 ˆ 3 0 3 ˆ

Y Y Y µ α α

 

 

  =

 

 

 

Y Yij Y Y Y Y

j

i j

j j

j

.. = , . = , . =

=

= = =

1 3 1 2

1 1

1 3

2 2

1 3

olmak üzere X X katsayılar matrisinin rankı da 2 dir. Tutarlı olan bu denklem sisteminin birden çok (sonsuz) çözümü vardır. Ancak β nın bazı λ β' lineer bileşimlerinin farklı çözümlerde aldığı değerler aynı kalmaktadır, yani λ β' ˆ değerleri değişmemektedir. λS X( )= X , yani λ vektörü X

matrisinin satır uzayında olduğunda λ β' lar çözümlere göre değişmez kalmaktadır . Örneğin,

λ=

L N MM M

O Q PP P

6 3 3

, λ β' =6µ+3α1 +3α2

(11)

için λ β' ˆ değeri βˆ çözümlerine göre değişmez kalmaktadır ve, E Y E Yij

j

i i j

( ' )1 ( ) 6 3 3 '

1 3 1 2

1 2

1 3 1

= = 2 + + =

=

= = = µ α α λ β

olmak üzere λ β' =6µ+3α1+3α2 lineer bileşimi lineer tahmin edilebilirdir.

β parametre vektörünün λ β' , λRp biçimindeki lineer bileşimlerinden lineer tahmin edilebilir olanlar hangileridir?

Teorem: λ: p×1 bilinen sabitlerin bir vektörü olmak üzere λ β' tahmin edilebilir⇔ ∈λ [X']=[X X ]

dır.

Bu teoremden görüldüğü gibi λ β' lineer bileşiminin tahmin edilebilir olması için gerek ve yeter şart λ vektörünün X matrisinin satır vektörlerinin (X ′ matrisinin sütun vektörlerinin) ya da X X matrisinin sütun (satır, X X

simetrik) vektörlerinin gerdiği uzayda bulunmasıdır. λ vektörünün, X ′

matrisinin sütun uzayında bulunması özelliği aşağıdaki özelliklerden herhangibirine denktir.

λ[X'] , λ=X c' , λ=c X , ∃ ∈c Rn rank((X: )λ )=rank X( )

rank((X X : )λ )=rank X X( ) ⇔ ′ = ′ ′λ λ(X X)X X

⇔ ′ ′X (X )λ λ= (X c′ =λ denkleminin çözümünün varlığı)

1' , 2' ,..., q'

λ β λ β λ β lar lineer tahmin edilebilir ve λ λ1, 2,...,λq vektörleri lineer bağımsız ise bu lineer bileşimlere lineer bağımsız tahmin edilebilir fonksiyonlar denir.

(12)

Y= Xβ ε+ modelinde rank X( ) =k (k≤ <p n) ise k tane lineer bağımsız tahmin edilebilir fonksiyon vardır. βˆ=(X X )X Y olmak üzere, λ β

tahmin edilebilir fonksiyonun en iyi lineer yansız (BLU) tahmin edicisi λ βˆ

dır. σ2 için bir yansız tahmin edici,

ˆ2 Y Y ˆ X Y n k σ β

′ ′

=

dır. εN(0,σ2In) olması durumunda, λ β tahmin edilebilir fonksiyonunun düzgün minimum varyans yansız tahmin edicisi (UMVUE) λ βˆ dır ve

ˆ N( , 2 (X X) )

λ β λ β σ λ λ dağılımlıdır. σ2 nin düzgün minimum varyans yansız tahmin edicisi

2

ˆ

ˆ Y Y X Y

n k σ β

′ ′

=

dır.

Örnek

11 12

1 13

2 14

1 21

2 22

3 23

4 24

1 1 0 1 0 0 0 1 1 0 0 1 0 0 1 1 0 0 0 1 0 1 1 0 0 0 0 1 1 0 1 1 0 0 0 1 0 1 0 1 0 0 1 0 1 0 0 1 0 1 0 1 0 0 0 1 Y

Y Y Y Y Y Y Y

µ α α

ε τ τ τ τ

= +

  

veε N( ,0 σ2I) olmak üzere, ci

i i

=

1

2 α , ci

j j

=

1

4 τ lineer bileşimlerinden hangileri tahmin edilebilir ve bunların düzgün en küçük varyanslı yansız tahmin edicileri nedir?

Bu soruyu ele almadan önce lineer tahmin edilebilir fonksiyonlar için bir baz elde edelim ve baz fonksiyonlarının düzgün en küçük varyanslı

(13)

yansız tahmin edicilerini elde edelim. Bu amaçla modeldeki tasarım matrisi

X ile gösterilsin ve β µ α α τ τ τ τ= ( , 1, 2, 1, 2, 3, 4) olsun. Buna göre model, Y = Xβ ε+ , εN( ,0 σ2I)

ve rank X( )=5 , k =5,p=7,n=7 olmak üzere k < p dır. Model düşük ranklıdır.

′ =

L

N MM MM MM MM M

O

Q PP PP PP PP P

X X

8 4 4 2 2 2 2

4 4 0 1 1 1 1

4 0 4 1 1 1 1

2 1 1 1 0 0 0

2 1 1 0 1 0 0

2 1 1 0 0 1 0

2 1 1 0 0 0 1

, ′ =

L

N MM MM MM MM M

O

Q PP PP PP PP P

X Y Y Y Y Y Y Y Y

..

. . . . . . 1 2 1 2 3 4

ve normal denklemler (7 tane denklem),

1 2 1 2 3 4 ..

ˆ ˆ ˆ ˆ ˆ ˆ ˆ

8µ+4α +4α +2τ +2τ +2τ +2τ =Y

1 2 3 4 .

ˆ ˆ ˆ ˆ ˆ ˆ

4µ+4αi+τ +τ +τ +τ =Yi , i=1, 2

1 2 .

ˆ ˆ ˆ 2ˆj Yj , j 1, 2, 3, 4 µ+α +α + τ = =

olmak üzere 5 tane lineer bağımsız parametrik fonksiyon (baz fonksiyonları)

X X matrisinin satırlarından 5 tanesini seçerek (örneğin 1,2,4,5,6 veya 1,2,4,5,7 ile) oluşturulabilir, yada X X in satırlarının lineer bileşimi olan lineer bağımsız 5 tane satır vektörü alınabilir. i=1 2, için normal denklemlerin ikinci ve üçüncü denkleminin (X X matrisinin ikinci ve üçüncü satırlarının) farkı alınırsa µ τ τ τ τˆ ˆ ˆ, 1, 2,ˆ3, ˆ4 terimleri yok olmaktadır. Benzer şekilde J =1 2 3 4, , , için iki denklemin farkı alınırsa µ α α, 1, 2 terimleri yok olmaktadır. Birinci denklemin de gözönüne alınmasıyla, örneğin,

1.satırdan : 8µ+4α1+4α2+2τ1+2τ2+2τ3+2τ4 2.satır eksi 3. satırdan : 4α14α2

4.satır eksi 5. satırdan : 2τ12τ2

4. satır eksi 6.satırdan : 2τ12τ3

4.satır eksi 7. satırdan : 2τ12τ4

(14)

lineer parametrik fonksiyonları bağımsızdır. Bunların düzgün en küçük varyanslı yansız tahmin edicileri, µ α α τ τ τ τˆ ˆ, 1, ˆ2, ˆ ˆ1, 2,ˆ3,ˆ4 normal denklemlerin herhangibir çözümü olmak üzere, bu çözümlerin µ α α τ τ τ τ, 1, 2, 1, 2, 3, 4 ler yerine yazılmasıyla elde edilir. Ancak buna gerek yoktur, çünkü,

1 2 1 2 3 4 ..

ˆ ˆ ˆ ˆ ˆ ˆ ˆ

8µ+4α +4α +2τ +2τ +2τ +2τ =Y

1 2 1. 2.

ˆ ˆ

4α 4α =Y Y

1 2 .1 .2

ˆ ˆ

2τ 2τ =Y Y

1 3 .1 .3

ˆ ˆ

2τ 2τ =Y Y

1 4 .1 .4

ˆ ˆ

2τ 2τ =Y Y

dır. Şimdi sorumuza dönelim. Görüldüğü gibi,

ci i c c

i

α α α

=

= +

1 2

1 1 2 2

lineer bileşimi baz fonksiyonları cinsinden, yani baz fonksiyonlarının lineer bileşimi olarak, 4α14α2 nin k , (kR) katı olarak,

c1 1α +c2 2α =k(4α14α2) , kR

biçiminde yazılabilir. Buna göre c1= −c2 olmalıdır.

ci i

j

= τ

1

4 lineer bileşimi baz fonksiyonları cinsinden,

ci i k k k

j

τ τ τ τ τ τ τ

=

= +

1 4

1(2 1 2 2)+ 2(2 1 2 3) 3(2 1 2 4) (k1,k2,k3 R)

biçiminde yazılabilir. Buna göre τ τ τ τ1, 2, 3, 4 R için

c1 1τ +c2 2τ +c3 3τ +c4 4τ =2(k1+k2+k3)τ12k1 2τ 2k2 3τ 2k3 4τ

olmalıdır. Buna göre,

c1=2k1+2k2+2k3

c2 = −2k1

c2 = −2k2

c3= −2k3

olmalıdır. Bu durumda da c katsayılarının toplamının sıfır olduğuna dikkat ediniz. ci i

j

= τ

1

4 tahmin edilebilir olması için ci

j= =

1 4

0olmalıdır.

Referanslar

Benzer Belgeler

2000’li yılların başında siyah nüfustaki yüksek işsizlik rakamları, siyahların sahip olduğu işletmelerin değerinin hala çok düşük seviyede olması ve

Ax=c denklem sisteminin bir ya da birden fazla çözümü varsa Tutarlıdır (consistent) Ax=c denklem sisteminin çözümü yoksa Tutarsızdır (inconsistent).. Teorem: Ax=c

Eğer P matrisi (iii) ve (iv) eşitliklerini sağlıyorsa ortogonal projeksiyon matrisi olarak adlandırılır. Burada, A mxn elemanları bilinen bir matris ve β nx1

ifadesi n serbestlik derecesi ve merkezi olmama parametresi ile merkezi olmayan ki-kare dağılımına sahiptir... için gerek ve

Hafta Karesel Formların Ortalama ve Varyansı Teorem: y’Ay karesel formunun beklenen değeri..

gibi modeller olarak ifade edilen genel lineer modelin örnekleri olarak verilebilir.. Not: Regresyon modelinde tasarım matrisi X tam

Kolaylık olması bakımından bu örneği k=1 (Basit Doğrusal Regresyon) modeli için çözelim.. Aşağıdaki teoremlerde X matrisinin sabitlerden oluşan ve tam ranklı olduğu

Örnek: Bir çalışmada dönüm başına elde edilen verim ile dönüm başına kullanılan gübre miktarı arasındaki ilişki araştırılıyor ve aşağıdaki tablodaki sonuçlar