1. Ders
Matrisler, Çok Değişkenli Normal Dağılım, Karesel Formlar ve
Lineer Modeller
Bu derste matrisler, çok değişkenli normal dağılım, normal dağılımlı vektörlerin karesel formlarının dağılımı ve lineer modeller ile ilgili bazı hatırlatmalar yapacağız.
Matrislerin Genelleştirilmlş Đnversleri
A n m: × matrisi için AA A− = A özelliğini sağlayan A m n−: × matrisine A
nın g-inversi denir. Bir matrisin sonsuz tane g-inversi olabilir. A matrisi regüler ise A− = A−1 dır.
A matrisinin bir g-inversinin hesaplanması :
>>A =
[1 1 1 1 1 1 1 1 1];
>> [U D V]=svd(A);
>> r=rank(A);
%F,G,H isteksel (keyfi) matrisler
>> F=ones(r,size(A,1)-r); % F=rand(r,size(A,1)-r) olabilir
>> G=rand(size(A,2)-r,r); % G=zeros(size(A,2)-r,r) olabilir
>> H=rand(size(A,2)-r,size(A,1)-r); % H=ones(size(A,2)-r,size(A,1)-r) olabilir
>> ginvA=V*[inv(D(1:r,1:r)) F ; G H]*U'
ginvA =
-0.2943 -0.3043 -0.1574 1.9667 -0.1458 -0.5140 0.6609 -0.2165 0.0047
>> A*ginvA*A
1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
>> pinv(A)
0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111
>> A*pinv(A)*A
1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
Örnek
>> A=
[ 1.0000 1.0000 0.8147 0.1419 0.7060 0.4898 0.7513 1.0000 1.0000 0.9058 0.4218 0.0318 0.4456 0.2551 1.0000 1.0000 0.1270 0.9157 0.2769 0.6463 0.5060 1.0000 1.0000 0.9134 0.7922 0.0462 0.7094 0.6991 1.0000 1.0000 0.6324 0.9595 0.0971 0.7547 0.8909 1.0000 1.0000 0.0975 0.6557 0.8235 0.2760 0.9593 1.0000 1.0000 0.2785 0.0357 0.6948 0.6797 0.5472 1.0000 1.0000 0.5469 0.8491 0.3171 0.6551 0.1386 1.0000 1.0000 0.9575 0.9340 0.9502 0.1626 0.1493 1.0000 1.0000 0.9649 0.6787 0.0344 0.1190 0.2575 1.0000 1.0000 0.1576 0.7577 0.4387 0.4984 0.8407 1.0000 1.0000 0.9706 0.7431 0.3816 0.9597 0.2543 1.0000 1.0000 0.9572 0.3922 0.7655 0.3404 0.8143 1.0000 1.0000 0.4854 0.6555 0.7952 0.5853 0.2435 1.0000 1.0000 0.8003 0.1712 0.1869 0.2238 0.9293 ];
>> [U D V]=svd(A);
>> r=rank(A);
%F,G,H isteksel (keyfi) matrisler
>> F=rand(r,size(A,1)-r);
>> G=rand(size(A,2)-r,r);
>> H=rand(size(A,2)-r,size(A,1)-r);
>> ginvA=V*[inv(D(1:r,1:r)) F ; G H]*U'
invA =
Columns 1 through 9
-0.5799 1.0458 0.4512 0.7129 -0.1402 0.9847 0.0198 -0.7058 -0.0397 -1.2140 2.8284 -0.1956 1.5514 -1.3061 1.1640 1.4847 -0.4271 0.5270 -0.7175 1.7153 -0.4567 1.7339 -0.3243 0.8762 0.1978 -0.9652 0.6426 0.2068 -1.2409 0.1690 -0.6189 0.6085 -0.4534 -0.8495 0.4796 0.1592 -0.1398 0.3061 -0.2003 0.4168 -0.2722 0.6017 0.2334 -0.3936 0.5662 -0.1030 0.3769 -0.0250 0.6963 0.1375 0.0412 0.4212 -0.1640 -0.2337 1.3586 -2.6636 -0.0287 -1.7016 1.0615 -1.2744 -0.9126 0.7315 -0.6819 Columns 10 through 15
-0.5533 -0.3035 -0.7640 -0.4302 -0.5051 -0.3070 -0.3539 -0.7260 -0.4796 0.1476 -0.0191 -0.8674 -0.8845 -0.9141 -0.1010 0.4666 -0.4662 -0.8029 0.4697 0.4874 0.2669 -0.0366 0.1755 0.1768 -0.6873 -0.2953 -0.0067 0.3447 0.1007 -0.5744 -0.8610 -0.2866 0.5257 0.0282 0.0104 -0.5643 0.9021 1.0189 0.4717 0.1714 0.2138 1.3333
Ax=g Denklem Sisteminin Çözümü
* Denklem sisteminin tutarlı olması için gerek ve yeter şart
AA g− = g
olmasıdır. (Burada A− , A nın bir g-inversidir.)
* Denklem sistemi tutarlı olsun. x0 =G g nin bir çözüm olması için gerek ve yeter şart G matrisinin A nın bir g-inversi olmasıdır. z isteksel bir vektör olmak üzere,
x= A g− + −(I A A z− )
denklem sisteminin bir çözümüdür.
Örnek
Yij = +µ αi +εij , i =1 2, , j=1 2 3, ,
Y Y Y Y Y
11 12 13 21 22
1 2
23
L
N MM MM MM M
O
Q PP PP PP P
=
L
N MM MM MM M
O
Q PP PP PP P L N MM M
O Q PP P
+1 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 0 1
µ α α
ε
modelinde,
X =
L
N MM MM MM M
O
Q PP PP PP P
1 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 0 1
, β µ α α
=
L N MM M
O Q PP
1
P
2
ve
X X' β=X Y'
normal denklemler,
..
1 1.
2 2.
6 3 3 ˆ ˆ 3 3 0
ˆ 3 0 3
Y Y Y µ α α
=
Y Yij Y Y Y Y
j
i j
j j
j
.. = ∑ ∑ , . = ∑ , . = ∑
=
= = =
1 3 1 2
1 1
1 3
2 2
1 3
olmak üzere, katsayılar matrisinin rankı 2 dir. Tutarlı olan bu denklem sisteminin birden çok (sonsuz) çözümü vardır.
6 3 3
' 3 3 0
3 0 3 X X
=
matrisi için
6 3 3 0 0 0 6 3 3 6 3 3
3 3 0 0 1/ 3 0 3 3 0 3 3 0
3 0 3 0 0 1/ 3 3 0 3 3 0 3
=
olmak üzere,
1
0 0 0
( ' ) 0 1/ 3 0 0 0 1/ 3 X X −
=
matrisi, X X' matrisinin bir g-inversidir.
6 3 3 1/ 6 0 0 6 3 3 6 3 3
3 3 0 1/ 6 1/ 3 0 3 3 0 3 3 0
3 0 3 1/ 6 0 1/ 3 3 0 3 3 0 3
− =
−
olmak üzere,
2
1/ 6 0 0
( ' ) 1/ 6 1/ 3 0 1/ 6 0 1/ 3 X X −
= −
−
matrisi de X X' matrisinin bir g-inversidir. Bu iki g-invers yardımıyla,
..
1 1 1. 1.
2 1 2. 2.
ˆ 0 0 0 0
ˆ ( ' ) ' 0 1/ 3 0 1/ 3
ˆ 0 0 1/ 3 1/ 3
Y
X X X Y Y Y
Y Y
µ α α
−
= = =
.. ..
1 1 1. 1. ..
2 2 2. 2. ..
ˆ 1/ 6 0 0 1/ 6
ˆ ( ' ) ' 1/ 6 1/ 3 0 1/ 3 1/ 6
ˆ 1/ 6 0 1/ 3 1/ 3 1/ 6
Y Y
X X X Y Y Y Y
Y Y Y
µ α α
−
= = − = −
− −
gibi farklı iki çözüm elde edilebilir.
λ=
L N MM M
O Q PP P
6 3 3
için
1 1 1. 2.
2 1 2 2
ˆ ˆ
ˆ ˆ
' '
ˆ ˆ
Y Y
µ µ
λ α λ α
α α
= = +
dır.
y∈Rn,X n: ×p olmak üzere Y=X β+ε lineer modelinde X X′ β=X y′ normal denklemlerin bir çözümü βˆ olmak üzere λ β' ˆ lineer bileşiminin (sayısının) bir tek olması için gerek ve yeter şart
' '( )
( )
X X X X X X X X
λ λ
λ λ
−
−
′ ′
=
′ ′ =
olmasıdır.
1 1 1' '2
2 2
( )
ˆ ˆ
( )
X X X X X X X X
λ λ
λ β λ β λ λ
−
−
′ ′ =
⇔ =
′ ′ =
λ: p×1 vektörünün X n: ×p matrisinin satır vektörlerinin gerdiği uzayda olması (yani λ'=c X' , ∃ ∈c Rn) için gerek ve yeter şart λ λ'= '(X X′ )−X X′
olmasıdır.
' ' , ' '( )
, ( )
n
n
c X c R X X X X
X c c R X X X X
λ λ λ
λ λ λ
−
−
′ ′
= ∃ ∈ ⇔ =
′ ′
= ∃ ∈ ⇔ =
Moore-Penrose Tipi Genelleştirilmiş Đnversler
∀X n: ×p matrisi için,
*
1) 2) 3) 4)
XX X X X XX X XX simetrik X X simetrik
+
+ +
+ +
=
=
koşullarını sağlayan bir tek X+ matrisi vardır. Bu matrise X matrisinin Moore-Penrose genelleştirilmiş inversi denir.
X ∈Rn p× ,y∈Rn olmak üzere Euclide normunda,
min y X min(y X ) (y X )
β − β = β − β ′ − β
problemin çözümü,
min y X y XX y
β − β = − +
dır. Üstelik β+ =X y+ vektörü, çözümü sağlayan β vektörleri içinde en küçük normludur.
Örnek:
>>A =
[1 1 1 1 1 1 1 1 1];
>> [U D V]=svd(A);
>> r=rank(A);
>> F=zeros(r,size(A,1)-r);
>> G=zeros(size(A,2)-r,r);
>> H=zeros(size(A,2)-r,size(A,1)-r);
>> ginvA=V*[inv(D(1:r,1:r)) F ; G H]*U'
0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111
>> pinv(A)
0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111 0.1111
Lineer Modeller Parametre Tahmini
Y = Xβ ε+ modelinde, ε∼N(0,σ2In) , (rank X n( : × p)= p), parametre kümesi,
Ω =
{
( ,β σ β2): ∈Rp,σ2 >0}
ve
( , 2 n) Y ∼N Xβ σ I
olmak üzere, olabilirlik fonksiyonu
L Y e
n n
Y X Y X
( , ; )
( ) ( ) /
( ) ( )
β σ π σ σ
β β
2
2 2
1
1 2
2
= − 2 − ′ −
logaritması,
ln ( ,L ; )Y nln( ) nln( ) ( ) ( )
Y X Y X
β σ π σ
σ β β
2 2
2 2 2
2
1
= − − −2 − ′ −
= −n −n − ′ − ′ + ′ ′ Y Y Y X X X
2 2
2
1 2
2 2
ln( π) ln(σ ) 2( )
σ β β β
dır.
∂
∂β β σ
σ β
(ln ( ,L 2; ))Y ( X Y X X )
2
1 2
2 2
= − − ′ + ′
∂
∂σ β σ
σ σ β β
2
2
2 2 2
2
1 2 (ln ( , ; ))
( )
( ) ( )
L Y n
Y X Y X
= − + − ′ −
türevlerin sıfıra eşitlenmesiyle elde edilen,
′ = ′
= − ′ −
R S|
T|
X X X Y
Y X Y X
n β
σ β β
2 ( ) ( )
denklem sisteminin, normal denklemler ismini taşıyan, X X′ β= ′X Y
denkleminden,
(X X) 1X Y X Y (rank X( ) p) βɶ= ′ − ′ = + =
+( - )z , z p ( ( ) ) X Y I X X R rank X p
βɶ= + + ∈ <
ve ikinci denklemden,
2 (Y X ) (Y X )
n
β β
σ − ′ −
=
ɶ ɶ
ɶ = 1 ′ − +
nY (I XX )Y
elde edilir.
* ˆ2 1 Y I( XX )Y n p
σ = ′ − +
− , σ2 için yanlılığı düzeltilmiş en çok
olabilirlik tahmin edicisidir.
* βˆ∼N( ,β σ2(X X′ ) )−1 dır.
*
2 2
( )
2
ˆ
( )
n p
n p σ
σ χ −
− ∼ dır.
* βˆ ve σˆ2 bağımsızdır.
* i=1 2, ,...,p için ˆ ( )
ˆ
i i
n p ii
c t β β
σ −
− ∼ dır.
* βˆ ve σˆ2 , β ve σ2 için yeterli istatistiklerdir.
* βˆ ve σˆ2 tam istatistiklerdir.
* β ve σ2 nin reel değerli bir fonksiyonu t ( ,β σ2) olsun ve bu fonksiyonun yansız bir tahmin edicisi var olsun. O zaman βˆ ve σˆ2 tam yeterli istatistiklerinin bir g β σ( ,ˆ ˆ2) fonksiyonu vardır öyleki, g β σ( ,ˆ ˆ2) de
t ( ,β σ2) nin yansız tahmin edicisidir ve üstelik g β σ( ,ˆ ˆ2) tahmin edicisi düzgün olarak minimum varyans yansız tahmin edicidir (uniformly minimum variance unbiased estimator, UMVUE) (Graybill, 1976).
Lineer Tahmin Edilebilme
Tanım: Bir parametre (veya parametrenin bir foksiyonu) için yansız ve lineer (örneklemin lineer dönüşümü olan) bir tahmin edici varsa bu parametreye (parametrenin fonksiyonuna) lineer tahmin edilebilir veya kısaca tahmin edilebilir denir.
Y = Xβ ε+ modelinde X n: × p , (n> p) matrisinin rankı rank X( )= p
olduğunda β parametresi lineer tahmin edilebilir, çünkü Y örnekleminin
(X X′ )−1X Y′ lineer fonksiyonunun beklenen değeri,
E (X X′ )−1X Y′ = E (X X′ )−1X′(Xβ ε+ ) =β , ∀ ∈β Rp
dır. Model tam ranklı olmadığında, yani rank X( )= <k p olduğunda β parametresi lineer tahmin edilebilir mi? Başka bir ifade ile,
E(C ) = ,Y β ∀ ∈β Rp
olcak şekilde C p n: × matrisi varmıdır? Olduğunu varsayalım. O zaman, E(C ) = E C(Y Xβ ε+ ) = CXβ β= , ∀ ∈β Rp
olmalı, yani
CX = I olmalıdır. Ancak eşitliğin sağ tarafındaki birim matris p× p boyutlu olup
rankı p dır. Sol taraftaki matris için, rank CX( )≤ <k p
dır. Dolayısıyla varsayımımız doğru değildir.
E(C ) = , Y β ∀ ∈β Rp
olacak şekilde C matrisi yoktur, yani β nın lineer yansız bir tahmin edicisi yoktur. β parametresi lineer tahmin edilemez olmasına rağmen β nın bazı dönüşümleri tahmin edilebilir. Xβ için Y nin kendisi veya X X X( ′ )−1X Y′
birer lineer yansız tahmin edicidir. Gerçekten, E Y( )= Xβ
E X X X( ′ )−1X Y′ = X X X( ′ )−1X X′ β = Xβ dır.
Örneğin,
Yij = +µ αi +εij , i =1 2, , j=1 2 3, ,
Y Y Y Y Y
11 12 13 21 22
1 2
23
L
N MM MM MM M
O
Q PP PP PP P
=
L
N MM MM MM M
O
Q PP PP PP P L N MM M
O Q PP P
+1 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 0 1
µ α α
ε
modelinde,
X =
L
N MM MM MM M
O
Q PP PP PP P
1 1 0 1 1 0 1 1 0 1 0 1 1 0 1 1 0 1
, β µ α α
=
L N MM M
O Q PP
1
P
2
: 6 3
X × matrisinin rankı 2 dir. β vektörü lineer tahmin edilemez. Normal denklemler,
..
1 1.
2 2.
6 3 3 ˆ 3 3 0 ˆ 3 0 3 ˆ
Y Y Y µ α α
=
Y Yij Y Y Y Y
j
i j
j j
j
.. = ∑ ∑ , . = ∑ , . = ∑
=
= = =
1 3 1 2
1 1
1 3
2 2
1 3
olmak üzere X X′ katsayılar matrisinin rankı da 2 dir. Tutarlı olan bu denklem sisteminin birden çok (sonsuz) çözümü vardır. Ancak β nın bazı λ β' lineer bileşimlerinin farklı çözümlerde aldığı değerler aynı kalmaktadır, yani λ β' ˆ değerleri değişmemektedir. λ∈S X( )= X′ , yani λ vektörü X
matrisinin satır uzayında olduğunda λ β' lar çözümlere göre değişmez kalmaktadır . Örneğin,
λ=
L N MM M
O Q PP P
6 3 3
, λ β' =6µ+3α1 +3α2
için λ β' ˆ değeri βˆ çözümlerine göre değişmez kalmaktadır ve, E Y E Yij
j
i i j
( ' )1 ( ) 6 3 3 '
1 3 1 2
1 2
1 3 1
= ∑ ∑ = ∑2 ∑ + + =
=
= = = µ α α λ β
olmak üzere λ β' =6µ+3α1+3α2 lineer bileşimi lineer tahmin edilebilirdir.
β parametre vektörünün λ β' , λ∈Rp biçimindeki lineer bileşimlerinden lineer tahmin edilebilir olanlar hangileridir?
Teorem: λ: p×1 bilinen sabitlerin bir vektörü olmak üzere λ β' tahmin edilebilir⇔ ∈λ [X']=[X X′ ]
dır.
Bu teoremden görüldüğü gibi λ β' lineer bileşiminin tahmin edilebilir olması için gerek ve yeter şart λ vektörünün X matrisinin satır vektörlerinin (X ′ matrisinin sütun vektörlerinin) ya da X X′ matrisinin sütun (satır, X X′
simetrik) vektörlerinin gerdiği uzayda bulunmasıdır. λ vektörünün, X ′
matrisinin sütun uzayında bulunması özelliği aşağıdaki özelliklerden herhangibirine denktir.
λ∈[X'] , λ=X c' , λ′=c X′ , ∃ ∈c Rn ⇒rank((X′: )λ )=rank X( ′)
⇔rank((X X′ : )λ )=rank X X( ′ ) ⇔ ′ = ′ ′λ λ(X X)−X X′
⇔ ′ ′X (X )−λ λ= (X c′ =λ denkleminin çözümünün varlığı)
1' , 2' ,..., q'
λ β λ β λ β lar lineer tahmin edilebilir ve λ λ1, 2,...,λq vektörleri lineer bağımsız ise bu lineer bileşimlere lineer bağımsız tahmin edilebilir fonksiyonlar denir.
Y= Xβ ε+ modelinde rank X( ) =k (k≤ <p n) ise k tane lineer bağımsız tahmin edilebilir fonksiyon vardır. βˆ=(X X′ )−X Y′ olmak üzere, λ β′
tahmin edilebilir fonksiyonun en iyi lineer yansız (BLU) tahmin edicisi λ β′ˆ
dır. σ2 için bir yansız tahmin edici,
ˆ2 Y Y ˆ X Y n k σ β
′ − ′ ′
= −
dır. ε∼N(0,σ2In) olması durumunda, λ β′ tahmin edilebilir fonksiyonunun düzgün minimum varyans yansız tahmin edicisi (UMVUE) λ β′ˆ dır ve
ˆ N( , 2 (X X) )
λ β′ ∼ λ β σ λ′ ′ ′ −λ′ dağılımlıdır. σ2 nin düzgün minimum varyans yansız tahmin edicisi
2
ˆ
ˆ Y Y X Y
n k σ β
′ − ′ ′
= −
dır.
Örnek
11 12
1 13
2 14
1 21
2 22
3 23
4 24
1 1 0 1 0 0 0 1 1 0 0 1 0 0 1 1 0 0 0 1 0 1 1 0 0 0 0 1 1 0 1 1 0 0 0 1 0 1 0 1 0 0 1 0 1 0 0 1 0 1 0 1 0 0 0 1 Y
Y Y Y Y Y Y Y
µ α α
ε τ τ τ τ
= +
veε∼ N( ,0 σ2I) olmak üzere, ci
i i
=
∑
1
2 α , ci
j j
=
∑
1
4 τ lineer bileşimlerinden hangileri tahmin edilebilir ve bunların düzgün en küçük varyanslı yansız tahmin edicileri nedir?
Bu soruyu ele almadan önce lineer tahmin edilebilir fonksiyonlar için bir baz elde edelim ve baz fonksiyonlarının düzgün en küçük varyanslı
yansız tahmin edicilerini elde edelim. Bu amaçla modeldeki tasarım matrisi
X ile gösterilsin ve β µ α α τ τ τ τ= ( , 1, 2, 1, 2, 3, 4)′ olsun. Buna göre model, Y = Xβ ε+ , ε∼N( ,0 σ2I)
ve rank X( )=5 , k =5,p=7,n=7 olmak üzere k < p dır. Model düşük ranklıdır.
′ =
L
N MM MM MM MM M
O
Q PP PP PP PP P
X X
8 4 4 2 2 2 2
4 4 0 1 1 1 1
4 0 4 1 1 1 1
2 1 1 1 0 0 0
2 1 1 0 1 0 0
2 1 1 0 0 1 0
2 1 1 0 0 0 1
, ′ =
L
N MM MM MM MM M
O
Q PP PP PP PP P
X Y Y Y Y Y Y Y Y
..
. . . . . . 1 2 1 2 3 4
ve normal denklemler (7 tane denklem),
1 2 1 2 3 4 ..
ˆ ˆ ˆ ˆ ˆ ˆ ˆ
8µ+4α +4α +2τ +2τ +2τ +2τ =Y
1 2 3 4 .
ˆ ˆ ˆ ˆ ˆ ˆ
4µ+4αi+τ +τ +τ +τ =Yi , i=1, 2
1 2 .
ˆ ˆ ˆ 2ˆj Yj , j 1, 2, 3, 4 µ+α +α + τ = =
olmak üzere 5 tane lineer bağımsız parametrik fonksiyon (baz fonksiyonları)
′
X X matrisinin satırlarından 5 tanesini seçerek (örneğin 1,2,4,5,6 veya 1,2,4,5,7 ile) oluşturulabilir, yada X X′ in satırlarının lineer bileşimi olan lineer bağımsız 5 tane satır vektörü alınabilir. i=1 2, için normal denklemlerin ikinci ve üçüncü denkleminin (X X′ matrisinin ikinci ve üçüncü satırlarının) farkı alınırsa µ τ τ τ τˆ ˆ ˆ, 1, 2,ˆ3, ˆ4 terimleri yok olmaktadır. Benzer şekilde J =1 2 3 4, , , için iki denklemin farkı alınırsa µ α α, 1, 2 terimleri yok olmaktadır. Birinci denklemin de gözönüne alınmasıyla, örneğin,
1.satırdan : 8µ+4α1+4α2+2τ1+2τ2+2τ3+2τ4 2.satır eksi 3. satırdan : 4α1−4α2
4.satır eksi 5. satırdan : 2τ1−2τ2
4. satır eksi 6.satırdan : 2τ1−2τ3
4.satır eksi 7. satırdan : 2τ1−2τ4
lineer parametrik fonksiyonları bağımsızdır. Bunların düzgün en küçük varyanslı yansız tahmin edicileri, µ α α τ τ τ τˆ ˆ, 1, ˆ2, ˆ ˆ1, 2,ˆ3,ˆ4 normal denklemlerin herhangibir çözümü olmak üzere, bu çözümlerin µ α α τ τ τ τ, 1, 2, 1, 2, 3, 4 ler yerine yazılmasıyla elde edilir. Ancak buna gerek yoktur, çünkü,
1 2 1 2 3 4 ..
ˆ ˆ ˆ ˆ ˆ ˆ ˆ
8µ+4α +4α +2τ +2τ +2τ +2τ =Y
1 2 1. 2.
ˆ ˆ
4α −4α =Y −Y
1 2 .1 .2
ˆ ˆ
2τ −2τ =Y −Y
1 3 .1 .3
ˆ ˆ
2τ −2τ =Y −Y
1 4 .1 .4
ˆ ˆ
2τ −2τ =Y −Y
dır. Şimdi sorumuza dönelim. Görüldüğü gibi,
ci i c c
i
α α α
=
∑ = +
1 2
1 1 2 2
lineer bileşimi baz fonksiyonları cinsinden, yani baz fonksiyonlarının lineer bileşimi olarak, 4α1−4α2 nin k , (k∈R) katı olarak,
c1 1α +c2 2α =k(4α1−4α2) , k∈R
biçiminde yazılabilir. Buna göre c1= −c2 olmalıdır.
ci i
j
= τ
∑
1
4 lineer bileşimi baz fonksiyonları cinsinden,
ci i k k k
j
τ τ τ τ τ τ τ
=
∑ = − − + −
1 4
1(2 1 2 2)+ 2(2 1 2 3) 3(2 1 2 4) (k1,k2,k3 ∈R)
biçiminde yazılabilir. Buna göre ∀τ τ τ τ1, 2, 3, 4 ∈R için
c1 1τ +c2 2τ +c3 3τ +c4 4τ =2(k1+k2+k3)τ1−2k1 2τ −2k2 3τ −2k3 4τ
olmalıdır. Buna göre,
c1=2k1+2k2+2k3
c2 = −2k1
c2 = −2k2
c3= −2k3
olmalıdır. Bu durumda da c katsayılarının toplamının sıfır olduğuna dikkat ediniz. ci i
j
= τ
∑
1
4 tahmin edilebilir olması için ci
j∑= =
1 4
0olmalıdır.