• Sonuç bulunamadı

Nokta Tahmin Edicilerin Özellikleri-2. örneklem olsun. 2. θ için başka bir yansız tahmin edici T ve E(T) = θ olmak üzere

N/A
N/A
Protected

Academic year: 2022

Share "Nokta Tahmin Edicilerin Özellikleri-2. örneklem olsun. 2. θ için başka bir yansız tahmin edici T ve E(T) = θ olmak üzere"

Copied!
17
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

Doç. Dr. Vedat SAĞLAM Sayfa 1

Nokta Tahmin Edicilerin Özellikleri-2

Tanım. 𝑋1, 𝑋2,… , 𝑋𝑛 olasılık yoğunluk fonksiyonu 𝑓(𝑥, 𝜃) bir kitleden çekilen örneklem olsun.

1. 𝐸(𝑇) = 𝜃

2. 𝜃 için başka bir yansız tahmin edici 𝑇 ve 𝐸(𝑇) = 𝜃 olmak üzere

𝑉𝑎𝑟(𝑇) ≤ 𝑉𝑎𝑟(𝑇)

Eşitsizliği ∀ 𝜃 𝜖 𝚯 için sağlanıyorsa( buradaki 𝚯 parametre kümesidir, 𝚯 örneğin Bernoulli dağılımı için, 𝚯 = [0, 1]).

𝑇 tahmin edicisi 𝜃 için düzgün, en küçük varyanslı, yansız tahmin edicidir.(UMVUE)

𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı

𝑓(𝑥; 𝜃) 𝜃 ya göre iki kez türevlenebilir olsun. ∫−∞ 𝑓(𝑥; 𝜃)𝑑𝑥 𝜃 ya göre iki kez türevlenebilir olsun.

∫ 𝑓(𝑥; 𝜃)𝑑𝑥

−∞

= 1 Her iki tarafın 𝜃 ya göre türevi alınırsa

𝑑

𝑑𝜃∫ 𝑓(𝑥; 𝜃)𝑑𝑥

−∞

= 𝑑

𝑑𝜃(1) = 0

∫ 𝑑

𝑑𝜃𝑓(𝑥; 𝜃)𝑑𝑥

−∞

= 0

∫ 𝑑

𝑑𝜃𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃) 𝑓(𝑥; 𝜃)𝑑𝑥

−∞

= 0

∫ 𝑑

𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃)𝑑𝑥

−∞

= 0 (∗)

Not. 𝐸(𝑔(𝑋)) = ∫ 𝑔(𝑥) 𝑓(𝑥)𝑑𝑥

𝐸 ( 𝑑

𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃)) = 𝐸(𝑆(𝑋; 𝜃)) = 0 𝑆(𝑋; 𝜃) = 𝑑

𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃) ifadesine Skor fonksiyonu denir.

(2)

Doç. Dr. Vedat SAĞLAM Sayfa 2

(∗) ifadesinin 2.türevini alırsak

∫ 𝑑2

𝑑𝜃2𝑙𝑛𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃)𝑑𝑥

−∞

+ ∫ 𝑑

𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃) 𝑑

𝑑𝜃𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃) 𝑓(𝑥; 𝜃)𝑑𝑥

−∞

= 0

∫ 𝑑2

𝑑𝜃2𝑙𝑛𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃)𝑑𝑥 + ∫ [ 𝑑

𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃)]

2

𝑓(𝑥; 𝜃)𝑑𝑥

−∞

−∞

= 0

𝐸 [ 𝑑2

𝑑𝜃2𝑙𝑛𝑓(𝑥; 𝜃)] + 𝐸[𝑆2(𝑋; 𝜃) ] = 0

𝐼𝑛(𝜃) = 𝐸[𝑆2(𝑋; 𝜃)]

Fonksiyonuna Fisher bilgisi denir.

𝐼𝑛(𝜃) = −𝐸 [ 𝑑2

𝑑𝜃2𝑙𝑛𝑓(𝑥; 𝜃)]

𝐸[𝑆(𝑋; 𝜃)] = 0 olduğundan

𝐼𝑛(𝜃) = 𝑉𝑎𝑟[𝑆(𝑋; 𝜃)] = 𝐸[𝑆2(𝑋; 𝜃)] − [𝐸[𝑆(𝑋; 𝜃)]⏟

0

]

2

𝑁𝑜𝑡. 𝑋1, 𝑋2, … , 𝑋𝑛 𝑓(𝑥; 𝜃) dan alınmış ise 𝐼𝑛(𝜃) = 𝑛𝐼(𝜃) olur.

Teorem(R-C). 𝑋1, 𝑋2, … , 𝑋𝑛 𝑓(𝑥; 𝜃) yoğunluk fonksiyonuna sahip tesadüfi bir örneklem olsun. 𝑇(𝑋 ) de 𝑘(𝜃)( 𝜃 𝑛𝚤𝑛𝑓𝑜𝑛𝑘𝑠𝑖𝑦𝑜𝑛𝑢) için yansız bir tahmin edicisi olsun.

𝑉(𝑇(𝑋 )) ≥ [

𝑑𝑘(𝜃) 𝑑𝜃 ]2 𝐼𝑛(𝜃)

İspat.

𝐸(𝑇(𝑋 ))= 𝑘(𝜃)

(3)

Doç. Dr. Vedat SAĞLAM Sayfa 3

𝐸 (𝑇(𝑋 )) = ∫ ∫ … ∫ 𝑇(𝑥)𝐿(𝜃; 𝑥)𝑑𝑥1𝑑𝑥2… 𝑑𝑥𝑛 = 𝑘(𝜃)

𝑅𝑋𝑛 𝑅𝑋2

𝑅𝑋1

Her iki tarafın 𝜃’ya göre türevini alalım

∫ ∫ … ∫ 𝑇(𝑥)𝜕𝐿(𝜃;𝑥)

𝜕(𝜃) .𝐿(𝜃;𝑥)

𝐿(𝜃;𝑥)𝑑𝑥 =

𝑅𝑋𝑛 𝑅𝑋2

𝑅𝑋1 𝑘′(𝜃)

∫ ∫ … ∫ 𝑇(𝑥) [∑ 𝜕𝑙𝑛𝑓(𝑥𝑖;𝜃)

𝜕(𝜃)

𝑛𝑖=1 ]

𝑆𝑘𝑜𝑟 𝐹𝑜𝑛𝑘𝑠𝑖𝑦𝑜𝑛𝑢

. ∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)𝑑𝑥𝑖 = 𝑘(𝜃)

𝑅𝑋𝑛 𝑅𝑋2

𝑅𝑋1

𝐸[𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] = 𝑘(𝜃) Cauchy – Shwartz Eşitsizliği:

[𝐶𝑜𝑣(𝑋, 𝑌)]2 ≤ 𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌)

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌)

𝐶𝑜𝑣[𝑇(𝑋), ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] = 𝐸[𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] − 𝐸 (𝑇(𝑋) 𝐸(∑⏟ 𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)

0

)

𝐶𝑜𝑣[𝑇(𝑋), ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] = 𝐸[𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] olur

[𝐸(𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)]2 ≤ 𝑉𝑎𝑟(𝑇(𝑋))𝑉𝑎𝑟[∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] [𝑘(𝜃)]2 = 𝐸[𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃]2 ≤ 𝑉𝑎𝑟 (𝑇(𝑋)) 𝐼𝑛(𝜃)

𝑉𝑎𝑟 (𝑇(𝑋)) ≥[𝑘(𝜃)]2 𝐼𝑛(𝜃)

Not. Eğer sadece 𝜃 için tahmin ediciye bakılırsa 𝑘(𝜃) = 𝜃 ise

𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı

𝑉𝑎𝑟 (𝑇(𝑋)) ≥ 1/𝐼𝑛(𝜃)

(4)

Doç. Dr. Vedat SAĞLAM Sayfa 4

𝑇(𝑋) tahmin edicisinin varyansı 𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 alt sınırına eşitse 𝑇(𝑋) 𝜃 için UMVUE dir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝐵𝑖𝑛𝑜𝑚(𝑚, 𝑝) olmak üzere 𝑇(𝑋) = 𝑋̅

𝑚 UMVUE midir.

Çözüm. 𝐿(𝑝; 𝑥1, 𝑥2, … , 𝑥𝑛) = (𝑚

𝑥1) 𝑝𝑥1(1 − 𝑝)𝑚−𝑥1… (𝑚

𝑥𝑛) 𝑝𝑥𝑛(1 − 𝑝)𝑚−𝑥𝑛 = ∏ (𝑚

𝑥𝑖)

𝑛𝑖=1

𝑘 𝑠𝑎𝑏𝑖𝑡𝑖

𝑝𝑛𝑖=1𝑥𝑖(1 − 𝑝)𝑛𝑚−∑𝑛𝑖=1𝑥𝑖

𝑙𝑛𝐿(𝑝; 𝑥) = 𝑙𝑛𝑘 + (∑𝑛𝑖=1𝑥𝑖 )𝑙𝑛𝑝 + (𝑛𝑚 − ∑𝑛𝑖=1𝑥𝑖)𝑙𝑛(1 − 𝑝)

2. kez türev alınırsa

𝜕𝑙𝑛𝐿(𝑝; 𝑥)

𝜕𝑝 =∑𝑛𝑖=1𝑥𝑖

𝑝 −𝑛𝑚 − ∑𝑛𝑖=1𝑥𝑖 (1 − 𝑝)

𝜕2𝑙𝑛𝐿(𝑝; 𝑥)

𝜕𝑝2 = −∑𝑛𝑖=1𝑥𝑖

𝑝2 −𝑛𝑚 − ∑𝑛𝑖=1𝑥𝑖 (1 − 𝑝)2

Fisher bilgisi

𝐼𝑛(𝑝) = −𝐸 [𝜕2𝑙𝑛𝐿(𝑝; 𝑥)

𝜕𝑝2 ] O halde

−𝐸 [𝜕2𝑙𝑛𝐿(𝑝; 𝑥)

𝜕𝑝2 ] = 𝐸 [∑𝑛𝑖=1𝑥𝑖

𝑝2 +𝑛𝑚 − ∑𝑛𝑖=1𝑥𝑖 (1 − 𝑝)2 ]

= 𝐸 [𝑛𝑖=1𝑥𝑖

𝑝2 +𝑛𝑚−∑𝑛𝑖=1𝑥𝑖

(1−𝑝)2 ] = 𝐼𝑛(𝑝)

𝐼𝑛(𝑝) = 𝑚𝑛 𝑝𝑞 𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı ise

(5)

Doç. Dr. Vedat SAĞLAM Sayfa 5

1

𝐼𝑛(𝜃)= 1

𝐼𝑛(𝑝) = 𝑝𝑞 𝑚𝑛 𝑇(𝑋) = 𝑋̅

𝑚

𝑉𝑎𝑟 (𝑇(𝑋)) = 𝑉𝑎𝑟(𝑋̅)

𝑚2 = 𝜎2

𝑛𝑚2 =𝑚𝑝𝑞

𝑛𝑚2 = 𝑝𝑞 𝑚𝑛

Böylece 𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı 𝑇(𝑋) = 𝑋̅

𝑚 in varyansına eşit olduğundan 𝑋̅

𝑚 , 𝑝 için bir UMVUE dir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑒𝑥𝑝(𝜃) olmak üzere 𝑇(𝑋) = 𝑋̅, 𝜃 için 𝑈𝑀𝑉𝑈𝐸’midir.

Çözüm. 𝑋𝑖~𝑒𝑥𝑝(𝜃) olmak üzere, 𝑓(𝑥; 𝜃) = {

1

𝜃𝑒𝑥𝜃, 𝑥 ≥ 0 0, 𝑑. 𝑑.

a) 𝐸(𝑋̅) = 𝜃 olurmu?

𝐸(𝑋̅) = 𝐸 (1

𝑛𝑛𝑖=1𝑋𝑖) = 1

𝑛∑ 𝐸(𝑋𝑖) = 1

𝑛𝑛𝜃 = 𝜃

𝑛𝑖=1 .

b) 𝑇(𝑋) = 𝑋̅, 𝜃 için 𝑈𝑀𝑉𝑈𝐸’midir

𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 alt sınırına bakalım. 𝑉𝑎𝑟(𝑋 ̅ ) = 𝑅𝐶𝐿𝐵 ise 𝑈𝑀𝑉𝑈𝐸 midir.

𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 (1

𝑛𝑛𝑖=1𝑋𝑖) = 1

𝑛2∑ 𝑉𝑎𝑟(𝑋𝑖) = 1

𝑛2𝑛𝜃2 = 𝜃2

𝑛

𝑛𝑖=1

Şimdi Fisher bilgisinden bu varyansın en küçük alt sınırı, 𝐿 = ∏𝑛𝑖=1𝑓(𝑥𝑖, 𝜃) = 1

𝜃𝑒𝑥1 𝜃 …. 1

𝜃𝑒𝑥𝑛 𝜃 = 1

𝜃𝑛𝑒− ∑𝑛𝑖=1𝑥𝑖 𝐿𝑛𝐿 = −𝑛𝑙𝑛𝜃 − 1

𝜃𝑛𝑖=1𝑥𝑖

𝜕2𝑙𝑛𝐿( 𝜃; 𝑥)

𝜕 𝜃2 = 𝑛

𝜃2−2 ∑𝑛𝑖=1𝑥𝑖 𝜃3 Fisher bilgisi,

(6)

Doç. Dr. Vedat SAĞLAM Sayfa 6

𝐼(𝑝) = −𝐸 [𝜕2𝑙𝑛𝐿( 𝜃; 𝑥)

𝜕 𝜃2 ] = −𝐸 [ 𝑛

𝜃22 ∑𝑛𝑖=1𝑥𝑖

𝜃3 ] = − 𝑛

𝜃2+ 2

𝜃3𝑛𝜃 = 𝑛

𝜃2 𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı ise

1

𝐼𝑛(𝜃) = 𝜃2 𝑛

𝑉𝑎𝑟(𝑋 ̅ ) = 𝑅𝐶𝐿𝐵 olduğundan 𝑋,̅ 𝜃 için bir 𝑈𝑀𝑉𝑈𝐸′ dir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃) olmak üzere a) 𝑇(𝑋) = 𝑋̅, 𝜃 için 𝑈𝑀𝑉𝑈𝐸’midir.

b) 𝑇(𝑋) = 𝑋̅, 𝜃2 için 𝑈𝑀𝑉𝑈𝐸′ midir.

Çözüm.

a) 𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 (1

𝑛𝑛𝑖=1𝑋𝑖) = 1

𝑛2∑ 𝑉𝑎𝑟(𝑋𝑖) = 1

𝑛2𝑛𝜃 = 𝜃

𝑛 𝑛𝑖=1

Şimdi Fisher bilgisinden bu varyansın en küçük alt sınırı,

𝐿(𝜃, 𝑥) = ∏ 𝑓(𝑥𝑖,

𝑛 𝑖=1

𝜃) = 𝜃𝑥1,𝑒−𝜃

𝑥1! ⋯ 𝜃𝑥𝑛,𝑒−𝜃 𝑥𝑛!

=𝑒−𝑛𝜃𝜃𝑛𝑖=1𝑥𝑖

𝑛𝑖=1𝑥𝑖 !

𝑘

𝐿(𝜃, 𝑥) = −𝑙𝑛𝑘 − 𝑙𝑛𝜃 ∑𝑛𝑖=1𝑥𝑖

𝜕2𝑙𝑛𝐿( 𝜃; 𝑥)

𝜕 𝜃2 = − ∑𝑛𝑖=1𝑥𝑖 𝜃2 Fisher bilgisi,

𝐼𝑛(𝑝) = −𝐸 [𝜕2𝑙𝑛𝐿( 𝜃; 𝑥)

𝜕 𝜃2 ] = −𝐸 [− ∑𝑛𝑖=1𝑋𝑖

𝜃2 ] = ∑𝑛𝑖=1𝐸(𝑋𝑖)

𝜃2 = 𝑛𝜃 𝜃2 = 𝑛

𝜃

𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 alt sınırı ise

(7)

Doç. Dr. Vedat SAĞLAM Sayfa 7

1

𝐼𝑛(𝜃)= 𝜃 𝑛

b) 𝑉𝑎𝑟(𝑋̅) = 𝐸(𝑋̅2) − [𝐸(𝑋̅)]2

𝜃

𝑛 = 𝐸(𝑋̅2) − 𝜃2 𝜃2 = 𝐸(𝑋̅2)+𝜃

𝑛 , 𝐸(𝑋̅) = 𝜃 𝜃2 = 𝐸(𝑋̅2)+𝐸(𝑋̅)

𝑛

𝜃2 = 𝐸 (𝑋̅2𝑋̅

𝑛), 𝑌 = 𝑋̅2𝑋̅

𝑛 alınırsa, 𝜃2 = 𝐸 (𝑋̅2𝑋̅

𝑛), 𝜃2 = 𝐸(𝑌) 4. Yeterlilik

𝑋1, 𝑋2, … , 𝑋𝑛 Örneklemi 𝑓(𝑥; 𝜃) yoğunluk fonksiyonuna sahip dağılımdan alınmış olsun. T(𝑋1, 𝑋2, … , 𝑋𝑛) gibi bir istatistiği göz önüne alalım. Bu durumda verinin tamamı ile ilgilenmekten ise T(𝑋1, 𝑋2, … , 𝑋𝑛)’den elde edilen bilgi ile kitle parametresi hakkındaki bilgiye ulaşılabilir mi? Eğer bu sorunun cevabı evet ise T(𝑋1, 𝑋2, … , 𝑋𝑛) 𝜃 için yeterli bir istatistiktir.

Tanım. 𝑋1, 𝑋2, … , 𝑋𝑛 Örneklemi 𝑓(𝑥; 𝜃) yoğunluk fonksiyonuna sahip dağılımdan alınmış olsun. T(𝑋1, 𝑋2, … , 𝑋𝑛) gibi bir istatistiği göz önüne alalım.

𝑇(𝑋) = 𝑡 verilmişken 𝑋 = 𝑥 koşullu dağılımı 𝜃 parametresini içermiyorsa 𝑇(𝑋) 𝜃 için yeterli bir istatistiktir.

𝑃(𝑋 = 𝑥 𝑇(𝑋) = 𝑡(𝑥)⁄ ) = ∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)

𝑔𝑇(𝑡(𝑥1, 𝑥2, … , 𝑥𝑛) = ∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃) 𝑔𝑇(𝑡; 𝜃 ) Olasılığı 𝜃 ya bağlı değil ise 𝑇(𝑋) 𝜃 için

yeterli

bir istatistiktir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~exp (𝜆) olmak üzere ∑𝑛𝑖=1𝑋𝑖=T, 𝜆 için yeterli bir istatistik midir.

(8)

Doç. Dr. Vedat SAĞLAM Sayfa 8

Çözüm.

𝑃(𝑋 = 𝑥 𝑇(𝑋) = 𝑡⁄ ) =∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)

𝑔𝑇(𝑡; 𝜃 ) (∗) 𝑋𝑖~ exp(𝜆) iken 𝑇 = ∑𝑛𝑖=1𝑋𝑖~𝐺𝑎𝑚𝑚(𝑛, 𝜆) olur.

𝑓(𝑡; 𝑛, 𝜆) = 𝜆(𝜆𝑥)𝑛−1𝑒−𝜆𝑡

Γ(𝑛) , 𝜆 > 0, 𝑡 > 0 O halde

𝑔𝑇(𝑡; 𝜆 ) = 𝜆(𝜆𝑥)𝑛−1𝑒−𝜆𝑡 Γ(𝑛)

𝑃(𝑋 = 𝑥 𝑇(𝑋) = 𝑡⁄ ) = 𝜆𝑒−𝜆𝑥1𝜆𝑒−𝜆𝑥2… 𝜆𝑒−𝜆𝑥𝑛 𝜆(𝜆𝑥)𝑛−1𝑒−𝜆𝑡

Γ(𝑛)

= Γ(𝑛)

𝑡𝑛−1

ifadesi 𝜃 = 𝜆 içermediğinden 𝑇 = ∑𝑛𝑖=1𝑋𝑖 , 𝜆 için yeterli bir istatistiktir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑁(𝜃, 1) olmak üzere 𝑇 = ∑𝑛𝑖=1𝑋𝑖, 𝜃 için yeterli bir istatistik midir.

Çözüm. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑁(𝜃, 1) ise 𝑇 = ∑𝑛𝑖=1𝑋𝑖 ~𝑁(𝑛𝜃, 𝑛) 𝐸(𝑇) = 𝐸(∑𝑛𝑖=1𝑋𝑖) = ∑𝑛𝑖=1𝐸(𝑋𝑖) = 𝑛𝜃

𝑉𝑎𝑟(𝑇) = 𝑉𝑎𝑟(∑𝑛𝑖=1𝑋𝑖) = ∑𝑛𝑖=1𝑉𝑎𝑟(𝑋𝑖) = 𝑛1 = 𝑛

𝑃(𝑋 = 𝑥 𝑇(𝑋) = 𝑡⁄ ) = ∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)

𝑔𝑇(𝑡; 𝜃 )

=

∏ 1

√2𝜋𝑒12(𝑥𝑖−𝜃)2

𝑛𝑖=1

1

√2𝜋𝑛𝑒12(𝑡−𝑛𝜃)2 𝑡 = ∑𝑛𝑖=1𝑥𝑖 ise

(9)

Doç. Dr. Vedat SAĞLAM Sayfa 9

= 1 (2𝜋)𝑛2

𝐴

𝑒12𝑛𝑖=1 (𝑥𝑖−𝜃)2 1

√2𝜋𝑛⏟

𝐵

𝑒12(𝑡−𝑛𝜃)2

= 𝐴𝑒

1

2[∑ 𝑥𝑖2−2𝜃∑𝑛𝑖=1𝑥𝑖

𝑡

𝑛𝑖=1 +𝑛𝜃2]

𝐵𝑒12[𝑡2−2𝑛𝑡𝜃+𝑛2𝜃2]

= 𝐴 𝐵𝑒

1

2[∑𝑛𝑖=1𝑥𝑖2+𝑡2

𝑛]

Bu oran parametreden bağımsız olduğundan 𝑇 = ∑𝑛𝑖=1𝑋𝑖 istatistiği 𝜃 parametresi için yeterli bir istatistiktir.

Not. 𝑇 nin dağılımı her zaman elde edilmeyebilir. Bu durumda aşağıdaki

Neyman çarpanlarına ayırma teoremi

verilebilir.

Teorem. 𝑋1, 𝑋2, … , 𝑋𝑛~{𝑓(𝑥; 𝜃), 𝜃 ∈ 𝚯 } olsun. 𝑇 gibi bir istatistiğin yeterli olabilmesi için yeter ve gerek şart

𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)= 𝑔𝑇(𝑡(𝑥1, 𝑥2, … , 𝑥𝑛); 𝜃 )ℎ(𝑥1, 𝑥2, … , 𝑥𝑛).

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑁(𝜃, 1) olmak üzere 𝜃 için yeterli bir istatistik bulunuz(

Neyman çarpanlarına ayırma teoremine göre

)

𝑓(𝑥; 𝜃) = ∏ 𝑓(𝑥𝑖; 𝜃)

𝑛

𝑖=1

= 1

√2𝜋𝑒12(𝑥1−𝜃)21

√2𝜋𝑒12(𝑥𝑛−𝜃)2

= 1

(2𝜋)𝑛2𝑒12𝑛𝑖=1 (𝑥𝑖−𝜃)2

= 1

(2𝜋)𝑛2 {𝑒

1

2[∑ 𝑥𝑖2−2𝜃∑𝑛𝑖=1𝑥𝑖

𝑡

𝑛𝑖=1 +𝑛𝜃2]

}

(10)

Doç. Dr. Vedat SAĞLAM Sayfa 10

= 1 (2𝜋)𝑛2

𝑒12𝑛𝑖=1𝑥𝑖2

ℎ(𝑥)

𝑒𝜃 ∑ 𝑥𝑖𝑛𝜃

2 𝑛 2

𝑖=1

𝑔(𝑇(𝑥);𝜃)

şeklinde yazılabildiğinden ∑𝑛𝑖=1𝑥𝑖, 𝜃 parametresi için yeterli bir istatistiktir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑃𝑜𝑖𝑠𝑠(𝜃) olmak üzere,

a) 𝑇 = ∑𝑛𝑖=1𝑋𝑖, 𝜃 için yeterli bir istatistikmidir.

b) 𝜃 parametresi için yeterli bir tahmin edici bulunuz(

Neyman çarpanlarına ayırma teoremine göre

)

Çözüm. a)

𝑃(𝑋 = 𝑥 𝑇 = 𝑡)⁄ =𝑃(𝑋 = 𝑥) 𝑃(𝑇 = 𝑡) =

∏ 𝜃𝑥𝑖 𝑥𝑖! 𝑒−𝜃

𝑛𝑖=1

(𝑛𝜃)𝑡 𝑡! 𝑒−𝑛𝜃 𝑇 = ∑𝑛𝑖=1𝑋𝑖, ⇒ 𝑇~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝑛𝜃)

𝑃(𝑋 = 𝑥 𝑇 = 𝑡)⁄ =

𝜃𝑛𝑖=1𝑥𝑖𝑒−𝑛𝜃

𝑛𝑖=1𝑥𝑖 𝑛𝑡𝜃𝑡

𝑡! 𝑒−𝑛𝜃

𝑃(𝑋 = 𝑥 𝑇 = 𝑡)⁄ = 𝑡!

𝑛𝑡 1

𝑛𝑖=1𝑥𝑖

Koşullu olasılığı 𝜃 parametresini içermediğinden 𝑇 = ∑𝑛𝑖=1𝑋𝑖, yeterli bir istatistiktir.

b) 𝑓(𝑥; 𝜃) = 𝜃𝑥

𝑥! 𝑒−𝜃, 𝑥 = 0,1,2, …

𝑓(𝑥; 𝜃) = 𝜃𝑛𝑖=1𝑥𝑖𝑒−𝑛𝜃

𝑛𝑖=1𝑥𝑖!

(11)

Doç. Dr. Vedat SAĞLAM Sayfa 11

= 1

𝑥𝑖!

𝑛𝑖=1

ℎ(𝑥)

𝜃𝑛𝑖=1𝑥𝑖𝑒−𝑛𝜃

𝑔(𝑇(𝑥); 𝜃)

olduğundan ∑𝑛𝑖=1𝑥𝑖 𝜃 için yeterli bir istatistiktir.

Ödev. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑒𝑥𝑝(𝜃) olmak üzere 𝜃 için yeterli bir istatistik bulunuz(

Neyman çarpanlarına ayırma teoremine göre

)

Üstel Aile ve Yeterlilik Kavramı

𝑓(𝑥, 𝜃) = 𝑐(𝜃)ℎ(𝑥)𝑒𝑚𝑖=1𝑤𝑗(𝜃)𝑇𝑗(𝑥) (1)

𝑐(𝜃) ≥ 0, 𝑤1, 𝑤2, … , , 𝑤𝑚 θnın fonksiyonları ve ℎ(𝑥) ≥ 0, (𝑥1, 𝑥2, … , 𝑥𝑛) in fonksiyonu, 𝑇1, … , 𝑇𝑚 ler (𝑥1, 𝑥2, … , 𝑥𝑛) in fonksiyonu böylece (𝑇1( 𝑥 ), 𝑇2( 𝑥 ), …, 𝑇𝑚( 𝑥 )), (θ1, θ2, … , θ𝑚) için ortak yeterli istatistiktir.

𝑓(𝑥, 𝜃) = 𝑐(𝜃)𝑒⏟ 𝑚𝑖=1𝑤𝑗(𝜃)𝑇𝑗(𝑥)

𝑔(𝑇1,…,𝑇𝑚12,…,θ𝑚)

ℎ(𝑥)⏟

ℎ(𝑥1,𝑥2,…,𝑥𝑛)

Ayrılabildiğinde (𝑇1( 𝑥 ), 𝑇2( 𝑥 ), …, 𝑇𝑚( 𝑥 )), (θ1, θ2, … , θ𝑚) için ortak yeterli istatistiktir.

Örnek. 𝑋~𝐵𝑒𝑡𝑎(𝛼, 𝛽) 𝛼 > 0 ve 𝛽 > 0 olsun.

(12)

Doç. Dr. Vedat SAĞLAM Sayfa 12

𝑓(𝑥1, 𝑥2, … , 𝑥𝑛; 𝛼, 𝛽) =

= [Γ(𝛼 + 𝛽) Γ(𝛼)Γ(𝛽)]

𝑛

𝑥1𝛼−1𝑥2𝛼−1… 𝑥𝑛𝛼−1(1 − 𝑥1)𝛽−1(1 − 𝑥2)𝛽−1… (1 − 𝑥𝑛)𝛽−1.

𝑓(𝑥; 𝛼, 𝛽) = Γ(𝛼+ 𝛽)

Γ(𝛼)Γ(𝛽)𝑥𝛼−1(1 − 𝑥)𝛽−1 , 𝛼 > 0 ve 𝛽 > 0; 0 < 𝑥 < 1 𝑓(𝑥1, 𝑥2, … , 𝑥𝑛; 𝛼, 𝛽) = [Γ(𝛼+ 𝛽)

Γ(𝛼)Γ(𝛽)]𝑛[∏𝑛𝑖=1𝑥𝑖]𝛼−1[∏𝑛𝑖=1(1 − 𝑥𝑖)]𝛽−1

= [Γ(𝛼 + 𝛽) Γ(𝛼)Γ(𝛽)]

𝑛

𝑒(𝛼−1) ∑𝑛𝑖=1𝑙𝑛𝑥𝑖𝑒( 𝛽−1) ∑𝑛𝑖=1ln (1−𝑥𝑖)

= [Γ(𝛼 + 𝛽) Γ(𝛼)Γ(𝛽)]

𝑛

𝑐(𝛼,𝛽)

𝑒𝛼 ∑𝑛𝑖=1𝑙𝑛𝑥𝑖+𝛽 ∑𝑛𝑖=1ln (1−𝑥𝑖)

𝑇1(𝑥)=∑𝑛𝑖=1𝑙𝑛𝑥𝑖 𝑇2(𝑥)=∑𝑛𝑖=1𝑙𝑛 (1−𝑥𝑖) 𝑤1(𝛼,𝛽)=𝛼, 𝑤2(𝛼,𝛽)=𝛽

𝑒− ∑𝑛𝑖=1𝑙𝑛𝑥𝑖𝑛𝑖=1𝑙𝑛 (1−𝑥𝑖)

ℎ(𝑥)

𝑓(𝑥; 𝛼, 𝛽) üstel aile özelliğine sahip (𝛼, 𝛽) için ortak yeterli istatistikler (− ∑𝑛𝑖=1𝑙𝑛𝑥𝑖, −∑𝑛𝑖=1𝑙𝑛 (1 − 𝑥𝑖)) biçimindedir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~üzere 𝜇, 𝜎2 parametreleri için yeterli istatistik bulunuz.

Çözüm. 𝑓(𝑥; 𝜇, 𝜎2) = {

1

√2𝜋𝜎2𝑒

1

2𝜎2(𝑥−𝜇)2

, −∞ < 𝑥 < ∞ 0 , 𝑑𝑑

, ∞ < 𝜇 < ∞, 𝜎2 > 0

𝑓(𝑥; 𝜇, 𝜎2) = ∏𝑛𝑖=1𝑓(𝑥𝑖, 𝜇, 𝜎2)

= 1

[2𝜋𝜎2]𝑛 2 𝑒

1

2𝜎2𝑛𝑖=1(𝑥𝑖−𝜇)2

= 1

[2𝜋𝜎2]𝑛 2 𝑒

1

2𝜎2𝑛𝑖=1(𝑥𝑖2−2𝜇𝑥𝑖+𝜇2)

= 1

[2𝜋𝜎2]𝑛 2 𝑒

1

2𝜎2𝑛𝑖=1(𝑥𝑖2−2𝜇𝑥𝑖+𝜇2)

= 1

[2𝜋𝜎2]𝑛 2 𝑒

𝑛𝜇2 2𝜎2𝑒

1

2𝜎2𝑛𝑖=1𝑥𝑖2+𝜇

𝜎2𝑛𝑖=1𝑥𝑖

(13)

Doç. Dr. Vedat SAĞLAM Sayfa 13

= 1

[2𝜋]𝑛 2

ℎ(𝑥)

1 [𝜎2]𝑛 2

𝑐(𝜇,𝜎2)

𝑒

𝑛𝜇2

2𝜎2 𝑒

[∑𝑛𝑖=1𝑥𝑖2𝑛𝑖=1𝑥𝑖 ][

−1 2𝜎2 𝜇 𝜎2

]

𝑇1(𝑥)=∑𝑛𝑖=1𝑥𝑖2 𝑇2(𝑥)=∑𝑛𝑖=1𝑥𝑖

𝑤1(𝜇,𝜎2)=−1/𝜎2, 𝑤2(𝜇,𝜎2)=𝜇/𝜎2

𝑛𝑖=1𝑥𝑖 ve ∑𝑛𝑖=1𝑥𝑖2 𝜇, 𝜎2 için yeterli istatistiktir.

Minimal Yeterli İstatistik

Mümkün olan veri indirgemesi yapılırken 𝜃 hakkındaki bilgiyi muhafaza eden istatistiğe minimal yeterli istatistik denir.

Tanım. 𝑇(𝑋) ve 𝑇(𝑋) tahmin edicileri yeterli istatistikler olmak üzere 𝑇(𝑋) = 𝑓(𝑇(𝑋))

olacak biçimde bir 𝑓 fonksiyonu varsa 𝑇(𝑋) istatistiği minimal yeterlidir. Bu bağlamda aşağıdaki teorem verilebilir.

Teorem. 𝑋1, 𝑋2, … , 𝑋𝑛 𝑓(𝑥; 𝜃) yoğunluk fonksiyonuna sahip bir örneklem olsun.

𝑓(𝑥; 𝜃)

𝑓(𝑦; 𝜃)= ℎ(𝑥, 𝑦) ⇔ 𝑇(𝑋) = 𝑇(𝑌) Bu durumda 𝑇(𝑋) istatistiği 𝜃 için minimal yeterlidir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆) olmak üzere teoremi uygulayarak 𝜆 için minimal yeterli istatistiği bulunuz.

Çözüm.

𝑓(𝑥; 𝜆) 𝑓(𝑦; 𝜆)=

∏ 𝜆𝑥𝑖𝑒−𝜆 𝑥𝑖!

𝑛𝑖=1

∏ 𝜆𝑦𝑖𝑒−𝜆 𝑦𝑖!

𝑛𝑖=1

= 𝑛𝑖=1𝑦𝑖!

𝑥𝑖!

𝑛𝑖=1

𝜆𝑛𝑖=1𝑥𝑖−∑𝑛𝑖=1𝑦𝑖

= ℎ(𝑥, 𝑦) ⇔ ∑𝑛𝑖=1𝑥𝑖 = ∑𝑛𝑖=1𝑦𝑖

(14)

Doç. Dr. Vedat SAĞLAM Sayfa 14

= 𝑛𝑖=1𝑦𝑖!

𝑥𝑖!

𝑛𝑖=1

.1

olduğundan ∑𝑛𝑖=1𝑥𝑖, 𝜆 için

minimal yeterli istatistiktir

.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝐵𝑖𝑛𝑜𝑚(𝑚, 𝑝) olmak üzere teoremi uygulayarak 𝑝 için minimal yeterli istatistiği bulunuz.

𝑓(𝑥; 𝜆) 𝑓 (𝑦; 𝜆) =

∏ (𝑚

𝑥𝑖)

𝑛𝑖=1 𝑝𝑥𝑖(1 − 𝑝)𝑚−𝑥𝑖

∏ (𝑚

𝑦𝑖)

𝑛𝑖=1 𝑝𝑦𝑖(1 − 𝑝)𝑚−𝑦𝑖

=

∏ (𝑚

𝑥𝑖)

𝑛𝑖=1

∏ (𝑚

𝑦𝑖)

𝑛𝑖=1

𝑝𝑛𝑖=1𝑥𝑖−∑𝑛𝑖=1𝑦𝑖(1 − 𝑝)𝑛𝑖=1𝑦𝑖−∑𝑛𝑖=1𝑥𝑖

𝑓(𝑥; 𝜆)

𝑓(𝑦; 𝜆) = ℎ(𝑥, 𝑦) ⇔ ∑𝑛𝑖=1𝑥𝑖 = ∑𝑛𝑖=1𝑦𝑖 = (

𝑚 𝑥𝑖)

𝑛𝑖=1

(𝑚 𝑦𝑖)

𝑛𝑖=1

1.1

olduğundan ∑𝑛𝑖=1𝑥𝑖 ,

p

için minimal yeterli istatistiktir.

Ödev. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑒𝑥𝑝(𝜆) olmak üzere teoremi uygulayarak 𝜆 için minimal yeterli istatistiği bulunuz.

Teorem(𝑅𝑎𝑜 − 𝐵𝑙𝑎𝑐𝑘𝑤𝑒𝑙𝑙 𝑇. ). 𝑋1, 𝑋2, … , 𝑋𝑛 olasılık yoğunluk fonksiyonu 𝑓(𝑥; 𝜃) olan bir örneklem olsun. 𝑇(𝑋) de 𝜃 için yeterli bir istatistik ve 𝑈(𝑋) de yansız bir tahmin edici olsun.

Φ(𝑡) = 𝐸[𝑈(𝑋) 𝑇(𝑋)⁄ = 𝑡(𝑥)]

a) 𝐸[Φ(𝑇)] = θ

b) 𝑉𝑎𝑟[Φ(𝑇)] ≤ 𝑉𝑎𝑟[𝑈(𝑋)]

İspat a)

𝐸[Φ(𝑇)] = ∫ Φ(𝑡)−∞ 𝑔(𝑡)𝑑𝑡

= ∫−∞ 𝐸[𝑈(𝑋) 𝑇(𝑋)⁄ = 𝑡(𝑥)]𝑔(𝑡)𝑑𝑡

(15)

Doç. Dr. Vedat SAĞLAM Sayfa 15

= ∫−∞−∞ 𝑢𝑔(𝑢 𝑡⁄ )𝑔(𝑡)𝑑𝑡𝑑𝑢

= ∫ ∫ 𝑢𝑔(𝑢,𝑡)

𝑔(𝑡) 𝑔(𝑡)𝑑𝑡𝑑𝑢

−∞

−∞

= ∫ 𝑢−∞ ∫⏟ −∞ 𝑔(𝑢, 𝑡)𝑑𝑡

𝑔(𝑢)

𝑑𝑢

= 𝐸(𝑈)

= 𝜃 b ) 𝑉𝑎𝑟(𝑋) = 𝐸𝑌(𝑉𝑎𝑟(𝑋 𝑌⁄ ) + 𝑉𝑎𝑟(𝐸(𝑋 𝑌⁄ )) eşitliğinden

𝑉𝑎𝑟 (𝑈(𝑋)) = 𝐸𝑇[𝑉𝑎𝑟(𝑈(𝑋) 𝑇(𝑋)⏟ ⁄ )

≥0

] + 𝑉𝑎𝑟[𝐸(𝑈(𝑋) 𝑇(𝑋)⁄ )]

𝑉𝑎𝑟 (𝑈(𝑋)) ≥ 𝑉𝑎𝑟[𝐸(𝑈(𝑋) 𝑇(𝑋)⁄ )] = 𝑉𝑎𝑟(Φ(𝑇))

𝑉𝑎𝑟 (𝑈(𝑋)) ≥ 𝑉𝑎𝑟(Φ(𝑇)) olur.

Yardımcı İstatistik

Tanım. Bir istatistiğin dağılımı bilinmeyen parametreye bağlı değil ise bu istatistiğe yardımcı istatistik denir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛 ~𝑁(𝜇, 25) 𝑇 = (𝑛−1)𝑆2

25 ~𝜒(𝑛−1)2 , 𝑇𝑛𝑖𝑛 𝑑𝑎ğ𝚤𝑙𝚤𝑚𝚤 𝜇𝑦𝑒 𝑏𝑎ğ𝑙𝚤 𝑑𝑒ğ𝑖𝑙𝑑𝑖𝑟.

𝑇 = ∑𝑛𝑖=1𝑋𝑖 𝑇 𝜇 𝑖ç𝑖𝑛 𝑦𝑒𝑡𝑒𝑟𝑙𝑖 𝑏𝑖𝑟 𝑖𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑘𝑡𝑖𝑟.

𝑇 ise 𝜇 için yardımcı bir istatistiktir. Bu 𝑇 istatistiği 𝜇 hakkında bilgi vermez.

Tam Aile ve Tam İstatistik

(16)

Doç. Dr. Vedat SAĞLAM Sayfa 16

Tanım. 𝐹 = {𝑓(𝑥; 𝜃), 𝜃𝜖Θ } ailesi için 𝑇 yeterli bir istatistik olsun. Bu istatistiğin herhangi bir fonksiyonu için, 𝐸(𝑔(𝑇)) = 0 (∀ 𝜃𝜖Θ) iken 𝑃(𝑔(𝑇)) = 1 oluyorsa 𝐹’ ye tam aile 𝑇’ ye ise 𝜃′nın tam ve yeterli istatistiği denir.

Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛 parametresi 𝜃 olan Bernoulli dağılımından çekilen bir örneklem olsun. 0< 𝜃 < 1 için 𝑇 = ∑𝑛𝑖=1𝑋𝑖 istatistiği Bernoulli dağılımlar ailesi için tam mıdır?

Çözüm. 𝐸(𝑔(𝑇)) = 0 ⇒ 𝑃(𝑔(𝑇)) = 1

𝐸(𝑔(𝑇)) = 0 ⇒ 𝑔(𝑇) = 0 (𝑇 𝑖𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖ğ𝑖 𝑡𝑎𝑚𝑑𝚤𝑟) 𝐸(𝑔(𝑇))= ∑𝑛𝑖=1𝑔(𝑡)𝑃(𝑇 = 𝑡)

= ∑𝑛𝑖=1𝑔(𝑡)(𝑛𝑡)𝜃𝑡(1 − 𝜃)𝑛−𝑡

= (1 − 𝜃)𝑛𝑛𝑖=1𝑔(𝑡)(𝑛𝑡)𝜃𝑡(1 − 𝜃)−𝑡, 0 < 𝜃 < 1

= (1 − 𝜃)

>0

𝑛∑ 𝑔(𝑡) (⏟𝑛𝑡)

>0

[ 𝜃

1−𝜃]𝑡

>0 𝑛 = 0

𝑖=1

Bu toplamın sıfıra eşit olması bütün 𝑡 ler için 𝑔(𝑡) = 0 olması ile mümkündür. Yani 𝐸(𝑔(𝑇)) = 0 ⇒ 𝑃(𝑔(𝑇)) = 1 olduğundan 𝑇 = ∑𝑛𝑖=1𝑋𝑖 istatistiği Bernoulli dağılımlar ailesi için tamdır

Basu Teoremi

Eğer 𝑇 yeterli ve tam bir istatistik ise 𝑇 herhangi bir yardımcı istatistikten bağımsızdır.

Örnek.

𝑋1, 𝑋2, … , 𝑋𝑛~𝑁(𝜇, 25) için 𝑇 = ∑𝑛𝑖=1𝑋𝑖, 𝜇 için yeterli bir istatistiktir.

𝑇 = (𝑛−1)𝑆2

25 ~𝜒(𝑛−1)2 , 𝑇 ise 𝜇 için yardımcı bir istatistiktir. Bu 𝑇 istatistiği 𝜇 hakkında bilgi vermez.

(𝑛−1)𝑆2

25 ile de ∑𝑛𝑖=1𝑋𝑖, (𝑇 𝑖𝑙𝑒 𝑇) birbirinden bağımsızdır. Bu bağlamda 𝑆2 ile 𝑋 birbirinden bağımsızdır.

Lehman-Scheffe Teklik Teoremi

(17)

Doç. Dr. Vedat SAĞLAM Sayfa 17

𝑋1, 𝑋2, … , 𝑋𝑛 yoğunluk fonksiyonu 𝑓(𝑥; 𝜃) olan bir dağılımdan rasgele çekilen bir örneklem ve 𝜃 parametresinin de tam yeterli tahmin edicisi

𝑇(𝑋1, 𝑋2, … , 𝑋𝑛) = 𝑇(𝑋 ) olsun. 𝑇’nin bir fonksiyonu olan 𝑈 = 𝑈(𝑇) sonlu varyanslı ve 𝜃 için yansız bir tahmin edici ise bu 𝑇(𝑋1, 𝑋2, … , 𝑋𝑛) tahmin edicisi yansız tahmin ediciler arasında en küçük varyanslı ve tektir.

Teorem. 𝑇(𝑋 ) 𝜃 için yeterli bir istatistik {ℎ𝑇{𝑡, 𝜃 }, 𝜃𝜖Θ } tam bir aile olsun.

Eğer 𝑇nin herhangi bir fonksiyonu 𝜃 için yansız ise yansız en küçük varyanslı tahmin ediciler arasında 𝑇(𝑋 ) tekdir.

Referanslar

Benzer Belgeler

[r]

Radiative Transitions: Luminescence may involve radiative electronic transitions emitting a photon, when an electron drops from an upper to the lower energy level of either

Eğer kaynak değişken değilse ve  yeteri kadar uzun bir süre ise, bu iki Fourier katsayısı (yani genlik) birbirine eşit olmalıdır ancak genellikle A(  )

Tablo G ve H sırası ile tahmin edilen parametrelere ilişkin korelasyon matrisi ile modelden elde edilen artıklar serisinin beyaz gürültü serisi olup olmadığını sınamak

 nın en çok olabilirlik tahmin edicisi olabilirlik fonksiyonunu veya log-olabilirlik fonksiyonunu maksimum yapan değerdir.. Ancak, bazı durumlarda log-olabilirlik

Burada, T tahmin edicisi yansız olup, varyansı 2 T nin varyansından 2 küçük olacak şekilde başka bir yansız tahmin edici bulunamaz.. Bunu

Bu asimptotik dağılımlar Serfling (1980, Kısım 5.5, sayfa 192) de ayrıntılı olarak incelenmiştir.. Parantez karesi alındığında bazı terimler sıfır olup  2

Bu çalışmada, bu test istatistiği ve Ebegil (2007) tarafından, Ridge tahminine dayalı yanlı tahmin edicinin en az EKK tahmin edicisi kadar etkin olması için