Doç. Dr. Vedat SAĞLAM Sayfa 1
Nokta Tahmin Edicilerin Özellikleri-2
Tanım. 𝑋1, 𝑋2,… , 𝑋𝑛 olasılık yoğunluk fonksiyonu 𝑓(𝑥, 𝜃) bir kitleden çekilen örneklem olsun.
1. 𝐸(𝑇∗) = 𝜃
2. 𝜃 için başka bir yansız tahmin edici 𝑇 ve 𝐸(𝑇) = 𝜃 olmak üzere
𝑉𝑎𝑟(𝑇∗) ≤ 𝑉𝑎𝑟(𝑇)
Eşitsizliği ∀ 𝜃 𝜖 𝚯 için sağlanıyorsa( buradaki 𝚯 parametre kümesidir, 𝚯 örneğin Bernoulli dağılımı için, 𝚯 = [0, 1]).
𝑇∗ tahmin edicisi 𝜃 için düzgün, en küçük varyanslı, yansız tahmin edicidir.(UMVUE)
𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı
𝑓(𝑥; 𝜃) 𝜃 ya göre iki kez türevlenebilir olsun. ∫−∞∞ 𝑓(𝑥; 𝜃)𝑑𝑥 𝜃 ya göre iki kez türevlenebilir olsun.
∫ 𝑓(𝑥; 𝜃)𝑑𝑥
∞
−∞
= 1 Her iki tarafın 𝜃 ya göre türevi alınırsa
𝑑
𝑑𝜃∫ 𝑓(𝑥; 𝜃)𝑑𝑥
∞
−∞
= 𝑑
𝑑𝜃(1) = 0
∫ 𝑑
𝑑𝜃𝑓(𝑥; 𝜃)𝑑𝑥
∞
−∞
= 0
∫ 𝑑
𝑑𝜃𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃) 𝑓(𝑥; 𝜃)𝑑𝑥
∞
−∞
= 0
∫ 𝑑
𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃)𝑑𝑥
∞
−∞
= 0 (∗)
Not. 𝐸(𝑔(𝑋)) = ∫ 𝑔(𝑥) 𝑓(𝑥)𝑑𝑥
𝐸 ( 𝑑
𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃)) = 𝐸(𝑆(𝑋; 𝜃)) = 0 𝑆(𝑋; 𝜃) = 𝑑
𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃) ifadesine Skor fonksiyonu denir.
Doç. Dr. Vedat SAĞLAM Sayfa 2
(∗) ifadesinin 2.türevini alırsak
∫ 𝑑2
𝑑𝜃2𝑙𝑛𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃)𝑑𝑥
∞
−∞
+ ∫ 𝑑
𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃) 𝑑
𝑑𝜃𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃) 𝑓(𝑥; 𝜃)𝑑𝑥
∞
−∞
= 0
∫ 𝑑2
𝑑𝜃2𝑙𝑛𝑓(𝑥; 𝜃)𝑓(𝑥; 𝜃)𝑑𝑥 + ∫ [ 𝑑
𝑑𝜃𝑙𝑛𝑓(𝑥; 𝜃)]
2
𝑓(𝑥; 𝜃)𝑑𝑥
∞
−∞
∞
−∞
= 0
𝐸 [ 𝑑2
𝑑𝜃2𝑙𝑛𝑓(𝑥; 𝜃)] + 𝐸[𝑆2(𝑋; 𝜃) ] = 0
𝐼𝑛(𝜃) = 𝐸[𝑆2(𝑋; 𝜃)]
Fonksiyonuna Fisher bilgisi denir.
𝐼𝑛(𝜃) = −𝐸 [ 𝑑2
𝑑𝜃2𝑙𝑛𝑓(𝑥; 𝜃)]
𝐸[𝑆(𝑋; 𝜃)] = 0 olduğundan
𝐼𝑛(𝜃) = 𝑉𝑎𝑟[𝑆(𝑋; 𝜃)] = 𝐸[𝑆2(𝑋; 𝜃)] − [𝐸[𝑆(𝑋; 𝜃)]⏟
0
]
2
𝑁𝑜𝑡. 𝑋1, 𝑋2, … , 𝑋𝑛 𝑓(𝑥; 𝜃) dan alınmış ise 𝐼𝑛(𝜃) = 𝑛𝐼(𝜃) olur.
Teorem(R-C). 𝑋1, 𝑋2, … , 𝑋𝑛 𝑓(𝑥; 𝜃) yoğunluk fonksiyonuna sahip tesadüfi bir örneklem olsun. 𝑇(𝑋 ) de 𝑘(𝜃)( 𝜃 𝑛𝚤𝑛𝑓𝑜𝑛𝑘𝑠𝑖𝑦𝑜𝑛𝑢) için yansız bir tahmin edicisi olsun.
𝑉(𝑇(𝑋 )) ≥ [
𝑑𝑘(𝜃) 𝑑𝜃 ]2 𝐼𝑛(𝜃)
İspat.
𝐸(𝑇(𝑋 ))= 𝑘(𝜃)Doç. Dr. Vedat SAĞLAM Sayfa 3
𝐸 (𝑇(𝑋 )) = ∫ ∫ … ∫ 𝑇(𝑥)𝐿(𝜃; 𝑥)𝑑𝑥1𝑑𝑥2… 𝑑𝑥𝑛 = 𝑘(𝜃)
𝑅𝑋𝑛 𝑅𝑋2
𝑅𝑋1
Her iki tarafın 𝜃’ya göre türevini alalım
∫ ∫ … ∫ 𝑇(𝑥)𝜕𝐿(𝜃;𝑥)
𝜕(𝜃) .𝐿(𝜃;𝑥)
𝐿(𝜃;𝑥)𝑑𝑥 =
𝑅𝑋𝑛 𝑅𝑋2
𝑅𝑋1 𝑘′(𝜃)
∫ ∫ … ∫ 𝑇(𝑥) [∑ 𝜕𝑙𝑛𝑓(𝑥𝑖;𝜃)
𝜕(𝜃)
𝑛𝑖=1 ]
⏟
𝑆𝑘𝑜𝑟 𝐹𝑜𝑛𝑘𝑠𝑖𝑦𝑜𝑛𝑢
. ∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)𝑑𝑥𝑖 = 𝑘′(𝜃)
𝑅𝑋𝑛 𝑅𝑋2
𝑅𝑋1
𝐸[𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] = 𝑘′(𝜃) Cauchy – Shwartz Eşitsizliği:
[𝐶𝑜𝑣(𝑋, 𝑌)]2 ≤ 𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌)
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌)
𝐶𝑜𝑣[𝑇(𝑋), ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] = 𝐸[𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] − 𝐸 (𝑇(𝑋) 𝐸(∑⏟ 𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)
0
)
𝐶𝑜𝑣[𝑇(𝑋), ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] = 𝐸[𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] olur
[𝐸(𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)]2 ≤ 𝑉𝑎𝑟(𝑇(𝑋))𝑉𝑎𝑟[∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃)] [𝑘′(𝜃)]2 = 𝐸[𝑇(𝑋) ∑𝑛𝑖=1𝑆(𝑋𝑖; 𝜃]2 ≤ 𝑉𝑎𝑟 (𝑇(𝑋)) 𝐼𝑛(𝜃)
𝑉𝑎𝑟 (𝑇(𝑋)) ≥[𝑘′(𝜃)]2 𝐼𝑛(𝜃)
Not. Eğer sadece 𝜃 için tahmin ediciye bakılırsa 𝑘(𝜃) = 𝜃 ise
𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı
𝑉𝑎𝑟 (𝑇(𝑋)) ≥ 1/𝐼𝑛(𝜃)
Doç. Dr. Vedat SAĞLAM Sayfa 4
𝑇(𝑋) tahmin edicisinin varyansı 𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 alt sınırına eşitse 𝑇(𝑋) 𝜃 için UMVUE dir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝐵𝑖𝑛𝑜𝑚(𝑚, 𝑝) olmak üzere 𝑇(𝑋) = 𝑋̅
𝑚 UMVUE midir.
Çözüm. 𝐿(𝑝; 𝑥1, 𝑥2, … , 𝑥𝑛) = (𝑚
𝑥1) 𝑝𝑥1(1 − 𝑝)𝑚−𝑥1… (𝑚
𝑥𝑛) 𝑝𝑥𝑛(1 − 𝑝)𝑚−𝑥𝑛 = ∏ (𝑚
𝑥𝑖)
𝑛𝑖=1
⏟
𝑘 𝑠𝑎𝑏𝑖𝑡𝑖
𝑝∑𝑛𝑖=1𝑥𝑖(1 − 𝑝)𝑛𝑚−∑𝑛𝑖=1𝑥𝑖
𝑙𝑛𝐿(𝑝; 𝑥) = 𝑙𝑛𝑘 + (∑𝑛𝑖=1𝑥𝑖 )𝑙𝑛𝑝 + (𝑛𝑚 − ∑𝑛𝑖=1𝑥𝑖)𝑙𝑛(1 − 𝑝)
2. kez türev alınırsa
𝜕𝑙𝑛𝐿(𝑝; 𝑥)
𝜕𝑝 =∑𝑛𝑖=1𝑥𝑖
𝑝 −𝑛𝑚 − ∑𝑛𝑖=1𝑥𝑖 (1 − 𝑝)
𝜕2𝑙𝑛𝐿(𝑝; 𝑥)
𝜕𝑝2 = −∑𝑛𝑖=1𝑥𝑖
𝑝2 −𝑛𝑚 − ∑𝑛𝑖=1𝑥𝑖 (1 − 𝑝)2
Fisher bilgisi
𝐼𝑛(𝑝) = −𝐸 [𝜕2𝑙𝑛𝐿(𝑝; 𝑥)
𝜕𝑝2 ] O halde
−𝐸 [𝜕2𝑙𝑛𝐿(𝑝; 𝑥)
𝜕𝑝2 ] = 𝐸 [∑𝑛𝑖=1𝑥𝑖
𝑝2 +𝑛𝑚 − ∑𝑛𝑖=1𝑥𝑖 (1 − 𝑝)2 ]
= 𝐸 [∑𝑛𝑖=1𝑥𝑖
𝑝2 +𝑛𝑚−∑𝑛𝑖=1𝑥𝑖
(1−𝑝)2 ] = 𝐼𝑛(𝑝)
𝐼𝑛(𝑝) = 𝑚𝑛 𝑝𝑞 𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı ise
Doç. Dr. Vedat SAĞLAM Sayfa 5
1
𝐼𝑛(𝜃)= 1
𝐼𝑛(𝑝) = 𝑝𝑞 𝑚𝑛 𝑇(𝑋) = 𝑋̅
𝑚
𝑉𝑎𝑟 (𝑇(𝑋)) = 𝑉𝑎𝑟(𝑋̅)
𝑚2 = 𝜎2
𝑛𝑚2 =𝑚𝑝𝑞
𝑛𝑚2 = 𝑝𝑞 𝑚𝑛
Böylece 𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı 𝑇(𝑋) = 𝑋̅
𝑚 in varyansına eşit olduğundan 𝑋̅
𝑚 , 𝑝 için bir UMVUE dir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑒𝑥𝑝(𝜃) olmak üzere 𝑇(𝑋) = 𝑋̅, 𝜃 için 𝑈𝑀𝑉𝑈𝐸’midir.
Çözüm. 𝑋𝑖~𝑒𝑥𝑝(𝜃) olmak üzere, 𝑓(𝑥; 𝜃) = {
1
𝜃𝑒−𝑥𝜃, 𝑥 ≥ 0 0, 𝑑. 𝑑.
a) 𝐸(𝑋̅) = 𝜃 olurmu?
𝐸(𝑋̅) = 𝐸 (1
𝑛∑𝑛𝑖=1𝑋𝑖) = 1
𝑛∑ 𝐸(𝑋𝑖) = 1
𝑛𝑛𝜃 = 𝜃
𝑛𝑖=1 .
b) 𝑇(𝑋) = 𝑋̅, 𝜃 için 𝑈𝑀𝑉𝑈𝐸’midir
𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 alt sınırına bakalım. 𝑉𝑎𝑟(𝑋 ̅ ) = 𝑅𝐶𝐿𝐵 ise 𝑈𝑀𝑉𝑈𝐸 midir.
𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 (1
𝑛∑𝑛𝑖=1𝑋𝑖) = 1
𝑛2∑ 𝑉𝑎𝑟(𝑋𝑖) = 1
𝑛2𝑛𝜃2 = 𝜃2
𝑛
𝑛𝑖=1
Şimdi Fisher bilgisinden bu varyansın en küçük alt sınırı, 𝐿 = ∏𝑛𝑖=1𝑓(𝑥𝑖, 𝜃) = 1
𝜃𝑒−𝑥1 𝜃 …. 1
𝜃𝑒−𝑥𝑛 𝜃 = 1
𝜃𝑛𝑒− ∑𝑛𝑖=1𝑥𝑖 𝐿𝑛𝐿 = −𝑛𝑙𝑛𝜃 − 1
𝜃∑𝑛𝑖=1𝑥𝑖
𝜕2𝑙𝑛𝐿( 𝜃; 𝑥)
𝜕 𝜃2 = 𝑛
𝜃2−2 ∑𝑛𝑖=1𝑥𝑖 𝜃3 Fisher bilgisi,
Doç. Dr. Vedat SAĞLAM Sayfa 6
𝐼(𝑝) = −𝐸 [𝜕2𝑙𝑛𝐿( 𝜃; 𝑥)
𝜕 𝜃2 ] = −𝐸 [ 𝑛
𝜃2−2 ∑𝑛𝑖=1𝑥𝑖
𝜃3 ] = − 𝑛
𝜃2+ 2
𝜃3𝑛𝜃 = 𝑛
𝜃2 𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 Alt Sınırı ise
1
𝐼𝑛(𝜃) = 𝜃2 𝑛
𝑉𝑎𝑟(𝑋 ̅ ) = 𝑅𝐶𝐿𝐵 olduğundan 𝑋,̅ 𝜃 için bir 𝑈𝑀𝑉𝑈𝐸′ dir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃) olmak üzere a) 𝑇(𝑋) = 𝑋̅, 𝜃 için 𝑈𝑀𝑉𝑈𝐸’midir.
b) 𝑇(𝑋) = 𝑋̅, 𝜃2 için 𝑈𝑀𝑉𝑈𝐸′ midir.
Çözüm.
a) 𝑉𝑎𝑟(𝑋̅) = 𝑉𝑎𝑟 (1
𝑛∑𝑛𝑖=1𝑋𝑖) = 1
𝑛2∑ 𝑉𝑎𝑟(𝑋𝑖) = 1
𝑛2𝑛𝜃 = 𝜃
𝑛 𝑛𝑖=1
Şimdi Fisher bilgisinden bu varyansın en küçük alt sınırı,
𝐿(𝜃, 𝑥) = ∏ 𝑓(𝑥𝑖,
𝑛 𝑖=1
𝜃) = 𝜃𝑥1,𝑒−𝜃
𝑥1! ⋯ 𝜃𝑥𝑛,𝑒−𝜃 𝑥𝑛!
=𝑒−𝑛𝜃𝜃∑𝑛𝑖=1𝑥𝑖
∏𝑛𝑖=1𝑥𝑖 !
⏟
𝑘
𝐿(𝜃, 𝑥) = −𝑙𝑛𝑘 − 𝑙𝑛𝜃 ∑𝑛𝑖=1𝑥𝑖
𝜕2𝑙𝑛𝐿( 𝜃; 𝑥)
𝜕 𝜃2 = − ∑𝑛𝑖=1𝑥𝑖 𝜃2 Fisher bilgisi,
𝐼𝑛(𝑝) = −𝐸 [𝜕2𝑙𝑛𝐿( 𝜃; 𝑥)
𝜕 𝜃2 ] = −𝐸 [− ∑𝑛𝑖=1𝑋𝑖
𝜃2 ] = ∑𝑛𝑖=1𝐸(𝑋𝑖)
𝜃2 = 𝑛𝜃 𝜃2 = 𝑛
𝜃
𝑅𝑎𝑜 − 𝐶𝑟𝑎𝑚𝑒𝑟 alt sınırı ise
Doç. Dr. Vedat SAĞLAM Sayfa 7
1
𝐼𝑛(𝜃)= 𝜃 𝑛
b) 𝑉𝑎𝑟(𝑋̅) = 𝐸(𝑋̅2) − [𝐸(𝑋̅)]2
𝜃
𝑛 = 𝐸(𝑋̅2) − 𝜃2 𝜃2 = 𝐸(𝑋̅2)+𝜃
𝑛 , 𝐸(𝑋̅) = 𝜃 𝜃2 = 𝐸(𝑋̅2)+𝐸(𝑋̅)
𝑛
𝜃2 = 𝐸 (𝑋̅2 −𝑋̅
𝑛), 𝑌 = 𝑋̅2 −𝑋̅
𝑛 alınırsa, 𝜃2 = 𝐸 (𝑋̅2 −𝑋̅
𝑛), 𝜃2 = 𝐸(𝑌) 4. Yeterlilik
𝑋1, 𝑋2, … , 𝑋𝑛 Örneklemi 𝑓(𝑥; 𝜃) yoğunluk fonksiyonuna sahip dağılımdan alınmış olsun. T(𝑋1, 𝑋2, … , 𝑋𝑛) gibi bir istatistiği göz önüne alalım. Bu durumda verinin tamamı ile ilgilenmekten ise T(𝑋1, 𝑋2, … , 𝑋𝑛)’den elde edilen bilgi ile kitle parametresi hakkındaki bilgiye ulaşılabilir mi? Eğer bu sorunun cevabı evet ise T(𝑋1, 𝑋2, … , 𝑋𝑛) 𝜃 için yeterli bir istatistiktir.
Tanım. 𝑋1, 𝑋2, … , 𝑋𝑛 Örneklemi 𝑓(𝑥; 𝜃) yoğunluk fonksiyonuna sahip dağılımdan alınmış olsun. T(𝑋1, 𝑋2, … , 𝑋𝑛) gibi bir istatistiği göz önüne alalım.
𝑇(𝑋) = 𝑡 verilmişken 𝑋 = 𝑥 koşullu dağılımı 𝜃 parametresini içermiyorsa 𝑇(𝑋) 𝜃 için yeterli bir istatistiktir.
𝑃(𝑋 = 𝑥 𝑇(𝑋) = 𝑡(𝑥)⁄ ) = ∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)
𝑔𝑇(𝑡(𝑥1, 𝑥2, … , 𝑥𝑛) = ∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃) 𝑔𝑇(𝑡; 𝜃 ) Olasılığı 𝜃 ya bağlı değil ise 𝑇(𝑋) 𝜃 için
yeterli
bir istatistiktir.Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~exp (𝜆) olmak üzere ∑𝑛𝑖=1𝑋𝑖=T, 𝜆 için yeterli bir istatistik midir.
Doç. Dr. Vedat SAĞLAM Sayfa 8
Çözüm.
𝑃(𝑋 = 𝑥 𝑇(𝑋) = 𝑡⁄ ) =∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)
𝑔𝑇(𝑡; 𝜃 ) (∗) 𝑋𝑖~ exp(𝜆) iken 𝑇 = ∑𝑛𝑖=1𝑋𝑖~𝐺𝑎𝑚𝑚(𝑛, 𝜆) olur.
𝑓(𝑡; 𝑛, 𝜆) = 𝜆(𝜆𝑥)𝑛−1𝑒−𝜆𝑡
Γ(𝑛) , 𝜆 > 0, 𝑡 > 0 O halde
𝑔𝑇(𝑡; 𝜆 ) = 𝜆(𝜆𝑥)𝑛−1𝑒−𝜆𝑡 Γ(𝑛)
𝑃(𝑋 = 𝑥 𝑇(𝑋) = 𝑡⁄ ) = 𝜆𝑒−𝜆𝑥1𝜆𝑒−𝜆𝑥2… 𝜆𝑒−𝜆𝑥𝑛 𝜆(𝜆𝑥)𝑛−1𝑒−𝜆𝑡
Γ(𝑛)
= Γ(𝑛)
𝑡𝑛−1
ifadesi 𝜃 = 𝜆 içermediğinden 𝑇 = ∑𝑛𝑖=1𝑋𝑖 , 𝜆 için yeterli bir istatistiktir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑁(𝜃, 1) olmak üzere 𝑇 = ∑𝑛𝑖=1𝑋𝑖, 𝜃 için yeterli bir istatistik midir.
Çözüm. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑁(𝜃, 1) ise 𝑇 = ∑𝑛𝑖=1𝑋𝑖 ~𝑁(𝑛𝜃, 𝑛) 𝐸(𝑇) = 𝐸(∑𝑛𝑖=1𝑋𝑖) = ∑𝑛𝑖=1𝐸(𝑋𝑖) = 𝑛𝜃
𝑉𝑎𝑟(𝑇) = 𝑉𝑎𝑟(∑𝑛𝑖=1𝑋𝑖) = ∑𝑛𝑖=1𝑉𝑎𝑟(𝑋𝑖) = 𝑛1 = 𝑛
𝑃(𝑋 = 𝑥 𝑇(𝑋) = 𝑡⁄ ) = ∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)
𝑔𝑇(𝑡; 𝜃 )
=
∏ 1
√2𝜋𝑒−12(𝑥𝑖−𝜃)2
𝑛𝑖=1
1
√2𝜋𝑛𝑒−12(𝑡−𝑛𝜃)2 𝑡 = ∑𝑛𝑖=1𝑥𝑖 ise
Doç. Dr. Vedat SAĞLAM Sayfa 9
= 1 (2𝜋)𝑛2
⏞
𝐴
𝑒−12∑𝑛𝑖=1 (𝑥𝑖−𝜃)2 1
√2𝜋𝑛⏟
𝐵
𝑒−12(𝑡−𝑛𝜃)2
= 𝐴𝑒
−1
2[∑ 𝑥𝑖2−2𝜃∑⏞ 𝑛𝑖=1𝑥𝑖
𝑡
𝑛𝑖=1 +𝑛𝜃2]
𝐵𝑒−12[𝑡2−2𝑛𝑡𝜃+𝑛2𝜃2]
= 𝐴 𝐵𝑒−
1
2[∑𝑛𝑖=1𝑥𝑖2+𝑡2
𝑛]
Bu oran parametreden bağımsız olduğundan 𝑇 = ∑𝑛𝑖=1𝑋𝑖 istatistiği 𝜃 parametresi için yeterli bir istatistiktir.
Not. 𝑇 nin dağılımı her zaman elde edilmeyebilir. Bu durumda aşağıdaki
Neyman çarpanlarına ayırma teoremi
verilebilir.
Teorem. 𝑋1, 𝑋2, … , 𝑋𝑛~{𝑓(𝑥; 𝜃), 𝜃 ∈ 𝚯 } olsun. 𝑇 gibi bir istatistiğin yeterli olabilmesi için yeter ve gerek şart
∏𝑛𝑖=1𝑓(𝑥𝑖; 𝜃)= 𝑔𝑇(𝑡(𝑥1, 𝑥2, … , 𝑥𝑛); 𝜃 )ℎ(𝑥1, 𝑥2, … , 𝑥𝑛).
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑁(𝜃, 1) olmak üzere 𝜃 için yeterli bir istatistik bulunuz(
Neyman çarpanlarına ayırma teoremine göre
)
𝑓(𝑥; 𝜃) = ∏ 𝑓(𝑥𝑖; 𝜃)
𝑛
𝑖=1
= 1
√2𝜋𝑒−12(𝑥1−𝜃)2… 1
√2𝜋𝑒−12(𝑥𝑛−𝜃)2
= 1
(2𝜋)𝑛2𝑒−12∑𝑛𝑖=1 (𝑥𝑖−𝜃)2
= 1
(2𝜋)𝑛2 {𝑒
−1
2[∑ 𝑥𝑖2−2𝜃∑⏞ 𝑛𝑖=1𝑥𝑖
𝑡
𝑛𝑖=1 +𝑛𝜃2]
}
Doç. Dr. Vedat SAĞLAM Sayfa 10
= 1 (2𝜋)𝑛2
𝑒−12∑𝑛𝑖=1𝑥𝑖2
⏟
ℎ(𝑥)
𝑒𝜃 ∑ 𝑥𝑖−𝑛𝜃
2 𝑛 2
⏟ 𝑖=1
𝑔(𝑇(𝑥);𝜃)
şeklinde yazılabildiğinden ∑𝑛𝑖=1𝑥𝑖, 𝜃 parametresi için yeterli bir istatistiktir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑃𝑜𝑖𝑠𝑠(𝜃) olmak üzere,
a) 𝑇 = ∑𝑛𝑖=1𝑋𝑖, 𝜃 için yeterli bir istatistikmidir.
b) 𝜃 parametresi için yeterli bir tahmin edici bulunuz(
Neyman çarpanlarına ayırma teoremine göre
)Çözüm. a)
𝑃(𝑋 = 𝑥 𝑇 = 𝑡)⁄ =𝑃(𝑋 = 𝑥) 𝑃(𝑇 = 𝑡) =
∏ 𝜃𝑥𝑖 𝑥𝑖! 𝑒−𝜃
𝑛𝑖=1
(𝑛𝜃)𝑡 𝑡! 𝑒−𝑛𝜃 𝑇 = ∑𝑛𝑖=1𝑋𝑖, ⇒ 𝑇~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝑛𝜃)
𝑃(𝑋 = 𝑥 𝑇 = 𝑡)⁄ =
𝜃∑𝑛𝑖=1𝑥𝑖𝑒−𝑛𝜃
∏𝑛𝑖=1𝑥𝑖 𝑛𝑡𝜃𝑡
𝑡! 𝑒−𝑛𝜃
𝑃(𝑋 = 𝑥 𝑇 = 𝑡)⁄ = 𝑡!
𝑛𝑡 1
∏𝑛𝑖=1𝑥𝑖
Koşullu olasılığı 𝜃 parametresini içermediğinden 𝑇 = ∑𝑛𝑖=1𝑋𝑖, yeterli bir istatistiktir.
b) 𝑓(𝑥; 𝜃) = 𝜃𝑥
𝑥! 𝑒−𝜃, 𝑥 = 0,1,2, …
𝑓(𝑥; 𝜃) = 𝜃∑𝑛𝑖=1𝑥𝑖𝑒−𝑛𝜃
∏𝑛𝑖=1𝑥𝑖!
Doç. Dr. Vedat SAĞLAM Sayfa 11
= ∏ 1
𝑥𝑖!
𝑛𝑖=1
⏟
ℎ(𝑥)
𝜃∑𝑛𝑖=1𝑥𝑖𝑒−𝑛𝜃
⏟
𝑔(𝑇(𝑥); 𝜃)
olduğundan ∑𝑛𝑖=1𝑥𝑖 𝜃 için yeterli bir istatistiktir.
Ödev. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑒𝑥𝑝(𝜃) olmak üzere 𝜃 için yeterli bir istatistik bulunuz(
Neyman çarpanlarına ayırma teoremine göre
)Üstel Aile ve Yeterlilik Kavramı
𝑓(𝑥, 𝜃) = 𝑐(𝜃)ℎ(𝑥)𝑒∑𝑚𝑖=1𝑤𝑗(𝜃)𝑇𝑗(𝑥) (1)
𝑐(𝜃) ≥ 0, 𝑤1, 𝑤2, … , , 𝑤𝑚 θ′nın fonksiyonları ve ℎ(𝑥) ≥ 0, (𝑥1, 𝑥2, … , 𝑥𝑛) in fonksiyonu, 𝑇1, … , 𝑇𝑚 ler (𝑥1, 𝑥2, … , 𝑥𝑛) in fonksiyonu böylece (𝑇1( 𝑥 ), 𝑇2( 𝑥 ), …, 𝑇𝑚( 𝑥 )), (θ1, θ2, … , θ𝑚) için ortak yeterli istatistiktir.
𝑓(𝑥, 𝜃) = 𝑐(𝜃)𝑒⏟ ∑𝑚𝑖=1𝑤𝑗(𝜃)𝑇𝑗(𝑥)
𝑔(𝑇1,…,𝑇𝑚;θ1,θ2,…,θ𝑚)
ℎ(𝑥)⏟
ℎ(𝑥1,𝑥2,…,𝑥𝑛)
Ayrılabildiğinde (𝑇1( 𝑥 ), 𝑇2( 𝑥 ), …, 𝑇𝑚( 𝑥 )), (θ1, θ2, … , θ𝑚) için ortak yeterli istatistiktir.
Örnek. 𝑋~𝐵𝑒𝑡𝑎(𝛼, 𝛽) 𝛼 > 0 ve 𝛽 > 0 olsun.
Doç. Dr. Vedat SAĞLAM Sayfa 12
𝑓(𝑥1, 𝑥2, … , 𝑥𝑛; 𝛼, 𝛽) =
= [Γ(𝛼 + 𝛽) Γ(𝛼)Γ(𝛽)]
𝑛
𝑥1𝛼−1𝑥2𝛼−1… 𝑥𝑛𝛼−1(1 − 𝑥1)𝛽−1(1 − 𝑥2)𝛽−1… (1 − 𝑥𝑛)𝛽−1.
𝑓(𝑥; 𝛼, 𝛽) = Γ(𝛼+ 𝛽)
Γ(𝛼)Γ(𝛽)𝑥𝛼−1(1 − 𝑥)𝛽−1 , 𝛼 > 0 ve 𝛽 > 0; 0 < 𝑥 < 1 𝑓(𝑥1, 𝑥2, … , 𝑥𝑛; 𝛼, 𝛽) = [Γ(𝛼+ 𝛽)
Γ(𝛼)Γ(𝛽)]𝑛[∏𝑛𝑖=1𝑥𝑖]𝛼−1[∏𝑛𝑖=1(1 − 𝑥𝑖)]𝛽−1
= [Γ(𝛼 + 𝛽) Γ(𝛼)Γ(𝛽)]
𝑛
𝑒(𝛼−1) ∑𝑛𝑖=1𝑙𝑛𝑥𝑖𝑒( 𝛽−1) ∑𝑛𝑖=1ln (1−𝑥𝑖)
= [Γ(𝛼 + 𝛽) Γ(𝛼)Γ(𝛽)]
𝑛
⏟
𝑐(𝛼,𝛽)
𝑒𝛼 ∑𝑛𝑖=1𝑙𝑛𝑥𝑖+𝛽 ∑𝑛𝑖=1ln (1−𝑥𝑖)
⏟
𝑇1(𝑥)=∑𝑛𝑖=1𝑙𝑛𝑥𝑖 𝑇2(𝑥)=∑𝑛𝑖=1𝑙𝑛 (1−𝑥𝑖) 𝑤1(𝛼,𝛽)=𝛼, 𝑤2(𝛼,𝛽)=𝛽
𝑒− ∑𝑛𝑖=1𝑙𝑛𝑥𝑖−∑𝑛𝑖=1𝑙𝑛 (1−𝑥𝑖)
⏟
ℎ(𝑥)
𝑓(𝑥; 𝛼, 𝛽) üstel aile özelliğine sahip (𝛼, 𝛽) için ortak yeterli istatistikler (− ∑𝑛𝑖=1𝑙𝑛𝑥𝑖, −∑𝑛𝑖=1𝑙𝑛 (1 − 𝑥𝑖)) biçimindedir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~üzere 𝜇, 𝜎2 parametreleri için yeterli istatistik bulunuz.
Çözüm. 𝑓(𝑥; 𝜇, 𝜎2) = {
1
√2𝜋𝜎2𝑒−
1
2𝜎2(𝑥−𝜇)2
, −∞ < 𝑥 < ∞ 0 , 𝑑𝑑
, ∞ < 𝜇 < ∞, 𝜎2 > 0
𝑓(𝑥; 𝜇, 𝜎2) = ∏𝑛𝑖=1𝑓(𝑥𝑖, 𝜇, 𝜎2)
= 1
[2𝜋𝜎2]𝑛 2⁄ 𝑒−
1
2𝜎2∑𝑛𝑖=1(𝑥𝑖−𝜇)2
= 1
[2𝜋𝜎2]𝑛 2⁄ 𝑒−
1
2𝜎2∑𝑛𝑖=1(𝑥𝑖2−2𝜇𝑥𝑖+𝜇2)
= 1
[2𝜋𝜎2]𝑛 2⁄ 𝑒−
1
2𝜎2∑𝑛𝑖=1(𝑥𝑖2−2𝜇𝑥𝑖+𝜇2)
= 1
[2𝜋𝜎2]𝑛 2⁄ 𝑒−
𝑛𝜇2 2𝜎2𝑒−
1
2𝜎2∑𝑛𝑖=1𝑥𝑖2+𝜇
𝜎2∑𝑛𝑖=1𝑥𝑖
Doç. Dr. Vedat SAĞLAM Sayfa 13
= 1
[2𝜋]𝑛 2⁄
⏟
ℎ(𝑥)
1 [𝜎2]𝑛 2⁄
⏟
𝑐(𝜇,𝜎2)
𝑒−
𝑛𝜇2
2𝜎2 𝑒
[∑𝑛𝑖=1𝑥𝑖2 ∑𝑛𝑖=1𝑥𝑖 ][
−1 2𝜎2 𝜇 𝜎2
]
⏟
𝑇1(𝑥)=∑𝑛𝑖=1𝑥𝑖2 𝑇2(𝑥)=∑𝑛𝑖=1𝑥𝑖
𝑤1(𝜇,𝜎2)=−1/𝜎2, 𝑤2(𝜇,𝜎2)=𝜇/𝜎2
∑𝑛𝑖=1𝑥𝑖 ve ∑𝑛𝑖=1𝑥𝑖2 𝜇, 𝜎2 için yeterli istatistiktir.
Minimal Yeterli İstatistik
Mümkün olan veri indirgemesi yapılırken 𝜃 hakkındaki bilgiyi muhafaza eden istatistiğe minimal yeterli istatistik denir.
Tanım. 𝑇∗(𝑋) ve 𝑇(𝑋) tahmin edicileri yeterli istatistikler olmak üzere 𝑇(𝑋) = 𝑓(𝑇∗(𝑋))
olacak biçimde bir 𝑓 fonksiyonu varsa 𝑇(𝑋) istatistiği minimal yeterlidir. Bu bağlamda aşağıdaki teorem verilebilir.
Teorem. 𝑋1, 𝑋2, … , 𝑋𝑛 𝑓(𝑥; 𝜃) yoğunluk fonksiyonuna sahip bir örneklem olsun.
𝑓(𝑥; 𝜃)
𝑓(𝑦; 𝜃)= ℎ(𝑥, 𝑦) ⇔ 𝑇(𝑋) = 𝑇(𝑌) Bu durumda 𝑇(𝑋) istatistiği 𝜃 için minimal yeterlidir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆) olmak üzere teoremi uygulayarak 𝜆 için minimal yeterli istatistiği bulunuz.
Çözüm.
𝑓(𝑥; 𝜆) 𝑓(𝑦; 𝜆)=
∏ 𝜆𝑥𝑖𝑒−𝜆 𝑥𝑖!
𝑛𝑖=1
∏ 𝜆𝑦𝑖𝑒−𝜆 𝑦𝑖!
𝑛𝑖=1
= ∏∏𝑛𝑖=1𝑦𝑖!
𝑥𝑖!
𝑛𝑖=1
𝜆∑𝑛𝑖=1𝑥𝑖−∑𝑛𝑖=1𝑦𝑖
= ℎ(𝑥, 𝑦) ⇔ ∑𝑛𝑖=1𝑥𝑖 = ∑𝑛𝑖=1𝑦𝑖
Doç. Dr. Vedat SAĞLAM Sayfa 14
= ∏∏𝑛𝑖=1𝑦𝑖!
𝑥𝑖!
𝑛𝑖=1
.1
olduğundan ∑𝑛𝑖=1𝑥𝑖, 𝜆 için
minimal yeterli istatistiktir
.Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛~𝐵𝑖𝑛𝑜𝑚(𝑚, 𝑝) olmak üzere teoremi uygulayarak 𝑝 için minimal yeterli istatistiği bulunuz.
𝑓(𝑥; 𝜆) 𝑓 (𝑦; 𝜆) =
∏ (𝑚
𝑥𝑖)
𝑛𝑖=1 𝑝𝑥𝑖(1 − 𝑝)𝑚−𝑥𝑖
∏ (𝑚
𝑦𝑖)
𝑛𝑖=1 𝑝𝑦𝑖(1 − 𝑝)𝑚−𝑦𝑖
=
∏ (𝑚
𝑥𝑖)
𝑛𝑖=1
∏ (𝑚
𝑦𝑖)
𝑛𝑖=1
𝑝∑𝑛𝑖=1𝑥𝑖−∑𝑛𝑖=1𝑦𝑖(1 − 𝑝)∑𝑛𝑖=1𝑦𝑖−∑𝑛𝑖=1𝑥𝑖
𝑓(𝑥; 𝜆)
𝑓(𝑦; 𝜆) = ℎ(𝑥, 𝑦) ⇔ ∑𝑛𝑖=1𝑥𝑖 = ∑𝑛𝑖=1𝑦𝑖 = ∏ (
𝑚 𝑥𝑖)
𝑛𝑖=1
∏ (𝑚 𝑦𝑖)
𝑛𝑖=1
1.1
olduğundan ∑𝑛𝑖=1𝑥𝑖 ,
p
için minimal yeterli istatistiktir.Ödev. 𝑋1, 𝑋2, … , 𝑋𝑛~𝑒𝑥𝑝(𝜆) olmak üzere teoremi uygulayarak 𝜆 için minimal yeterli istatistiği bulunuz.
Teorem(𝑅𝑎𝑜 − 𝐵𝑙𝑎𝑐𝑘𝑤𝑒𝑙𝑙 𝑇. ). 𝑋1, 𝑋2, … , 𝑋𝑛 olasılık yoğunluk fonksiyonu 𝑓(𝑥; 𝜃) olan bir örneklem olsun. 𝑇(𝑋) de 𝜃 için yeterli bir istatistik ve 𝑈(𝑋) de yansız bir tahmin edici olsun.
Φ(𝑡) = 𝐸[𝑈(𝑋) 𝑇(𝑋)⁄ = 𝑡(𝑥)]
a) 𝐸[Φ(𝑇)] = θ
b) 𝑉𝑎𝑟[Φ(𝑇)] ≤ 𝑉𝑎𝑟[𝑈(𝑋)]
İspat a)
𝐸[Φ(𝑇)] = ∫ Φ(𝑡)−∞∞ 𝑔(𝑡)𝑑𝑡
= ∫−∞∞ 𝐸[𝑈(𝑋) 𝑇(𝑋)⁄ = 𝑡(𝑥)]𝑔(𝑡)𝑑𝑡
Doç. Dr. Vedat SAĞLAM Sayfa 15
= ∫−∞∞ ∫−∞∞ 𝑢𝑔(𝑢 𝑡⁄ )𝑔(𝑡)𝑑𝑡𝑑𝑢
= ∫ ∫ 𝑢𝑔(𝑢,𝑡)
𝑔(𝑡) 𝑔(𝑡)𝑑𝑡𝑑𝑢
∞
−∞
∞
−∞
= ∫ 𝑢−∞∞ ∫⏟ −∞∞ 𝑔(𝑢, 𝑡)𝑑𝑡
𝑔(𝑢)
𝑑𝑢
= 𝐸(𝑈)
= 𝜃 b ) 𝑉𝑎𝑟(𝑋) = 𝐸𝑌(𝑉𝑎𝑟(𝑋 𝑌⁄ ) + 𝑉𝑎𝑟(𝐸(𝑋 𝑌⁄ )) eşitliğinden
𝑉𝑎𝑟 (𝑈(𝑋)) = 𝐸𝑇[𝑉𝑎𝑟(𝑈(𝑋) 𝑇(𝑋)⏟ ⁄ )
≥0
] + 𝑉𝑎𝑟[𝐸(𝑈(𝑋) 𝑇(𝑋)⁄ )]
𝑉𝑎𝑟 (𝑈(𝑋)) ≥ 𝑉𝑎𝑟[𝐸(𝑈(𝑋) 𝑇(𝑋)⁄ )] = 𝑉𝑎𝑟(Φ(𝑇))
𝑉𝑎𝑟 (𝑈(𝑋)) ≥ 𝑉𝑎𝑟(Φ(𝑇)) olur.
Yardımcı İstatistik
Tanım. Bir istatistiğin dağılımı bilinmeyen parametreye bağlı değil ise bu istatistiğe yardımcı istatistik denir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛 ~𝑁(𝜇, 25) 𝑇 = (𝑛−1)𝑆2
25 ~𝜒(𝑛−1)2 , 𝑇′𝑛𝑖𝑛 𝑑𝑎ğ𝚤𝑙𝚤𝑚𝚤 𝜇′𝑦𝑒 𝑏𝑎ğ𝑙𝚤 𝑑𝑒ğ𝑖𝑙𝑑𝑖𝑟.
𝑇∗ = ∑𝑛𝑖=1𝑋𝑖 𝑇∗ 𝜇 𝑖ç𝑖𝑛 𝑦𝑒𝑡𝑒𝑟𝑙𝑖 𝑏𝑖𝑟 𝑖𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑘𝑡𝑖𝑟.
𝑇 ise 𝜇 için yardımcı bir istatistiktir. Bu 𝑇 istatistiği 𝜇 hakkında bilgi vermez.
Tam Aile ve Tam İstatistik
Doç. Dr. Vedat SAĞLAM Sayfa 16
Tanım. 𝐹 = {𝑓(𝑥; 𝜃), 𝜃𝜖Θ } ailesi için 𝑇 yeterli bir istatistik olsun. Bu istatistiğin herhangi bir fonksiyonu için, 𝐸(𝑔(𝑇)) = 0 (∀ 𝜃𝜖Θ) iken 𝑃(𝑔(𝑇)) = 1 oluyorsa 𝐹’ ye tam aile 𝑇’ ye ise 𝜃′nın tam ve yeterli istatistiği denir.
Örnek. 𝑋1, 𝑋2, … , 𝑋𝑛 parametresi 𝜃 olan Bernoulli dağılımından çekilen bir örneklem olsun. 0< 𝜃 < 1 için 𝑇 = ∑𝑛𝑖=1𝑋𝑖 istatistiği Bernoulli dağılımlar ailesi için tam mıdır?
Çözüm. 𝐸(𝑔(𝑇)) = 0 ⇒ 𝑃(𝑔(𝑇)) = 1
𝐸(𝑔(𝑇)) = 0 ⇒ 𝑔(𝑇) = 0 (𝑇 𝑖𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖ğ𝑖 𝑡𝑎𝑚𝑑𝚤𝑟) 𝐸(𝑔(𝑇))= ∑𝑛𝑖=1𝑔(𝑡)𝑃(𝑇 = 𝑡)
= ∑𝑛𝑖=1𝑔(𝑡)(𝑛𝑡)𝜃𝑡(1 − 𝜃)𝑛−𝑡
= (1 − 𝜃)𝑛∑𝑛𝑖=1𝑔(𝑡)(𝑛𝑡)𝜃𝑡(1 − 𝜃)−𝑡, 0 < 𝜃 < 1
= (1 − 𝜃)
>0
𝑛∑ 𝑔(𝑡) (⏟𝑛𝑡)
>0
[ 𝜃
1−𝜃]𝑡
⏟
>0 𝑛 = 0
𝑖=1
Bu toplamın sıfıra eşit olması bütün 𝑡 ler için 𝑔(𝑡) = 0 olması ile mümkündür. Yani 𝐸(𝑔(𝑇)) = 0 ⇒ 𝑃(𝑔(𝑇)) = 1 olduğundan 𝑇 = ∑𝑛𝑖=1𝑋𝑖 istatistiği Bernoulli dağılımlar ailesi için tamdır
Basu Teoremi
Eğer 𝑇 yeterli ve tam bir istatistik ise 𝑇 herhangi bir yardımcı istatistikten bağımsızdır.
Örnek.
𝑋1, 𝑋2, … , 𝑋𝑛~𝑁(𝜇, 25) için 𝑇∗ = ∑𝑛𝑖=1𝑋𝑖, 𝜇 için yeterli bir istatistiktir.
𝑇 = (𝑛−1)𝑆2
25 ~𝜒(𝑛−1)2 , 𝑇 ise 𝜇 için yardımcı bir istatistiktir. Bu 𝑇 istatistiği 𝜇 hakkında bilgi vermez.
(𝑛−1)𝑆2
25 ile de ∑𝑛𝑖=1𝑋𝑖, (𝑇 𝑖𝑙𝑒 𝑇∗) birbirinden bağımsızdır. Bu bağlamda 𝑆2 ile 𝑋 birbirinden bağımsızdır.
Lehman-Scheffe Teklik Teoremi
Doç. Dr. Vedat SAĞLAM Sayfa 17
𝑋1, 𝑋2, … , 𝑋𝑛 yoğunluk fonksiyonu 𝑓(𝑥; 𝜃) olan bir dağılımdan rasgele çekilen bir örneklem ve 𝜃 parametresinin de tam yeterli tahmin edicisi
𝑇(𝑋1, 𝑋2, … , 𝑋𝑛) = 𝑇(𝑋 ) olsun. 𝑇’nin bir fonksiyonu olan 𝑈 = 𝑈(𝑇) sonlu varyanslı ve 𝜃 için yansız bir tahmin edici ise bu 𝑇(𝑋1, 𝑋2, … , 𝑋𝑛) tahmin edicisi yansız tahmin ediciler arasında en küçük varyanslı ve tektir.
Teorem. 𝑇(𝑋 ) 𝜃 için yeterli bir istatistik {ℎ𝑇{𝑡, 𝜃 }, 𝜃𝜖Θ } tam bir aile olsun.
Eğer 𝑇′nin herhangi bir fonksiyonu 𝜃 için yansız ise yansız en küçük varyanslı tahmin ediciler arasında 𝑇(𝑋 ) tekdir.