ANKARA ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ YÜKSEK LİSANS TEZİ GENELLEŞTİRİLMİŞ LİNEER KARMA MODELLER ÜZERİNE BİR ÇALIŞMA Merve OĞUZ İSTATİSTİK ANABİLİM DALI ANKARA 2016 Her hakkı saklıdır

90  Download (0)

Tam metin

(1)

ANKARA ÜNİVERSİTESİ FEN BİLİMLERİ ENSTİTÜSÜ

YÜKSEK LİSANS TEZİ

GENELLEŞTİRİLMİŞ LİNEER KARMA MODELLER ÜZERİNE BİR ÇALIŞMA

Merve OĞUZ

İSTATİSTİK ANABİLİM DALI

ANKARA 2016

Her hakkı saklıdır

(2)

TEZ ONAYI

Merve OĞUZ tarafından hazırlanan “Genelleştirilmiş Lineer Karma Modeller Üzerine Bir Çalışma” adlı tez çalışması 05/08/2016 tarihinde aşağıdaki jüri tarafından oy birliği ile Ankara Üniversitesi Fen Bilimleri Enstitüsü İstatistik Anabilim Dalı’nda YÜKSEK LİSANS TEZİ olarak kabul edilmiştir.

Danışman : Doç. Dr. Rukiye DAĞALP

Ankara Üniversitesi İstatistik Anabilim Dalı

Jüri Üyeleri :

Başkan : Yrd. Doç. Dr. Emel BAŞAR

Gazi Üniversitesi İstatistik Anabilim Dalı

Üye : Yrd. Doç. Dr. Esin KÖKSAL BABACAN Ankara Üniversitesi İstatistik Anabilim Dalı

Üye : Doç. Dr. Rukiye DAĞALP

Ankara Üniversitesi İstatistik Anabilim Dalı

Yukarıdaki sonucu onaylarım.

Prof. Dr. İbrahim DEMİR Enstitü Müdür V.

(3)

i ETİK

Ankara Üniversitesi Fen Bilimleri Enstitüsü tez yazım kurallarına uygun olarak hazırladığım bu tez içindeki bütün bilgilerin doğru ve tam olduğunu, bilgilerin üretilmesi aşamasında bilimsel etiğe uygun davrandığımı, yararlandığım bütün kaynakları atıf yaparak belirttiğimi beyan ederim.

05/08/2016

Merve OĞUZ

(4)

ii ÖZET

Yüksek Lisans Tezi

GENELLEŞTİRİLMİŞ LİNEER KARMA MODELLER ÜZERİNE BİR ÇALIŞMA

Merve OĞUZ Ankara Üniversitesi Fen Bilimleri Enstitüsü İstatistik Anabilim Dalı

Danışman: Doç. Dr. Rukiye DAĞALP

Bu çalışmada ilk olarak lineer modeller, lineer karma modeller, genelleştirilmiş lineer modeller ve genelleştirilmiş lineer karma modellerin yapıları üzerinde durulmuştur.

Çalışmanın sonraki kısmında, genelleştirilmiş lineer karma modellerde bazı integral yaklaşımları ve olabilirlik yaklaşımları incelenmiştir. İntegral yaklaşımlarından Laplace Yaklaşımı, Gauss-Hermite Quadrature yöntemi, Adaptive Gauss-Hermite Quadrature yöntemi ve olabilirlik yaklaşımı olan Penalized yarıolabilirlik yöntemi ele alınmıştır.

Çalışmanın uygulama kısmında Laplace Yaklaşımı, Adaptive Gauss-Hermite Quadrature yöntemi ve Penalized yarıolabilirlik yöntemiyle elde edilen tahmin sonuçlarını karşılaştırmak amacıyla üç veri seti üzerinde analizler yapılmıştır. Daha sonra benzer karşılaştırmalar için bir simülasyon çalışması yapılmıştır.

Ağustos 2016, 78 sayfa

Anahtar Kelimeler: Lineer modeller, genelleştirilmiş lineer modeller, genelleştirilmiş lineer karma modeller, Laplace Yaklaşımı, Penalized yarıolabilirlik, Gauss-Hermite Quadrature, Adaptive Gauss-Hermite Quadrature

(5)

iii ABSTRACT Master Thesis

A STUDY ON GENERALIZED LINEAR MIXED MODELS

Merve OĞUZ

Ankara University

Graduate School of Natural and Applied Sciences Department of Statistics

Supervisor: Assoc. Prof. Dr. Rukiye DAĞALP

In this study structure of the linear models, linear mixed models, generalized linear models and generalized linear mixed models have been considered firstly. In the next part of the study, some integral and likelihood approaches in generalized linear mixed models have been investigated. Laplace approximation, Gauss-Hermite Quadrature and Adaptive Gauss-Hermite Quadrature methods of integral approximations and Penalized quasi likelihood method of likelihood approximations have been discussed. At the part of the analysis, three data sets have been analysed in order to compare estimation results obtained from Laplace approximation, Adaptive Gauss-Hermite Quadrature and Penalized quasi likelihood methods. Then a simulation study have been performed to same comparisons.

August 2016, 78 pages

Key Words: Linear models, generalized linear models, generalized linear mixed models, Laplace approximation, Penalized quasi likelihood, Gauss-Hermite Quadrature, Adaptive Gauss-Hermite Quadrature

(6)

iv TEŞEKKÜR

Değerli fikir ve önerileriyle yol gösterip çalışmamın başlamasına katkı sağlayan hocam sayın Prof. Dr. Fikri ÖZTÜRK’e (Ankara Üniversitesi İstatistik Anabilim Dalı), tüm yoğun programına rağmen çalışmamı bitirmem konusunda yardım ve desteğini esirgemeyip danışmanlığımı kabul eden değerli hocam sayın Doç. Dr. Rukiye DAĞALP’e (Ankara Üniversitesi İstatistik Anabilim Dalı), kod yazımında yardımcı olan Atacan ERDİŞ’e, yardımlarıyla yanımda olan iş arkadaşlarıma ve her koşulda beni destekleyip yanımda olan SEVGİLİ AİLEME en içten teşekkürlerimi sunarım.

Merve OĞUZ

Ankara, Ağustos 2016

(7)

v

İÇİNDEKİLER

TEZ ONAY SAYFASI

ETİK………..… ... i

ÖZET…………. ... ii

ABSTRAC…… ... iii

TEŞEKKÜR ... iv

KISALTMALAR DİZİNİ ... vii

ŞEKİLLER DİZİNİ ... viii

ÇİZELGELER DİZİNİ ... ix

1. GİRİŞ………. ... 1

2. KURAMSAL TEMELLER ... 4

2.1 Lineer Modeller ... 4

2.2 Lineer Karma Modeller ... 6

2.3 Genelleştirilmiş Lineer Modeller ... 9

2.3.1 Bağımlı değişkenin dağılımı ... 10

2.3.2 Bağlantı (Link) Fonksiyonu ... 16

2.4 Genelleştirilmiş Lineer Karma Modeller ... 19

2.4.1 Genelleştirilmiş lineer karma modellerde olabilirlik fonksiyonu ... 23

3. GENELLEŞTİRİLMİŞ LİNEER KARMA MODELLERDE BAZI TAHMİN YÖNTEMLERİ ... 26

3.1 İntegral Yaklaşımları ... 26

3.1.1 Laplace Yaklaşımı ... 26

3.1.2 Gauss-Hermite Quadrature ... 27

3.1.3 Adaptive Gauss-Hermite Quadrature ... 32

3.2 Olabilirlik Yaklaşımı ... 34

(8)

vi

3.2.1 Penalized yarıolabilirlik ... 34

3.3 Model Seçim Kriterlerinden Akaike Bilgi Kriteri ... 40

4. UYGULAMA ... 41

4.1 Spector Veri Seti ... 41

4.2 Epilepsy Veri Seti ... 49

4.3 Boşanma Veri Seti ... 56

4.4 Simülasyon Çalışması ... 66

5. SONUÇ…… ... 73

5.1 Değerlendirme ... 73

5.2 Öneriler ... 74

KAYNAKLAR ... 76

ÖZGEÇMİŞ…. ... 78

(9)

vii

KISALTMALAR DİZİNİ

AGHQ Adaptive Gauss-Hermite Quadrature

AIC Akaike Bilgi Kriteri (Akaike Information Criterion) ANOVA Varyans Analizi

GHQ Gauss-Hermite Quadrature GLM Genelleştirilmiş Lineer Model

GLMM Genelleştirilmiş Lineer Karma Model i.i.d. Bağımsız ve aynı dağılımlı

LM Lineer Model

LMM Lineer Karma Model

Max. Maksimum

Min. Minimum

PQL Penalized yarıolabilirlik (Penalized Quasi Likelihood) Qu. Çeyreklik (Quartile)

Std. Standart

(10)

viii

ŞEKİLLER DİZİNİ

Şekil 3.1 GHQ yöntemindeki quadrature noktalarına karşılık gelen quadrature

ağırlıkları ... 31

Şekil 3.2 İntegrali alınacak aynı fonksiyon için: a. Gaussian quadrature, b, adaptive Gaussian quadrature ile elde edilen 10 quadrature noktasının pozisyonlarının karşılaştırması ... 34

Şekil 4.1 Sabit terim için elde edilen tahminlerin kutu ve histogram grafikleri ... 68

Şekil 4.2 β1 parametresi için elde edilen tahminlerin kutu ve histogram grafikleri ... 69

Şekil 4.3 β2 parametresi için elde edilen tahminlerin kutu ve histogram grafikleri ... 70

(11)

ix

ÇİZELGELER DİZİNİ

Çizelge 2.1 Dağılımların özet tablosu ve kanonik bağlantıları ... 17

Çizelge 3.1 GLMM parametre tahmin yöntemlerinin avantajları, dezavantajları ve uygun yazılımlar ... 39

Çizelge 4.1 Spector veri setindeki değişkenler ve açıklamaları ... 41

Çizelge 4.2 Spector veri seti... 42

Çizelge 4.3 Spector veri setine ait değişkenlerin özet istatistikleri ... 43

Çizelge 4.4 psi ve grade değişkeni çapraz tablosu ... 44

Çizelge 4.5 Spector veri seti için GLM yönteminden elde edilen sonuç ... 45

Çizelge 4.6 Spector veri seti için Laplace Yaklaşımıyla GLMM için elde edilen sonuç ... 45

Çizelge 4.7 Spector veri seti için quadrature noktası 10 iken AGHQ yöntemiyle GLMM için elde edilen sonuç ... 46

Çizelge 4.8 Spector veri seti için PQL yöntemiyle GLMM için elde edilen sonuç ... 46

Çizelge 4.9 Spector veri seti için dört farklı modelde bağımsız değişkenlerin katsayı tahminleri, standart hataları ve P değerleri ... 47

Çizelge 4.10 Spector veri seti için her bir yöntemin AIC değerleri ... 48

Çizelge 4.11 tuce değişkeni modelden çıkarıldığında GLM yöntemiyle elde edilen sonuçlar ... 48

Çizelge 4.12 Epilepsy veri setindeki değişkenler ve açıklamaları ... 50

Çizelge 4.13 Epilepsy veri seti ... 50

Çizelge 4.14 Epilepsy veri setindeki değişkenlerin özet istatistikleri ... 51

Çizelge 4.15 Haftada geçirilen nöbet sayısı ortalamaları... 52

Çizelge 4.16 Epilepsy veri seti için Laplace Yaklaşımıyla GLMM için elde edilen sonuç ... 53

Çizelge 4.17 Epilepsy veri seti için quadrature noktası 5 iken AGHQ yöntemiyle GLMM için elde edilen sonuç ... 53

Çizelge 4.18 Epilepsy veri seti için PQL yöntemiyle GLMM için elde edilen sonuç .... 54

(12)

x

Çizelge 4.19 Epilepsy veri setinde üç farklı model için bağımsız değişkenlerin katsayı tahminleri, standart hataları ve P değerleri ... 55 Çizelge 4.20 Epilepsy veri seti için her bir yöntemin bilgi kriterleri ... 55 Çizelge 4.21 Modelde sadece expind değişkeni varken AGHQ yöntemiyle

GLMM için elde edilen sonuç ... 56 Çizelge 4.22 Boşanma veri setine ait değişkenlerin özet istatistikleri ... 58 Çizelge 4.23 Boşanma veri setindeki değişkenlerin birbirleriyle korelasyonları ... 59 Çizelge 4.24 Boşanma veri seti için Laplace Yaklaşımıyla GLMM için elde edilen

sonuç ... 61 Çizelge 4.25 Boşanma veri seti için AGHQ yöntemiyle GLMM için elde edilen

sonuç ... 62 Çizelge 4.26 Boşanma veri seti için PQL yöntemiyle GLMM için elde edilen

sonuç ... 63 Çizelge 4.27 Boşanma veri setinde üç farklı model için bağımsız değişkenlerin katsayı tahminleri, standart hataları ve P değerleri ... 64 Çizelge 4.28 Simülasyon ile elde edilen sonuçların özet tablosu ... 67 Çizelge 4.29 Farklı parametre değerleri için simülasyon çalışması ile elde edilen

sonuçların özet tablosu ... 71

(13)

1 1. GİRİŞ

Model, gerçek bir durumun onu temsil eden değişkenlerle özetlenmiş halidir. Modeller deterministik veya olasılıklı olabilir. Fen ve mühendislik bilimlerinde sık rastlanan deterministik modellerde sonuçlar kesindir. Olasılık modellerinde bilinmeyen rasgele değişkenlere bağlı olarak sonuçlar değişebilir. Olasılık bileşeni içeren bu modellere istatistiksel modeller denmektedir (Lindsey 1997).

Sir Francis Galton 19. yüzyılın sonlarında, olasılık modellerinin önemli ve en çok kullanılan modellerinden olan lineer modellerin içinde yer alan klasik regresyon analizine önemli katkılarda bulunmuştur. Klasik regresyon analizi bağımlı değişken ile bağımsız değişkenler arasındaki matematiksel ilişkiyi araştırır. Lineer modellerde, bağımlı ve bağımsız değişkenler kavramı matematiksel anlamda kullanılmaktadır. Bu fonksiyonel ilişkinin araştırılmasında teorik olarak bazı varsayımlara gerek vardır.

Seçilen fonksiyonun biçimine bağlı olarak model kurma hatası veya daha çok bilinen adıyla deneysel hata ortaya çıkmaktadır. Regresyon katsayıları model parametreleri olup, parametre tahminleri için deneysel hatanın sabit varyanslı ve aralarında ilişkisiz (ardışık bağımsız) olması varsayımları gereklidir. Ayrıca, parametrelerin aralık tahmini ve hipotez testleri için deneysel hata üzerinde normallik varsayımı gereklidir. Birden fazla bağımsız değişken kullanılarak yapılan çoklu regresyon; yapılan bir deneyin sonunda bağımlı değişkende meydana gelen değişkenliğin ne kadarının faktör(ler)den, ne kadarının hatadan, vb. kaynaklandığının belirlenmesiyle yapılan üç ya da daha fazla grup ortalaması arasında istatistiksel olarak farklılık olup olmadığını test etmek amacıyla kullanılan varyans analizi (ANOVA) yöntemi (Şenoğlu ve Acıtaş 2011) klasik lineer modellere örnektir.

Lineer modellerin yaygın olmasının sebebi; model parametrelerine ilişkin tahminlerin kolay elde edilmesi, parametrelere ilişkin istatistiksel testlerin, güven aralıklarının, ortalamaya ilişkin güven aralığı çıkarımlarının kolayca yapılabilmesi ve tüm bu analizlerin pek çok paket programlarında yapılabiliyor olmasıdır (Myers vd. 2010).

(14)

2

Farklı istatistiksel yöntemlerin görünüşte birleştirilmesi için lineerlikten nasıl yararlanılacağını gösteren Nelder ve Wedderburn Genelleştirilmiş lineer modeller (Generalized Linear Model, GLM) terimini 1972 yılında ortaya koymuştur (McCullagh ve Nelder 1989). Matematiksel fonksiyon biçiminin lineer olması ve deneysel hata teriminin normal dağılmasından dolayı bağımlı değişkenin normal dağılıma sahip olmasını gerektiren lineer modellerin aksine, GLM’de bağımlı değişken üstel aile sınıfından bir dağılıma da sahip olabilmektedir. GLM’de bağlantı fonksiyonu yardımıyla ortalama ile bağımsız değişkenler arasında lineer olmayan ilişki kurulabilir.

GLM’in özel durumları sadece lineer regresyon ve ANOVA modelleri değildir; lojistik regresyon, probit modeller, Poisson regresyon ve log-lineer modeller de GLM’in özel durumları olmaktadır (Anderson vd. 2012).

Genelleştirilmiş lineer modellerin tarihsel gelişimi

Çoklu lineer regresyon ile ilgili ilk çalışmalar Legendre ve Gauss tarafından yapılmıştır.

Legendre (1805) ilk kez hata kareler toplamının minimum yapılmasıyla bilinmeyen β parametrelerinin tahminini önermiştir. Gauss (1809), hatalar için sıfır ortalamalı ve sabit varyanslı Normal dağılımı ortaya koymuştur. Tasarlanmış deneylerin varyans analizi (ANOVA) üzerinde çalışmış olan Fisher (1922), seyreltme deneyi probleminde tahmin ediciyi elde etmek için en çok olabilirlik yönteminin nasıl uygulanacağını göstermiş ve çalışmasında log-log bağlantısını kullanmıştır. Probit analizinin geçmişi Bliss’in (1935) çalışmalarına dayanmaktadır. Eisenhart (1947) rasgele, sabit ve karma modellerin belirlenmesine katkıda bulunmuştur. Dyke ve Patterson (1952) anket verilerine uyguladıkları lineer lojistik model analizini yayımlamışlardır. Henderson (1953) hayvan genetiği ile ilgili çalışmalarında ilk kez karma model metodolojisini kullanmıştır. Feigl ve Zelen (1965), Zippin ve Armitage (1966), Glasser (1967) üstel dağılımlı yaşam verileri için regresyon modeli üzerinde çalışmışlardır. Nelder (1966) ters polinomu ortaya çıkarmıştır. GLM terimi ilk defa Nelder ve Wedderburn (1972) tarafından kullanılmıştır. Wedderburn (1974) yarıolabilirlik fikrini ortaya atarak GLM’in uygulanabilirliğine önemli katkı sağlamıştır. Harville (1976, 1977) ise karma modeller ile ilgili genel teoriyi ortaya koymuştur. Aitkin ve Clayton (1980) ve Whitehead (1980)

(15)

3

durdurulmuş (censored) yaşam verisi analizinin GLM çerçevesinde nasıl biçimlendirileceğini göstermişlerdir. GLM’e rasgele etkilerin eklenmesi çalışmaları genelleştirilmiş lineer karma modellerin (Generalized Linear Mixed Model, GLMM) ortaya çıkmasına neden olmuştur. GLM için ilk kullanılabilir yazılım 1980’lerin ortalarında, modelde sabit ve rasgele etkili parametreleri bir arada bulunduran lineer karma modeller (Linear Mixed Model, LMM) için ilk yazılım 1990’larda, GLMM için ilk gerçekten kullanılabilir yazılım ise 2000’lerin ortalarında ortaya çıkmıştır (McCullagh ve Nelder 1989, Lindsey 1997, Gbur vd. 2012).

Bu çalışmanın amacı GLMM’deki bazı tahmin yöntemlerinin sonuçlarının karşılaştırılmasıdır. Bir sonraki bölümde lineer modeller, LMM, GLM ve GLMM’in yapısı ile ilgili kuramsal temeller verilmiştir. Üçüncü bölümde GLMM’deki tahmin yöntemlerinden Laplace yaklaşımı, Gauss-Hermite Quadrature yöntemi, Adaptive Gauss-Hermite Quadrature yöntemi ve Penalized yarıolabilirlik yöntemi incelenmiştir.

Dördüncü bölümde Laplace Yaklaşımı, Adaptive Gauss-Hermite Quadrature yöntemi ve Penalized yarıolabilirlik yöntemiyle elde edilen tahmin sonuçlarını karşılaştırmak amacıyla üç veri seti üzerinde analizler yapılmış ve simülasyon çalışması yapılmıştır.

Değerlendirme ve önerilerin yer aldığı sonuç bölümü ile çalışma sona ermektedir.

(16)

4 2. KURAMSAL TEMELLER

2.1 Lineer Modeller

Y:nx1 boyutlu gözlemlerin vektörü (rasgele vektör), X:nxp (p<n) boyutlu bilinen sayıların matrisi (model matrisi, tasarım matrisi), β:px1 boyutlu bilinmeyen parametrelerin vektörü,

𝛆

:nx1 boyutlu rasgele değişkenlerin gözlenebilir olmayan bir vektörü (E(𝛆) = 0, Cov(𝛆) = 𝚺) olmak üzere bunlar arasında (p parametre sayısı, k bağımsız değişken sayısı ve p = k + 1),

[ Y1 Y2

⋮ Yn

] = [

1 x11 1 x21

… x1k

… x2k

⋮ ⋮

1 xn1… ⋮

… xnk ] [

β0 β1

⋮ βk

] + [ ε1 ε2

⋮ εn

]

𝐘 = 𝐗𝛃 + 𝛆

biçiminde varsayılan bağıntıya lineer model (Linear Model, LM) denir (Akdeniz ve Öztürk 1996).

Lineer modelde parametreler doğrusal şekilde modele girmekte ve Y bağımlı değişkeni, X bağımsız değişkenlerinin matematiksel bir fonksiyonu olup, lineer fonksiyon biçiminde yazılabilmektedir. Örneğin;

Y = β0+ β1X1+ β2logX2+ β3X1X2+ ε

lineer modeldir, fakat

Y = β0+ β1X1β2 + ε

(17)

5 modeli bir lineer model değildir (Faraway 2005).

Modeldeki hata terimi için,

E(εi) = 0, Var(εi) = σ2, i = 1,2, … , n (sabit varyanslılık),

Cov(εi, εj) = 0, i ≠ j (ardışık bağımsızlık),

varsayımları yapılmaktadır. Momentler yöntemine göre σ2 tahmin edicisi

σ̂2 =1 n∑ ε̂i2

n

i=1

formundadır. Varyans tahmin edicisini minimum yapacak parametre tahminleri neler olmalıdır? Hata kareler toplamını en küçük yapan tahmin edici 𝛃̂, 𝛃’nın en iyi tahmin edicisidir ve bu tahmin ediciyi bulabilmek için,

Q = ∑ εi2

n

i=1

= 𝛆𝛆 = (𝐘 − 𝐗𝛃)(𝐘 − 𝐗𝛃) = 𝐘𝐘 − 𝛃𝐗𝐘 − 𝐘𝐗𝛃 + 𝛃𝐗𝐗𝛃

= 𝐘𝐘 − 2𝛃𝐗𝐘 + 𝛃𝐗𝐗𝛃

eşitliğinin β’ya göre türevi alınıp sıfıra eşitlenir. Buradan,

∂Q

∂𝛃= −2𝐗′𝐘 + 2𝐗′𝐗𝛃

elde edilir ve normal eşitlikler

(18)

6 𝐗𝐗𝛃̂ = 𝐗𝐘

biçiminde yazılır. Buradan, eğer X matrisi tam ranklı ise

𝛃̂ = (𝐗𝐗)−1𝐗𝐘

tahmin edicisi elde edilir. Bu tahmin edicinin Q = ∑ni=1εi2 karesel formunu minimum yapabilmesi için parametreye göre ikinci türevinin sıfırdan büyük olması gerekir (

2Q

∂𝛃2 = 2𝐗′𝐗 > 0). Parametre için istatistiksel sonuç çıkarımının ilk beklentisi olan nokta tahmini elde edilmiş olur.

Parametreye ilişkin güven aralığı ve hipotez testi için, hataların bağımsız, sıfır ortalama ve σ2 varyansı ile normal dağılıma sahip oldukları varsayılır. Bu durumda, I nxn boyutlu birim matrisi olmak üzere 𝛆 ∼ N(0, σ2𝐈) dağılımına sahip olur. X tasarım matrisi verildiğinde Y’nin ve 𝛃̂ tahmin edicisinin dağılımı

𝐘~N(𝐗𝛃, σ2𝐈)

𝛃̂~N(𝛃, (𝐗𝐗)−𝟏σ2)

olarak elde edilir.

2.2 Lineer Karma Modeller

Modeldeki parametreler sabit etkili olduğunda lineer model kullanılmakta iken;

faktörlerin bazıları sabit, bazıları rasgele etkili olduklarında ise lineer karma model (Linear Mixed Model, LMM) kullanılmaktadır.

(19)

7

Örneğin; cinsiyet, yaş, beden kütle indeksi ve bel çevresi değişkenlerinin bağımsız değişkenler olarak alındığı ve diyabetli hastalarda günlük insülin gereksinimini belirleyen faktörler üzerinde bir çalışma yapıldığı düşünülsün. Cinsiyet ve yaş değişkenleri sabit etkili iken, beden kütle indeksi ve bel çevresi değişkenlerinin rasgele etkili olduğu bir model kurulduğunda, bu model LMM olmaktadır.

McCulloch ve Searle (2001), epilepsi hastalarının tedavisinde kullanılan bir ilacın 4 farklı doz seviyesinin uygulandığı bir klinik deneyi örnek olarak vermişlerdir. Bu deneyde uygulanan doz seviyelerine önceden karar verildiğinden model sabit etkili modeldir. Sabit etkili model göz önüne alındığında;

Yij: i. doz seviyesini alan j. kişinin geçirdiği nöbet sayısı iken, model

Yij = μ + αi+ εij

ve ortalama

E(Yij) = μi = μ + αi , i = 1,2,3,4

biçiminde yazılabilir. Modeldeki αi, i. doz seviyesinin geçirilen nöbet sayısına etkisini ölçen sabit etkili değişkendir.

McCulloch ve Searle (2001)’nin rasgele etkili model için verdikleri örnekte ise, bir önceki örnekte yapılan deney New York’taki 20 farklı klinikte yürütülmektedir.

Hastaların sadece 1 numaralı doz seviyesini aldıkları düşünüldüğünde Yij: i. klinikteki j.

kişinin geçirdiği nöbet sayısı iken ortalama

E(Yij) = μ + ai , i = 1,2, … ,20

(20)

8

biçiminde yazılabilir. Modeldeki ai, i. klinikteki hastanın geçirdiği nöbet sayısını ölçen değişkendir. Modelde seçilen 20 klinik New York’taki tüm klinikler içerisinden rasgele seçildiğinden, ai rasgele etkili değişken ve model rasgele etkili model olacaktır.

Bu örneklerdeki iki durumu da birlikte bulunduran LMM

𝐘 = 𝐗𝛃 + 𝐙𝐮 + 𝛆

biçiminde yazılabilir. Burada LMM’nin lineer modelden farkı rasgele olan Zu kısmıdır.

Z, nxq boyutlu rasgele etkilere ilişkin tasarım matrisi; u, qx1 boyutlu rasgele etkiler vektörüdür. Burada q, rasgele etkiye ilişkin parametre sayısıdır.

D ve R varyans-kovaryans matrislerini göstermek üzere, 𝐮~(𝟎, 𝐃), 𝛆~(𝟎, 𝐑) ve Cov(𝛆, 𝐮) = 𝟎 olduğu varsayıldığında,

E[𝐘|𝐮] = 𝐗𝛃 + 𝐙𝐮

biçiminde yazılır. Y’nin dağılımında beklenen değer ve varyans-kovaryans matrisi

E(𝐘) = E(𝐗𝛃 + 𝐙𝐮 + 𝛆) = 𝐗𝛃 + 𝐙E(𝐮) + E(𝛆) = 𝐗𝛃

Cov(𝐘) = Cov(𝐗𝛃 + 𝐙𝐮 + 𝛆) = Cov(𝐙𝐮 + 𝛆)

= 𝐙𝐂ov(𝐮)𝐙+ Cov(𝛆) + 𝟐𝐙Cov(𝛆, 𝐮) = 𝐙𝐃𝐙+ 𝐑

eşitliklerinden elde edilir ve

𝐘~(𝐗𝛃, 𝐙𝐃𝐙+ 𝐑)

biçiminde yazılabilir.

(21)

9

Burada U rasgele değişkenler, u ise U rasgele değişkenlerinin gözlenen değerleri için kullanılmaktadır ve E[𝐘|𝐔 = 𝐮] yerine E[𝐘|𝐮] koşullu ortalaması olarak yazılmaktadır (McCulloch ve Searle 2001).

Y’nin dağılımında ortalama ve varyans terimleri incelendiğinde; McCulloch ve Searle (2001)’nin belirttiği gibi sabit etkilerin sadece ortalamaya girmekte olduğu, rasgele etkilerin tasarım matrisi ve varyansının ise sadece bağımlı değişkenin varyansına girmekte olduğu görülmektedir.

2.3 Genelleştirilmiş Lineer Modeller

Genelleştirilmiş lineer modeller (Generalized Linear Model, GLM), bağımlı değişkende normal dağılım varsayımı olmayan lineer olmayan modellerin esnek bir sınıfıdır (Collins 2008). Klasik lineer regresyon modelinde bağımlı değişken bağımsız değişkenler kümesinin lineer fonksiyonu olup, bağımlı değişken nicel ve sabit varyanslı bir rasgele değişken, bağımsız değişkenler ise nicel, nitel veya ikisinin bir kombinasyonu olabilir. Klasik lineer model,

Y = β0+ ∑ βjXj+ ε

k

j=1

𝐘 = 𝐗𝛃 + 𝛆

biçiminde yazılabilir. Y bağımlı değişken, Xj’ler bağımsız değişkenler ve

ε

hata terimi ise sabit varyanslı ve ilişkisiz rasgele değişkenlerdir. Bağımlı değişken, β0+ ∑kj=1βjXj sistematik bileşen ve

ε

hata terimi olmak üzere iki bileşene ayrılmıştır. Xj’lerin aldıkları değerler bilindiğinde Y’nin koşullu beklenen değeri,

(22)

10 E(Y|X1 = x1, … , Xp= xp) = β0+ ∑ βjXj

k

j=1

sistematik bileşene eşittir (Dunteman ve Ho 2006).

Lineer regresyon modelinde bağımlı değişkenin sürekli olması, normal dağılımlı olması ve bağımlı değişkenin varyansının beklenen değerinin bir fonksiyonu olmaması gibi kısıtlar vardır. Bu kısıtların sağlanmadığı durumlarda başka modeller önerilmiş veya modellere bu kısıtları sağlayacak şekilde dönüşümler uygulanmıştır.

Nelder ve Wedderburn, 1972 yılında bu kısıtlara yönelik olarak GLM’i ortaya koymuşlardır (Dunteman ve Ho 2006). GLM bağımlı değişkenin normal dağılımlı olmadığı durumlara, değişen varyanslılık (bağımlı değişkenin varyansının beklenen değerinin bir fonksiyonu olması) durumlarına ve bağımlı değişkenin ortalaması ile bağımsız değişkenler arasında doğrusal olmayan ilişkilere kısıtlama getirmemektedir (Anderson vd. 2012).

McCulloch ve Searle (2001); GLM’in yapısında öncelikle bağımlı değişkenin dağılımı, bağlantı fonksiyonu ve hangi bağımsız değişkenlerin modelde yer alacağının incelenmesi gerektiğini belirtmişlerdir.

2.3.1 Bağımlı değişkenin dağılımı

GLM’de bağımlı değişkenin dağılımı üstel aile ya da üstel aileye benzer bir aileden gelmektedir. Bağımlı değişkenin sürekli olduğu durumda Normal dağılım, Gamma dağılımı, Ters Gauss dağılımı; bağımlı değişkenin kesikli olduğu durumda Poisson dağılımı, Bernoulli dağılımı ve Binom dağılımı üstel aileye örneklerdir (Anderson vd.

2012).

(23)

11

GLM’de Y’nin dağılımı üstel ailenin genel formunda

fY(y|θ, ϕ) = exp {(yθ − b(θ))

a(ϕ) + c(y, ϕ)} (2.1)

şeklinde yazılır (McCullagh ve Nelder 1989).

Dağılımın ortalamasının bir fonksiyonu olan θ, dağılımın konumu hakkında bilgi içerir.

θ kanonik parametre; θ(μ) fonksiyonu, kanonik bağlantı fonksiyonu olarak adlandırılmaktadır. ϕ, dağılımın yayılım parametresi; a(.), b(.) ve c(.) bazı özel fonksiyonlar, c(y,ϕ) gözlemlerin ve yayılım parametresinin bir fonksiyonudur (Dunteman ve Ho 2006, Myers vd. 2010).

Üstel dağılımlar ailesinin ortalaması ve varyansını elde etmek için olabilirlik fonksiyonun logaritması 𝑙 = 𝑙(θ, ϕ|y) = logf(y|θ, ϕ) biçiminde tanımlanmak üzere1,

𝑙(θ|y) = {yθ−b(θ)a(ϕ) + c(y, ϕ)} eşitliğinin θ’ya göre birinci ve ikinci türevleri alındığında

∂𝑙

∂θ=y − b′(θ) a(ϕ)

2𝑙

∂θ2 = −b′′(θ) a(ϕ)

elde edilir. Y’nin beklenen değer ve varyansı,

1 Çalışmadaki tüm log(.) fonksiyonları 𝑙𝑛 = loge(. ) = log(. ) eşitliğini ifade etmektedir.

(24)

12 E (∂𝑙

∂θ) = 0

E (∂2𝑙

∂θ2) + E (∂𝑙

∂θ)

2

= 0

bilinen eşitlikleri kullanılarak,

0 = E (∂𝑙

∂θ) =μ − b′(θ) a(ϕ)

E(Y) = μ = b(θ) (2.2)

E (∂2𝑙

∂θ2) + E (∂𝑙

∂θ)

2

= 0 =−b′′(θ)

a(ϕ) + V(Y) a2(ϕ)

V(Y) = b′′(θ)a(ϕ) (2.3)

biçiminde elde edilir (McCullagh ve Nelder 1989).

b′′(θ) varyans fonksiyonu olarak bilinmekte ve varyansın ortalamayla ilişkisini göstermektedir (McCulloch ve Searle 2001, Faraway 2006).

Normal Dağılım:

µ ve σ parametreleriyle normal dağılımın olasılık yoğunluk fonksiyonu,

fY(y|μ, σ) = 1

√2πσ2exp {−12(y − μ)2} , −∞ < y < ∞

(25)

13

= exp {yμ−μσ22/212[σy22+ log (2πσ2)]}

biçiminde üstel formda yazıldığında (2.1) formülündeki terimler

θ = μ, b(θ) =θ22, ϕ = σ2, c(y, ϕ) = −12[yϕ2+ log (2πϕ)]

biçiminde elde edilir. (2.2) ve (2.3) eşitliklerinden beklenen değer ve varyans

E(Y)= θ ve V(Y) = σ2 elde edilir.

Gamma Dağılımı:

Bağımlı değişkenin sürekli ve pozitif değerli olduğu durumda, normal dağılım bu verileri iyi temsil etmeyecektir. Bu durumda Gamma dağılımı seçilebilir (Anderson vd.

2012).

Gamma dağılımının olasılık yoğunluk fonksiyonu

fY(y) = 1

Γ(n)λnyn−1eyλ, y > 0

biçiminde yazıldığında, dağılımın beklenen değeri E(Y)= μ = λn olduğundan λ = μ n⁄ eşitliği fonksiyonda yerine yazılırsa

fY(y) = 1 Γ(n)(n

μ)nyn−1e−(ynμ ), y > 0

= exp {n [−y

μ− logμ] + (n − 1)logy + nlog(n) − log[Γ(n)]}

(26)

14

biçiminde Gamma dağılımının üstel formda yazılışı elde edilir. (2.1) formülündeki terimler

θ = −1μ , b(θ) = − log(−θ) , a(ϕ) =n1 ,

c(y, ϕ) = (n − 1)logy + nlog(n) − log[Γ(n)]

biçiminde olacaktır. (2.2) ve (2.3) eşitliklerinden beklenen değer ve varyans

E(Y) = −1θ ve V(Y) = θ12n elde edilir.

Poisson Dağılımı:

Poisson dağılımının olasılık fonksiyonu

fY(y|μ) =e−μy!μy , y = 0,1, . .. olup,

fY(y|μ) = exp[ylogμ − μ − log(y!)]

şeklinde üstel formda yazılabilir. Burada (2.1) formülündeki terimler

θ = logμ, b(θ) = eθ, ϕ = 1, c(y, ϕ) = −log (y!) biçiminde elde edilir. (2.2) ve (2.3) eşitliklerinden beklenen değer ve varyans

E(Y) = eθ ve V(Y) = eθ elde edilir.

(27)

15 Binom Dağılımı:

n ve π parametreleri ile y’nin binom dağıldığı varsayıldığında,

fY(y| π, n) = (n

y) πy(1 − π)n−y, y = 0,1, . . . , n olup,

= exp (ylogπ + (n − y) log(1 − π) + log (n y))

= exp (ylog π

1 − π+ nlog(1 − π) + log (n y))

şeklinde üstel formda yazılır.

(2.1) formülündeki terimler

θ = log ( π 1 − π)

b(θ) = nlog(1 + eθ)

ϕ = 1

a(ϕ) = 1

c(y, ϕ) = log (n y)

olur. (2.2) ve (2.3) eşitliklerinden beklenen değer ve varyans

(28)

16 E(Y) = n1+eeθθ = nπ ve V(Y) = n eθ

(1+eθ)2 = nπ(1 − π) elde edilir.

Üstel ailenin üyesi olmayan negatif binom ve Weibull dağılımı gibi dağılımlar da, bazı değişikliklerle GLM’e uygun olabilir (Faraway 2006).

2.3.2 Bağlantı (Link) Fonksiyonu

Bağlantı fonksiyonu g(.), bağımlı değişkenin ortalaması ile lineer kestirici arasında lineer olmayan ilişkiye imkan vermektedir. Lineer kestirici η = β0+ β1x1+ ⋯ + βpxp şeklinde tanımlanırsa,

g(μ) = η

μ = g−1(η)

eşitlikleri yazılabilir. Ortalamayı elde edebilmek için bağlantı fonksiyonunun monoton ve türevlenebilir olması gerekmektedir. Bağlantı fonksiyonu kullanmak bağımlı değişkene dönüşüm uygulamaktan farklıdır. Veriye dönüşüm uygulanırsa, dönüştürülmüş verinin kitle dağılımını tanımlayan bir dağılım seçilmek zorundadır.

Dönüştürülmüş verinin ortalamasıyla ortalamanın dönüştürülmesi genellikle birbirine eşit değildir (g(E(y))≠E(g(y))) (Anderson vd. 2012).

η herhangi bir sayıya eşit olabildiğinden, bağlantı fonksiyonunun seçiminde ortalamanın alabileceği değerlere göre seçim yapmak önemlidir. Poisson dağılımlı GLM için μ pozitif olmalıdır, η negatif değer alabileceğinden η=μ eşitliği uygun olmayacaktır. μ>0 olmasını sağlayan bilinen bir dönüşüm μ = eη dönüşümüdür ve η = logμ elde edilir. Bu logaritmik bağlantı fonksiyonu ile x’in toplamsal etkileri μ üzerinde çarpımsal etkilere yol açmaktadır (Faraway 2006).

(29)

17

Eğer bağımlı değişkenin aldığı değerler üzerinde herhangi bir kısıt yoksa, ortalamanın lineer kestiriciye eşit olduğu (μ = η) birim bağlantı kullanılabilir (Anderson vd. 2012).

Çizelge 2.1 Dağılımların özet tablosu ve kanonik bağlantıları

Parametre ve Fonksiyonlar

Dağılım

Normal Binom Poisson Gamma

θ μ log ( π

1 − π) logμ − 1 μ⁄

b(θ) θ2

⁄ 2 nlog(1 + eθ) eθ −log (−θ)

ϕ σ2 1 1 1 n⁄

c(y, ϕ)

−1 2[y2

ϕ + log (2πϕ)]

log (n

y) −log (y!)

(n − 1)logy + nlog(n)

− log[Γ(n)]

E(Y) θ n eθ

1 + eθ eθ −1

θ

V(Y) σ2 n eθ

(1 + eθ)2 eθ 1

θ2n Kanonik

Bağlantı

η = μ (birim bağlantı)

η = log (1−ππ )

(logit bağlantı) η = logμ (log bağlantı)

η = μ−1 (ters bağlantı)

Binom dağılımlı GLM’de π başarı olasılığı olsun ve bağımlı değişken sayı yerine oran olarak belirlendiğinde bu olasılık μ olsun. Bu durumda 0 ≤ π ≤ 1olmalıdır ve bağlantı fonksiyonu bu koşulu yerine getirmelidir. Bunu sağlayan sıklıkla kullanılan birkaç yol vardır: Bunlar; lojistik, probit ve tamamlayıcı (complimentary) log-log bağlantılardır (Faraway 2006).

Myers vd. (2010) tarafından diğer bağlantı fonksiyonları aşağıdaki şekilde verilmiştir:

1. Probit Bağlantı:

(30)

18 η = Φ−1[E(y)]

Φ: Birikimli standart normal dağılım fonksiyonu.

2. Tamamlayıcı (complimentary) log-log Bağlantı:

η = log{log[1 − μ]}

3. Güç Aile Bağlantı:

η = {μλ , λ ≠ 0 log(μ) , λ = 0

Bağlantı fonksiyonu veri üzerindeki değil, kitle ortalaması üzerindeki dönüşümdür.

Bağlantı fonksiyonu yardımı ile bağımlı değişkenin orijinal dağılımını kullanma avantajı varken, tam tersine bağımlı değişkende dönüşüm yapıldığında dağılımı değişmektedir. Bağımlı değişkende uygun dönüşüm kullanmamak problemlere sebep olabileceği gibi, uygun olmayan bağlantı fonksiyonu seçimi de GLM’de önemli problemlere neden olabilir (Myers vd. 2010).

Myers vd. (2010) GLM sınıfının yapısını özetleyen aşağıdaki maddeleri sıralamıştır:

1. Bağımlı değişkenin y1, y2, … , yn bağımsız gözlemleri sırasıyla μ1, μ2, … , μn ortalamalarına sahiptir.

2. yi gözlemi üstel ailenin bir üyesinin dağılımına sahiptir.

3. Modelin sistematik kısmı x1, x2, … , xk bağımsız değişkenlerinden oluşmaktadır.

(31)

19

4. Model η = 𝐱’𝛃 = β0 + ∑kj=1βjxj lineer kestiricisi etrafında yapılanmıştır. Lineer kestiricinin varlığı GLM’i ortaya çıkarmaktadır.

5. Model bağlantı fonksiyonu kullanımıyla birlikte bulunmuştur.

ηi = g(μi), i = 1,2, … , n

Bağlantı terimi, ortalama ve lineer kestirici arasındaki bağlantının fonksiyonundan türetilmiştir.

6. Bağlantı fonksiyonu monoton türevlenebilir bir fonksiyondur.

7. σi2 (i=1,2,… ,n), µi’nin bir fonksiyonudur.

GLM’in ana fikirlerinden biri veriyi dönüştürme düşüncesinden kurtulmaktır. GLM’de bağımlı değişkenin ortalamasına bir bağlantı fonksiyonu uygulayarak, en çok olabilirlik yöntemiyle en uygun modelin bulunması düşüncesi vardır (McCulloch ve Searle 2001).

2.4 Genelleştirilmiş Lineer Karma Modeller

Genelleştirilmiş lineer karma model (Generalized Linear Mixed Model, GLMM), GLM yapısındaki lineer kestiricide sabit ve rasgele etkilerin yer aldığı modeldir. Sabit etkiler bağımlı değişkendeki sistematik ve yapısal farklılıkları taşırken, rasgele etkiler gruplar ya da kümeler (clusters) arasındaki stokastik farklılıkları taşır (Anderson 2012).

Collett (1991) kümelenmiş veri yapısıyla ilgili olarak; bir küme içindeki ölçümlerin daha homojen olduğu ve benzer karakteristik özellikleri gösterdiğinden bağımlı olduklarını, fakat kümelerin birbirlerinden farklılık göstermeye meyilli olmaları sebebiyle kümeler arasındaki ölçümlerde heterojenlik olduğunu belirtmiştir. Bu şekilde

(32)

20

kümelenmiş verilerin analizinde, kümeler arasındaki heterojenlik veya küme içindeki bağımlılık yapısı göz ardı edildiğinde ve tüm ölçümlerin bağımsız olduğu varsayıldığında parametre tahminleri yanlı olacaktır. Ayrıca model kümeler arasındaki heterojenlik hakkında bilgi içermeyecektir. Diğer yandan her bir küme için ayrı bir analiz yapıldığında tüm parametreler kümelere özgü olacak, tüm kümeler için ortak bir parametre olmayacak ve değişkenlerin ortak etkileriyle ilgili bilimsel sorulara cevap verilemeyecektir. Ayrıca az gözlemli kümelerde bazı parametre tahminleri büyük standart hatalara sahip olabilir ya da bu parametrelerin tahmini de oldukça zor olabilir.

Bu durumlar dışında kümelenmiş veriler için, tüm kümelere ilişkin ortak ve kümelere özgü regresyon parametrelerini birlikte içeren karma modeller geliştirilmiştir. Burada kümelere özgü etkilerin bir kitle dağılımından rasgele örneklem olduğu varsayılır ve rasgele etkiler olarak da adlandırılır. Karma modeller kümeler arasındaki heterojenliğin üstesinden gelmektedir. Sosyal bilimlerde veriler genellikle kategorik olduğundan lineer modellemeye uygun değildir. Kümelenmiş olmayan ve normal dağılımlı olmayan veri için GLM, LM için uygun bir alternatiftir. Kümelenmiş veri için ise GLM, GLMM gibi karma modellere genişletilebilir (Tuerlinckx vd. 2006).

Bağımlı değişken ilişkili ve kesikli veya kategorik olduğunda LMM uygulanamamaktadır, bu yüzden GLMM gibi bir açılıma ihtiyaç duyulmaktadır (Jiang 2007).

u rasgele değişkenin bilinen değerleri olmak üzere, modeli kurarken öncelikle u değerleri için y’nin dağılımı yazılır. y’nin koşullu bağımsız gözlemlerinin üstel aileden bir dağılıma sahip olduğu varsayıldığında

yi|𝐮~ bağımsız fYi|𝐮(yi|𝐮)

fYi|𝐮(yi|𝐮) = exp {yiθi− b(θi)

ai(ϕ) + ci(yi, ϕ)} (2.4)

(33)

21

b(.), ai(. ), ci(. , . ) bilinen fonksiyonlar ve ϕ değeri bilinen ya da bilinmeyen yayılım parametresidir. (2.2) eşitliğinde μi= bi) olduğu bilindiğinden yi’nin koşullu ortalaması θi ile ilişkilidir (McCulloch ve Searle 2001, Jiang 2007).

μi = E[yi|𝐮]

ηi = 𝐱𝐢𝛃 + 𝐳𝐢′𝐮 (2.5)

lineer kestiricisinde xi ve zi bilinen vektörler, β sabit etkilere ait bilinmeyen parametrelerin vektörü, u rasgele etkiler vektörüdür. u rasgele etkiler vektörünün 0 ortalama ve G varyans-kovaryans matrisiyle normal dağıldığı varsayılır (𝐮~𝐍(𝟎, 𝐆)) (McCulloch ve Searle 2001, Jiang 2007).

Bağlantı fonksiyonu g(μi) = ηi olmak üzere, yi’nin koşullu beklenen değeriyle değişkenlerin lineer formunu birbirine bağlamaktadır (McCulloch ve Searle 2001, Jiang 2007).

u bilindiğinde y’nin koşullu dağılımı genellikle hata dağılımı olarak adlandırıldığından, y’nin dağılımını incelemektense bu koşullu dağılımı incelemek daha uygundur (Isik 2011).

Jiang (2007) GLMM’in bazı durumları için aşağıdaki üç örneği vermiştir:

1. Normal Lineer karma model:

𝐲 = 𝐗𝛃 + 𝐙𝐮 + 𝛆

(34)

22

Normal lineer karma model GLMM’in özel bir halidir. Koşullu üstel aile μi ortalama ve σ2 varyanslı normal dağılımlıdır. Bağlantı fonksiyonu g(μ) = μ ve bilinmeyen yayılım parametresi ϕ = σ2’dir.

2. Karma lojistik model:

Rasgele etkileri gösteren u’nun değerleri verildiğinde, y1, y2, … , yn bağımlı değişkenlerinin koşullu bağımsız Bernoulli dağılımına sahip oldukları varsayımı altında başarı olasılığı pi = P(yi = 1|𝐮) ile gösterilsin. Logit fonksiyonu

logit(pi) = 𝐱𝐢𝛃 + 𝐳𝐢′𝐮

eşitliğiyle, koşullu üstel aile Bernoulli dağılımlı, bağlantı fonksiyonu g(μ) = logit(μ) ve yayılım parametresi ϕ = 1 olan GLMM’in özel bir durumudur.

3. Poisson log-lineer karma model:

Poisson dağılımı genellikle bağımlı değişken sayılabilir veri olduğunda kullanılmaktadır. Rasgele etkileri gösteren u’nun değerleri verildiğinde y1, y2, … , yn bağımlı değişkenlerinin koşullu bağımsız yi|u~Poisson(λi) dağılımlı oldukları varsayılsın.

log(λi) = 𝐱𝐢𝛃 + 𝐳𝐢′𝐮

eşitliğiyle, koşullu üstel aile Poisson dağılımlı, bağlantı fonksiyonu g(μ) = log(μ) ve yayılım parametresi ϕ = 1 olan GLMM’in özel bir durumudur.

GLM ile GLMM arasındaki en temel fark GLMM’de rasgele etkilerin bulunmasıdır.

Veri kümelerden oluşmakta ve rasgele etkilerin düzeyleri kümelere karşılık gelmekte ise

(35)

23

GLMM kullanılmaktadır. GLM’de ise kümelenmiş veri yapısı yoktur ve gözlemlerin birbirinden bağımsız olduğu varsayılır. GLMM’de koşullu ve marjinal ortalamanın her ikisi de modellenebilmektedir. GLMM’de koşullu bağımlı değişkenin üstel aileden bir dağılıma sahip olduğu varsayılırken, GLM’de bağımlı değişkenin dağılımının üstel aileden bir dağılıma sahip olduğu varsayılır (Myers vd. 2010).

2.4.1 Genelleştirilmiş lineer karma modellerde olabilirlik fonksiyonu

LMM’nin aksine, normal dağılımlı durumun haricinde GLMM’de olabilirlik fonksiyonu kapalı formda ifade edilememektedir. Aslında, böyle bir olabilirlik fonksiyonu analitik olarak hesaplanamayan çok boyutlu integralleri kapsayabilir (Jiang 2007).

GLMM’de marjinal olabilirlik fonksiyonu genel ifadeyle

L = ∫ ∏ fYi|𝐮(yi|𝐮

i

)f𝐔(𝐮)d𝐮

biçiminde yazılabilir. fYi|𝐮(yi|𝐮) üstel aileden bir dağılım ve ui~i. i. d. N(0, σu2) olduğunda marjinal olabilirlik fonksiyonu

L = ∫ ∏ fYij|ui(yij|ui)fUi(ui)dui = ∏ ∫ e

[yijθij−b(θij)]

ai(ϕ) −ci(yij,ϕ)

j e

ui2 u2

√2πσu2

+∞

−∞

dui

i i,j

biçiminde yazılır.

McCulloch ve Searle’nin (2001) örneği incelenirse,

yij: i. kümedeki j. gözlem;

(36)

24

yij|𝐮~bağımsız Poisson(μij); i = 1,2, … , m; j = 1,2, … , ni;

log(μij) = 𝐱𝐢𝐣𝛃 + ui

ui~i. i. d. N(0, σu2)

biçimindeki bir modelin olabilirlik fonksiyonunun logaritması alındığında,

𝑙 = log (

∏ ∫ ∏e−μijμijyij yij!

ni

j=1

−∞

m

i=1

e

ui2 u2

√2πσu2dui )

= 𝐲𝐗𝛃 − ∑ logyij!

i,j

+ ∑ log ∫ exp {yiui− ∑ exijβ+ui

j

}

i −∞

e

ui2 u2

√2πσu2dui

ifadesi elde edilmiştir. Bu eşitlik daha fazla basitleştirilemez ve bu nedenle maximum değerleri elde edilemez (McCulloch ve Searle 2001).

GLMM’de marjinal olabilirliği elde etmek için üç genel yaklaşım vardır (Myers vd.

2010):

1. Koşullu ortalamayı lineerleştirme ve yaklaşık modele lineer karma model yöntemlerini tekrar tekrar uygulama;

2. Marjinal olabilirlikteki integrale yaklaşmak için sayısal yöntemler kullanma ve bu yaklaşıma dayalı tahmin eşitlikleri kurma;

3. Bayesci yaklaşım kullanma.

(37)

25

Çalışmanın bir sonraki bölümünde GLMM’de olabilirlik fonksiyonunun kapalı formda ifade edilememesi ve parametre tahminlerinin yapılamaması sorununa yönelik olarak geliştirilen yöntemlerden bazıları incelenecektir. Bu bölümde integrale yaklaşım yöntemlerinden Laplace yaklaşımı, Gauss-Hermite quadrature (GHQ) yöntemi ve Adaptive Gauss-Hermite quadrature (AGHQ) yöntemi; olabilirlik fonksiyonuna yaklaşım yöntemlerinden Penalized yarıolabilirlik (Penalized Quasi Likelihood, PQL) yöntemi yer almaktadır.

(38)

26

3. GENELLEŞTİRİLMİŞ LİNEER KARMA MODELLERDE BAZI TAHMİN YÖNTEMLERİ

3.1 İntegral Yaklaşımları

3.1.1 Laplace Yaklaşımı

Laplace yaklaşımı, integrale yaklaşım yöntemlerinden biridir ve Collins (2008)’e göre aşağıdaki şekilde özetlenebilir.

h(u) = logf(u) olduğunda

∫ f(u)du = ∫ eh(u)du

q q

eşitliği yazılabilir.

h(u) fonksiyonunun maksimum değeri û ve birinci türevi h(û) = 0’dır. İkinci dereceden Taylor serisi açılımı ile h(u) fonksiyonuna maksimum değeri û noktasında yaklaşılırsa

h(u) ≈ h(û) + (u − û)h′(û) +2!1(u − û)2h′′(û) = h(û) +12(u − û)2(h′′(û))

eşitliği elde edilir.

Buradan integral

∫ eh(u)du

q

≈ ∫ eh(û)+12(u−û)2(h′′(û)) q

du = eh(û) ∫ e12(u−û)2(−h′′(û))

q

du

(39)

27

biçiminde yazılabilir. Eğer bu integralin sınırları -∞ ve +∞ ise integralin içindeki fonksiyon μ= û ve σ2 = − 1

h′′(û) ile Normal dağılıma sahiptir. Böylece integral için

∫ eh(u)du

+∞

−∞

= eh(û)√ 2π

−h′′(û) (3.1)

sonucu elde edilmiş olur.

(3.1) yaklaşımı çok değişkenli integrallere genişletildiğinde; p, u vektörünün boyutu ve h(u) fonksiyonunun ikinci türev matrisi 𝐡′′(𝐮) = ∂2h(𝐮)/(∂𝐮 ∂𝐮′) olmak üzere

∫ eh(𝐮)

+∞

−∞

d𝐮 = eh(𝐮̂)(2π)p/2| − 𝐡′′(𝐮̂)|−1/2

elde edilir.

Bu yaklaşıma genellikle birinci dereceden Laplace yaklaşımı denilmektedir (Collins 2008). Laplace yaklaşımı, verinin dağılımının değil olabilirlik fonksiyonunun yaklaşık olarak normal dağıldığını varsaymaktadır (Bolker vd. 2008). Böylece yaklaşımın integrali alınarak, maksimum değerlerinin elde edilmesi amaçlanmaktadır. Laplace yaklaşımı Tierney ve Kadane (1986) tarafından da kullanıldığı gibi daha çok Bayesci çıkarımlarda kullanılmıştır (Liu 1993).

3.1.2 Gauss-Hermite Quadrature

Rasgele etkiler normal dağılımlı varsayıldığında, stokastik olmayan nümerik yaklaşımlar genellikle Gauss-Hermite quadrature (GHQ) yöntemiyle yapılmaktadır (Tuerlinckx vd. 2006).

(40)

28

McCulloch ve Searle (2001), aşağıda verilen normal dağılımlı ve bir rasgele değişkenli GLMM örneği ile GHQ yöntemini açıklamışlardır:

yij: rasgele etkinin i. düzeyindeki j. gözlem

yij|𝐮~indep. fYij|U(yij|𝐮)

fYij|u(yij|𝐮) = exp {yijθij− b(θij)

a(ϕ) + c(yij, ϕ)}

E[yij|𝐮] = μij

g(μij) = 𝐱𝐢𝐣𝛃 + ui

ui~i. i. d. N(0, σu2)

biçiminde GLMM tanımlandığında, bu model için olabilirlik fonksiyonu hi(ui) = e[yijθij−b(θij)]

ai(ϕ) −ci(yij,ϕ)

j olmak üzere

L = ∫ ∏ fYij|Ui(yij|ui)fUi(ui)dui = ∏ ∫ e

[yijθij−b(θij)]

ai(ϕ) −ci(yij,ϕ)

j e

ui2 u2

√2πσu2

+∞

−∞

dui

i i,j

= ∏ ∫ hi(ui)

+∞

i −∞

e

ui2 u2

√2πσu2dui

şeklinde yazılır. Olabilirlik

(41)

29

∫ h(u)

−∞

e

u2 u2

√2πσu2du

biçimindeki tek boyutlu integrallerden oluşmaktadır.

u = √2σuv dönüşümü yapılırsa, h(. ) ≡ h(√2σu. )/√π olmak üzere

∫ h(√2σuv)e−v2

√π dv ≡ ∫ h(v)e−v2dv

−∞

−∞

(3.2)

eşitliği yazılabilir.

Sınırlandırılmamış aralık üzerinden sayısal bir integrali almak oldukça güçtür. Fakat, e−v2 fonksiyonuyla çarpılan h(. ) düzgün fonksiyonlarının2 integralleri için GHQ yöntemi uygundur. (3.2) daki integral ağırlıklandırılmış bir toplam ile yaklaşık olarak bulunabilir (McCulloch ve Searle 2001):

∫ h(v)e−v2dv

−∞

≃ ∑ wk

n

k=1

h(xk) (3.3)

Bu yaklaşımda wk uygun ağırlıklar ve xk noktaları n. dereceden Hermite polinomunun kökleridir (McCulloch ve Searle 2001, Collins 2008). (3.3)’deki toplamın sınırları 1’den n’ye kadar olduğunda GHQ, (≤ 2n − 1) dereceli tüm polinomlar için kesin bir değer verecektir (Seong 1990, McCulloch ve Searle 2001).

2 F: ℝm→ ℝn olan bir fonksiyonun tüm sıralarda kısmi türevleri var ve sürekliyse, bu fonksiyon düzgün fonksiyondur (Anonymous. Web Sitesi: http://www.math.toronto.edu/mat1300/smooth.2.pdf, Erişim Tarihi: 25.08.2015).

(42)

30

(3.3) yaklaşımında xk noktaları quadrature noktaları ve eşitliğin sağ tarafı da yaklaşık integral kuralı, quadrature formülü veya quadrature kuralı olarak adlandırılır (Seong 1990).

xk ve wk değerleri matematiksel paket programlarla hesaplanabilmektedir. Hn(x), n.

dereceden3 Hermite polinomu olmak üzere xk ve wk değerleri aşağıdaki gibidir (McCulloch ve Searle 2001):

xk= Hn(x)in kökleri

wk= 2n−1n! √π n2[Hn−1(xk)]2

Hermite’nin ortogonal polinom eşitliği

Hn(x) = (−1)nex2𝜕ne−x2

𝜕xn , n = 0,1,2, . . . , −∞ < x < ∞

şeklindedir (Seong 1990).

İlk birkaç Hermite polinomu için

H0(x) = 1

H1(x) = 2x

H2(x) = 4x2− 2

3 n, quadrature noktalarının sayısıdır.

(43)

31 H3(x) = 8x3− 12x

H4(x) = 16x4− 48x2+ 12

H5(x) = 32x5− 160x3+ 120x

eşitlikleri elde edilir (Nia 2006).

Şekil 3.1’den de görüldüğü gibi quadrature noktaları sıfırın etrafında simetriktir.

Şekil 3.1 GHQ yöntemindeki quadrature noktalarına karşılık gelen quadrature ağırlıkları (Nia 2006)

Pan ve Thompson (2003) tarafından GHQ yöntemi, f(x)= g(x)e−x2 eşitliğini sağlayan tek değişkenli fonksiyon için çok değişkenli integrale aşağıdaki şekilde uygulanmıştır (Collins 2008):

(44)

32 xk

j

(j) noktaları ve wk

j

(j) ağırlıkları, x in j. koordinatındaki mj noktasındaki değerler olmak üzere GHQ ifadesi (k = 1, … , mj; j = 1, … , q),

∫ f(𝐱)d𝐱 = ∫ … ∫ f(x1, … , xq)dx1… dxq = ∫ … ∫ g(x1, … , xq)e−𝐱′𝐱dx1… dxq

≃ ∑ wk(1)1

m1

k1=1

∑ wk(2)2

m2

k2=1

… ∑ wk(q)q

mq

kq=1

g(xk(1)1, xk(2)2 , … , xk(q)q)

şeklinde yazılabilir. Bu ifadede görüldüğü gibi yoğun bir hesaplama işlemi gerekmektedir (Collins 2008).

Kısacası GHQ yönteminde, sonucunun elde edilmesi zor olan integralin değeri ağırlıklandırılmış bir toplam ile yaklaşık olarak bulunmaktadır.

3.1.3 Adaptive Gauss-Hermite Quadrature

GHQ yönteminin en önemli dezavantajı, xk noktalarının integralin en yoğun olduğu fonksiyonun modu etrafında değil de sıfırın etrafında dağılmasıdır. Adaptive Gauss- Hermite Quadrature (AGHQ) yönteminde, GHQ yöntemini uygulamadan önce integral yeniden parametrelendirilerek quadrature noktaları sıfırın etrafında değil, integrali alınacak fonksiyonun modu ya da ortalaması etrafında toplanır. AGHQ yöntemi birinci dereceden Laplace yaklaşımının genelleştirilmiş halidir (Collins 2008).

AGHQ yöntemi Collins’in (2008) anlatımından aşağıdaki gibi özetlenmiştir:

Tek değişkenli ∫ f(x)dx−∞ integrali için tanımlanan yöntemde; μ̂, f(x)’in modu ya da ortalamasını; σ̂2 de, ya μ̂ noktasında f(x)’in tahmini eğriliğini temsil eden

Şekil

Updating...

Referanslar

Benzer konular :