• Sonuç bulunamadı

PARÇALI DO ˘ GRUSAL D˙IZ˙ILER˙IN SONSUZ KARI ¸SIMI INFINITE MIXTURE OF PIECEWISE LINEAR SEQUENCES

N/A
N/A
Protected

Academic year: 2021

Share "PARÇALI DO ˘ GRUSAL D˙IZ˙ILER˙IN SONSUZ KARI ¸SIMI INFINITE MIXTURE OF PIECEWISE LINEAR SEQUENCES"

Copied!
5
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

PARÇALI DO ˘ GRUSAL D˙IZ˙ILER˙IN SONSUZ KARI ¸SIMI INFINITE MIXTURE OF PIECEWISE LINEAR SEQUENCES

I¸sık Barı¸s Fidaner

Bilgisayar Mühendisli˘gi Bölümü Bo˘gaziçi Üniversitesi fidaner@alternatifbilisim.org

Ali Taylan Cemgil

Bilgisayar Mühendisli˘gi Bölümü Bo˘gaziçi Üniversitesi taylan.cemgil@boun.edu.tr

ÖZETÇE

Bu çalı¸smada, kısa zaman serilerini bölüntülemek için bir sonsuz karı¸sım modeli öneriyoruz. Bile¸senleri parçalı do˘grusal diziler olan bu modeli Çin lokantası süreci ile in¸sa ediyoruz ve gözlem atamaları üzerindeki sonsal da˘gılımı daraltılmı¸s Gibbs örneklemesi ile hesaplıyoruz. Parçalı bir do˘grusal dizi, gözlem- lerden daha az parametre ile ifade edilmektedir. Dolayısıyla, olabilirli˘gin ortalama parametresi, bile¸sen parametreleri üze- rinde bir matris dönü¸sümü ile elde edilmektedir. Bu matris, par- çalı do˘grusal diziyi tanımlayan kurallara göre olu¸sturulmakta- dır.

ABSTRACT

In this paper, we present an infinite mixture model to par- tition short time series data. Components of this mixture model are piecewise linear sequences. The model is constructed using Chinese restaurant process and the posterior distribution over the sample assignments are calculated using collapsed Gibbs sampling. A piecewise linear sequence is represented by fewer parameters than its observations. Thus, the mean parameter of the likelihood is obtained by applying a matrix transformation on the component parameters. This matrix is constructed by a special method according to the rules that define our piecewise linear sequences.

1. Giri¸s

Parametrik olmayan Bayesci metodoloji, son on yılda büyük ge- li¸sme göstermi¸s, kendi yazınını olu¸sturmu¸s açık bir çalı¸sma ala- nıdır. Sonsuz karı¸sım modelleri, bu yeni Bayesci istatistik ala- nının ilk ve en temel kavramlarını olu¸sturmu¸stur. Bu karı¸sım- ların kuramsal temeli bir rastgele süreç olan Dirichlet sürecinin incelenmesiyle [1], [2] kurulmu¸s, Çin lokantası sürecinin türe- tilmesinin ardından, sonsuz karı¸sımlar için birçok MCMC çı- karım yöntemi geli¸stirilmi¸stir. Bu konuda güncel bir özet için [3]’de “Bayesian Nonparametric Models” ve “Dirichlet pro- cesses” ba¸slıkları incelenebilir. Dirichlet süreci karı¸sımlarında MCMC yöntemleri Neal’in makalesinde anlatılmaktadır [4].

Bu çalı¸sma TÜB˙ITAK tarafından desteklenmektedir (110E292 kodlu “Dura˘gan Olmayan Çok Boyutlu Zaman Serileri ˙Için Hızlı Ba- yesci Matris ve Tensör Ayrı¸stırma Yöntemleri” (BAYTEN) projesi).

978-1-4673-0056-8/12/$26.00 c 2012 IEEE

Bu çalı¸smamızda, çok sayıda kısa zaman serisinden olu¸san gözlem kümesini, parçalı do˘grusal dizilerin sonsuz karı¸sımı ola- rak modelliyoruz. Bu modele göre, her bir gözlem, ait oldu˘gu bile¸seni tanımlayan bir parçalı do˘grusal dizi etrafında Gaussian da˘gılır. Bütün bile¸senlerdeki parçalı do˘grusal diziler aynı nok- talarda atlama yaparlar, ama bu do˘gru parçalarının e˘gimleri ve atlama yön ve miktarları bile¸senlere göre de˘gi¸sebilir. Karı¸sım modelimizin üretti˘gi örnek bile¸senler ve ürettikleri gözlemler

¸Sekil 1’de gösterilmi¸stir.

¸Sekilde 11 tane gözlem ve (7,2,2) tane olarak atandıkları üç karı¸sım bile¸seni görülüyor. Bizim sorunumuz, yalnızca göz- lemlere bakarak kaç tane bile¸sen oldu˘gunu ve gözlemlerin bu bile¸senlere nasıl bölüntülendi˘gini bulmak. Do˘grusal parçaların kırılma yerlerini ba¸stan bildi˘gimizi varsayıyoruz.

0 2 4 6 8 10 12 14 16

−20

−15

−10

−5 0 5 10 15 20

¸Sekil 1: Üç karı¸sım bile¸seni. Koyu kesikli çizgilerle gösterilen, karı¸sım bile¸senlerinin ortalama de˘gerleridir. ˙Ince çizgilerle gös- terilen ise gözlemlerdir.

2. Sonsuz karı¸sım modeli

Bu bölümde sonsuz karı¸sım modelinden bahsedece˘giz. ˙Ilk ola- rak karı¸sım modelinin sonlu hali ile ba¸slayaca˘gız. Daha sonra sonsuz karı¸sım modelini ya da di˘ger adıyla Dirichlet süreci ka- rı¸sımını gösterece˘giz. Sonsuz karı¸sımın belirli bir in¸sa biçimi

(2)

olan Çin lokantası sürecini açıklayaca˘gız. Bu süreçle belirlenen önsel olasılıklara bakaca˘gız.

2.1. Sonlu karı¸sım modeli

Karı¸sım modeli, xiile gösterilen N tane gözlemi, K bile¸sene bölüntüleyerek modeller. i’inci gözlem, zivektörü ile k’ıncı bi- le¸sene atanır (zik = 1 ve geri kalanı sıfır olmalıdır). Bile¸sen- lerin birbirine göre oranı π vektörü ile gösterilir. Bu vektör K uzunlu˘gundadır ve ö˘geler toplamı 1’dir. Sonlu karı¸sım modeli

¸söyle tanımlanır:

π ∼ Dir(α) θk ∼ H

zi| π ∼ M ult(π) xi| zi, θ ∼

K

Y

k=1

F(xi| θk)zik (1)

Burada Dir(α), K boyutlu bir Dirichlet da˘gılımı, M ult(π) ise π vektörünün tanımladı˘gı kesikli bir olasılık da˘gılımıdır. Karı-

¸sım bile¸senlerinin olabilirli˘gi F(x| θ) ile gösterilir. Bu da˘gılım, her bir xigözleminin da˘gılımını ziile atandı˘gı bile¸senin θkpa- rametresine göre belirler. Sonlu karı¸sım modelinde bile¸sen sa- yısını belirleyen K, ba¸stan seçilmi¸s sabit bir de˘gerdir. Sonsuz karı¸sım modeli K’nın de˘gi¸sken olmasını sa˘glar.

2.2. Dirichlet süreci karı¸sımı (DPM)

Sonlu karı¸sım modelinde bile¸sen sayısını belirleyen K de˘gerini sonsuza götürerek sonsuz karı¸sım modeli elde edilir. Bu yeni modelde π ve θ sonsuz uzunlukta vektörlere dönü¸sür. Bu iki vektörü θ üzerinde bir rastgele ölçü olan G ile ifade edebiliriz:

G(θ) =

X

k=1

δ(θ− θk) θ˜1, ˜θ2, . . . ∼ G

G ∼ DP (α, H) xi| ˜θi ∼ F (xi| ˜θi) (2)

Bu durumda G de˘gi¸skeni, Dirichlet süreci DP(α, H)’den ge- lir. Bile¸senler arasındaki da˘gılım bilgisini içeren G ölçüsü üre- tildikten sonra, her bir gözlem için ayrı ayrı ˜θi parametreleri üretilir. Sonsuz bir dizi olu¸sturan θk’lar G ölçüsünün içinde yer alırken, gözlem sayısı kadar olan ˜θi’ler ise bu diziden çekil- mi¸s örneklerdir. G ayrık ve hemen hemen her yerde sıfır oldu-

˘gundan ˜θi’ler birbirini tekrar edecektir. Bu ¸sekilde N gözlem üretildi˘ginde, modeldeki sonsuz tane bile¸senin yalnızca K+ta- nesi kullanılmı¸s olacaktır. Kullanılan bile¸sen sayısı K+, üreti- len gözlem sayısına göre otomatik olarak belirlenir.

G ölçüsü sonsuz tane θkve πk’den olu¸sur. Dirichlet süreci karı¸sımları üzerinde sonlu bellek ile çalı¸sabilmek için bu soru- nun çözülmesi gerekir. Sıkça ba¸svurulan bir yol, π üzerinden sonsuz toplam alarak elde edilen Çin lokantası sürecidir.

2.3. Çin lokantası süreci (CRP)

Dirichlet süreci karı¸sımının π vektörü üzerinden sonsuz toplamı alındı˘gında, her bir zigözlem atamasının önceki zi−1 atama- sına ko¸sullu olarak, bile¸sen parametrelerinin ise ba˘gımsız ola-

rak belirlendi˘gi bir karı¸sım modeli elde ederiz.

z ∼ CRP (α) θk ∼ H xi| zi, θ ∼

K

Y

k=1

F(xi| θk)zik (3)

Gözlem atamaları z1, . . . , zN bir bütün olarak CRP(α) Çin lokantası sürecinden üretilmektedir. θk bile¸sen parametreleri ve xigözlemleri, atamalar sonucunda belirlenen K+de˘gerine göre üretilir.

Çin lokantası sürecinin ismi, gözlem atamalarını belirleyen ko¸sullu da˘gılımın davranı¸s biçimine yapılan bir mecazdan gel- mektedir:

p(zik= 1| zi−1) ∝

 Nk,i−1 k≤ Ki−1+ ise

α de˘gilse (4)

Bu denklemde Nk, i− 1’e kadar olan atamalar yapıldı˘gı anda k numaralı bile¸sene atanmı¸s gözlem sayısıdır. Ki−1+ ise o an- daki bile¸sen sayısıdır. Yeni bir gözlem, büyüklükleri ile orantılı olarak eski bile¸senlere, α ile orantılı olarak ise yeni açılacak bir bile¸sene atanacaktır. Çin lokantası mecazına göre bu denklem lokantaya gelen yeni bir mü¸steriye masa bulma olasılıklarını gösterir. Her bir masaya yerle¸stirme olasılı˘gı o masada bulunan mü¸steri sayısı ile, bo¸s bir masaya yerle¸stirme olasılı˘gı ise α ile orantılıdır.

2.4. Önsel olasılıklar

Çin lokantası süreci, N gözlemin farklı sayıda bile¸sene bölün- tülemeleri üzerinde bir da˘gılımdır. Belirli bir bölüntülemenin önsel olasılı˘gı, ko¸sullu olasılıklar çarpımıQN

i=1p(zi|zi−1) ile belirlenir. Bile¸senlerin veya gözlemlerin sırası de˘gi¸sse bile (bö- lüntü de˘gi¸smeden kaldı˘gı için) önsel olasılık de˘gi¸smeden ka- lır. Örne˘gin ¸su üç olasılık birbirine e¸sittir: p(z = (1, 1, 2)) = p(z = (2, 1, 1)) = p(z = (2, 2, 1)) Çünkü bunların hepsi aynı bölüntülemenin farklı ifadeleridir.

Çin lokantası süreci kullanıldı˘gında, bölüntülenmek istenen gözlemlerin biçimine ve bu gözlemleri üreten sürece uygun ola- rak, karı¸sım bile¸seninin olabilirli˘gi F(x| θ) ve θkbile¸sen para- metrelerinin ne olaca˘gı ayrıca belirlenmelidir. Bu ¸sekilde olu¸s- turulan sonsuz karı¸sım modelleri için kullanılan Gibbs örnekle- mesi benzeri yöntemler, Neal’in makalesinde bulunabilir [4].

3. Karı¸sım bile¸senlerinin olabilirlikleri

Bölüntülemek istedi˘gimiz gözlemler, M uzunlu˘gunda zaman serisi vektörleridir. Olabilirlik olarak Q varyanslı normal da˘gı- lım kullanıyoruz:

H(θk) =N (θk| 0, Σ)

F(xi| θk) =N (xi| Cθk, IMQ) (5)

˙Ilk da˘gılımda belirlenen θkparametresi L < M uzunlu˘gunda bir vektör, bu da˘gılımın kovaryansıΣ ise L× L büyüklü˘günde negatif olmayan bir kö¸segen matristir. ˙Ikinci da˘gılım denkle- minde θk, M × L büyüklü˘gündeki C matrisi ile dönü¸stürül- mektedir. Bu dönü¸süm sonucunda elde edilen vektörün parçalı do˘grusal bir dizi olabilmesi için C matrisi a¸sa˘gıdaki gibi in¸sa edilmelidir.

(3)

3.1. Gözlemleri do˘grusal parçalara bölmek

Do˘grusal parçaların J tane oldu˘gunu ve j numaralı parçanın xi

vektörü üzerinde mjindisinde ba¸slayıp mj+1− 1 indisine ka- dar gitti˘gini varsayalım. Bu durumda m1 = 1 ve mJ ≤ M olacaktır. Her bir do˘grusal parça iki parametre gerektirir: par- çanın ilk ö˘gesinde yapılacak atlama miktarı ve ikinci ö˘gesinden itibaren izlenecek sabit de˘gi¸sim miktarı. Örne˘gin M = 7’yi 3 ve 4 uzunlu˘gunda iki parçaya ayırmak istiyorsak J = 2, m1= 1, m2= 4 seçmeliyiz.

C matrisini in¸sa edebilmek için öncelikle r vektörünü be- lirlemeliyiz:

r1 = 1 rm = rm−1+

 1 ∃j(m = mj∨ m = mj+ 1) ise 0 de˘gilse

(6)

Bu vektör, 1 ile ba¸slayan, do˘grusal parçaların ilk veya ikinci ö˘gelerine kar¸sılık gelen indislerde artırılarak ilerleyen bir sayı dizisidir. rmde˘geri, ilk m gözlem için gereken parametre sa- yısını verir, dolayısıyla toplam parametre sayısı rM = L’dir.

Yukarıdaki örnek için r = (1, 2, 2, 3, 4, 4, 4) olarak belirlene- cektir.Σ ve C matrisi ¸söyle belirlenir:

Σl,l =

P0 l= 1 ise

Pφ ∃m, j(m = mj∧ rm= l) ise Pδ de˘gilse

C1,1:L = (1, 0, 0, . . . , 0) Cm,l = Cm−1,l+

 1 rm= l ise

0 de˘gilse (7)

Σ’nın kö¸segenini olu¸sturan de˘gerlerden P0 ilk do˘grusal parça- nın ba¸slangıç varyansı, Pφdo˘grusal parçalar arasındaki atlama- ların varyansı, Pδ ise her bir do˘grusal parçanın kendi ö˘geleri arasındaki sabit de˘gi¸simin varyansıdır. C matrisinin her bir sa- tırı, önceki satıra parametrelerden birinin eklenmesi ile elde edi- lir. De˘geri artırılan sütun, e˘ger bir do˘grusal parçadan di˘gerine geçildiyse atlama parametresine, aynı parça devam ediyorsa sa- bit de˘gi¸sim parametresine e¸sle¸sen sütundur. Yukarıdaki örnek içinΣ ve C a¸sa˘gıdaki gibi olacaktır.

Σ = diag(P0, Pδ, Pφ, Pδ)

C =

1 0 0 0

1 1 0 0

1 2 0 0

1 2 1 0

1 2 1 1

1 2 1 2

1 2 1 3

(8)

3.2. Sonsal olasılıklar

Çin lokantası süreci, olabilirliklerle birlikte bir sonsuz karı¸sım modeli olu¸sturur. Çıkarım yaparken gözlemleri bile¸senlere ata- yacak sonsal olasılık de˘gerlerine ihtiyaç duyarız. Bu olasılıklar önsel olasılıklardaki gibi her bir atama için önceki atamalara

ko¸sulludur:

p(zik= 1| zi−1, xi, θk) ∝

 NkF(xi| θk) k≤ Ki−1+ ise αR F (xi| θ) p(θ)dθ de˘gilse (9) Önceki bir bile¸sene eklenme olasılı˘gı, o karı¸sım bile¸seninin ola- bilirli˘giyle çarpılmı¸stır. Yeni bile¸sen açma olasılı˘gı ise, olabi- lirlik parametresinin önsel da˘gılımına göre beklenen de˘geriyle çarpılmı¸stır.

Daraltılmı¸s Gibbs sampling uygulayaca˘gımız için, θküze- rinden sonsuz toplam alarak a¸sa˘gıdaki sonsal olasılıkları elde ediyoruz:

p(zik= 1| zi−1, xi) ∝

 Nk R F (xi| θ) p(θ | x1:i−1, z1:i−1)dθ k≤ Ki−1+ ise αR F (xi| θ) p(θ)dθ de˘gilse

(10) Model denklemlerini yerine koyarak a¸sa˘gıdaki denklemi elde ediyoruz:

p(zik= 1| zi−1, xi) ∝

Nk exp(ψ0+ ψ3k2Q1 xTixi

+SkTψ4kSk+ (Sk+ xi)Tψ5k(Sk+ xi)) k≤ Ki−1+ ise αexp(ψ0+ ψ12Q1 xTixi+ xTiψ2xi) de˘gilse

(11) Burada Skvektörü, i− 1’inci gözlem atandıktan sonraki anda, k’ıncı bile¸sendeki gözlemlerin toplamıdır. ψ ile belirtilen ista- tistikler a¸sa˘gıdaki gibidir:

ψ0 = −M

2 log 2π−1 2log|QI|

ψ1 = −1

2log|Σ| + 1 2log|V1| ψ2 = 1

2Q2CV1CT ψk3 = −1

2log|VNk| +1

2log|VNk+1| ψk4 = − 1

2Q2CVNkCT ψk5 = 1

2Q2CVNk+1CT Vn = (Σ−1+ n

QCTC)−1 (12)

Denklemlerde geçen V1, VNk ve VNk+1matrisleri Vndenkle- miyle belirlenir.

4. Atamalar üzerindeki sonsal da˘gılım

Sonsuz karı¸sım modelimiz üzerinde çıkarım yaparken esas ula¸s- mak istedi˘gimiz bilgi, atamaların bütünü üzerindeki sonsal da-

˘gılım, p(z|x)’tir. Bunun için, bir MCMC yöntemi olan daraltıl- mı¸s Gibbs örneklemesi uyguluyoruz.

4.1. Markov zinciri Monte Carlo (MCMC)

MCMC yönteminde, p(z|x) da˘gılımını hesaplamak için, bir Markov zinciri in¸sa edilir, bu zincirin dura˘gan da˘gılımının

(4)

p(z|x) olması sa˘glanır ve bu zincir üzerinde Monte Carlo ör- neklemesi yapılır. Zincir sonsuza do˘gru uzadıkça, zinciri olu¸s- turan parametre de˘gerlerinin da˘gılımı, ula¸smak istedi˘gimiz du- ra˘gan da˘gılıma yakınsayacaktır. Bir MCMC zinciri, bu zinci- rin her bir adımında tekrarlanacak olan geçi¸s da˘gılımı ile be- lirlenir. En sık uygulanan MCMC yöntemi olan Metropolis-

0 2 4 6 8 10 12 14 16

−4

−3

−2

−1 0 1 2 3 4 5

0 5 10 15

−4

−2 0 2 4

0 5 10 15

−4

−2 0 2 4

0 5 10 15

−4

−2 0 2 4

0 5 10 15

−4

−2 0 2 4

0 5 10 15

−4

−2 0 2 4

0 5 10 15

−4

−2 0 2 4

¸Sekil 2: Daraltılmı¸s Gibbs örneklemesinin 1500. adımındaki atamaların gösterdi˘gi altı bile¸sen, üst üste tek bir grafikte ve ayrı grafiklerde gösteriliyor. Kalın çizgiler bile¸sen parametresi θk’leri, ince çizgiler gözlem vektörü xi’leri gösteriyor.

Hastings’de, geçi¸s da˘gılımı bir reddetme örneklemesi olarak be- lirlenir. Her adımda bir kabul olasılı˘gı hesaplanır ve Bernoulli sonucuna göre yeni parametre alınır veya eski parametre tekrar- lanır.

4.2. Gibbs örneklemesi

Gibbs örneklemesi, Metropolis-Hastings yönteminin kabul ola- sılı˘gının 1 oldu˘gu özel bir çe¸sididir. Bu örnekleme yönteminde geçi¸s da˘gılımı olarak parametrenin tam ko¸sullu olasılı˘gı seçilir, yani her bir parametre, di˘ger tüm parametrelere ko¸sullu da˘gı- lımından örneklenir. Geçi¸s da˘gılımı, bütün parametrelerin tam ko¸sullu olarak sırayla örneklenmesi ¸seklinde uygulanır.

4 5 6 7 8 9

0 50 100 150 200

¸Sekil 3: Son 500 adımın her bi- rinde kullanılan bile¸sen sayı- larını (K+) aldı˘gımızda, 4 ve 9 arasında de˘gi¸sti˘gini ve or- talama de˘gerin 5.9 oldu˘gunu görüyoruz.

4.3. Daraltılmı¸s Gibbs örneklemesi

Daraltılmı¸s Gibbs örneklemesi, modeldeki bazı parametreler üzerinden toplam alınarak çıkarımlanmı¸s da˘gılımın kullanıldı˘gı Gibbs örneklemesidir. Biz de θ üzerinden toplam alarak yal- nızca zi’leri örnekliyoruz. Atamaların p(zi| zi−1, x) olasılık- larını kullanarak uyguladı˘gımız bu yöntem, Neal’in makalesin- deki Algoritma 3’tür [4].

5. Örnek uygulama

Çıkarım sonucunu göstermek amacıyla geli¸stirdi˘gimiz yöntemi, az sayıda gen ifadesi verisi üzerinde uyguladık. Dikicio˘glu ve arkada¸slarının [5] maya hücresinin bulundu˘gu ortama karbon ekleyerek gerçekle¸stirdikleri deneyler sonucunda elde ettikleri veri setinin ilk 30 gen ifadesi gözlemini alarak, Q = 3 ve α= 0.1 parametreleriyle örnekleme zincirimizi 1500 adım bo- yunca çalı¸stırdık. Daraltılmı¸s Gibbs örneklemesi ile bölüntüyü (genlerin bile¸senlere da˘gılımını) elde ettikten sonra her bir bile-

¸senin ortalama profilini belirledik.

Son durumdaki atamalara göre ortaya çıkan (12,5,3,4,4,2) gözlem içeren toplam altı bile¸sen ¸Sekil 2’de görülüyor. Fakat bu yalnızca atamaların sonsal da˘gılımından çekilmi¸s tek bir bö- lüntülemedir. Esas amacımız atamaların sonsal da˘gılımını ince- lemek oldu˘gu için, 1001. ve 1500. adım arasında yapılmı¸s 500 tane bölüntüleme üzerinden toplam alarak hesaplama yapma- mız gerekir. Örne˘gin bu adımlar boyunca kullanılan bile¸sen sa- yısını gösteren K+de˘geri, 4 ve 9 arasında de˘gi¸smi¸stir ve orta- lama de˘geri 5,9 olmu¸stur. ¸Sekil 3’te bile¸sen sayısının histogram grafi˘gini görebilirsiniz.

6. Sonuç

Bu çalı¸smada, parçalı do˘grusal dizilerden olu¸san bir sonsuz ka- rı¸sım modeli geli¸stirdik. Bu model, gen ifadesi profilleri gibi belirli zaman aralıkları biçiminde yapılanmı¸s gözlemlerin ana- lizi için elveri¸slidir. Karı¸sım bile¸senlerinin parametreleri parça- lar arasındaki atlamaları ve her bir parçanın e˘gimini belirledi˘gi için, çıkarım sonuçları yorumlanmaya uygundur. Modelin in-

¸sasında temel aldı˘gımız Çin lokantası süreci, bile¸sen paramet- releri üzerinden toplam alarak daraltılmı¸s Gibbs örneklemesine izin vermektedir.

Uygulama alanına göre model ve çıkarımda çe¸sitli geli¸s- tirmeler yapılabilir. MCMC’nin dura˘gan da˘gılıma daha çabuk ula¸sması için birle¸stirme-bölme adımları eklemek mümkündür.

Ayrıca do˘grusal parçaların kırılma noktaları ayrı de˘gi¸skenler olarak hesaba katılırsa daha karma¸sık, fakat daha esnek bir ka- rı¸sım modeli elde edilir.

(5)

7. Te¸sekkür

Bo˘gaziçi Üniversitesi Biyosistem Mühendisli˘gi Ara¸stırma Grubu’ndan Dr. Duygu Dikicio˘glu, Prof. Betül Kırdar ve Ayça Cankorur Çetinkaya’ya te¸sekkür ederiz.

8. KAYNAKÇA

[1] T. S. Ferguson. “A Bayesian analysis of some nonpara- metric problems.” Annals of Statistics, 1(2), 1973.

[2] D. Blackwell and J. B. MacQueen. “Ferguson distributi- ons via Pólya urn schemes.” Annals of Statistics, 1(2):353- 355, 1973.

[3] Claude Sammut and Geoffrey I. Webb. 2011. Encyclope- dia of Machine Learning (1st ed.). Springer Publishing Company, Incorporated.

[4] R. M. Neal, “Markov chain sampling methods for Dirich- let process mixture models,” Journal of Computational and Graphical Statistics, vol. 9, pp. 249–265, 2000.

[5] Duygu Dikicioglu, Erkan Karabekmez, Bharat Rash, Pı- nar Pir, Betul Kirdar, Stephen G Oliver. “How yeast re- programmes its transcriptional profile in response to dif- ferent nutrient impulses.” BMC Systems Biology 2011, 5:148, 2011.

Referanslar

Benzer Belgeler

BM Do ğal Felaketler Sorumlusu Salvano Briceno, yaptığı açıklamada, yılın ilk altı ayında 230 bine yakın insan ın felaketlerde öldüğünü, 130 milyon kişinin

2 Çoklu Do ˘grusal Regresyon Katsayıların tahmini ve yorumu Katsayıların ve modelin kesinli ˘gi Nitel de ˘gi¸skenler. Çoklu

c i sayıları u vekt¨ or¨ une do˘ grusal olarak ba˘ glı ve i¸c¸carpım ilk de˘ gi¸skende do˘ grusal olduklarından, T do˘ grusal bir d¨ on¨ u¸s¨ umd¨ ur. B¨ oylelikle T

In this contribution we initiate the construction of algorithms for the calculation of the linear complexity in the more general viewpoint of sequences in M(f ) for arbitrary

Four different potential traps derived from the literature; specifically the trap of control, the trap of similarity, the trap of preservation, and the trap of individual

bas¸ka bir bant kullanılması, e˘ger ortak bant kullanılacaksa iletimin geciktirilmesi veya istenilen frekanslarda ani d¨us¸ ¨us¸ sa˘glayabilmek ic¸in darbelerin

Önceki flenliklerde s›k karfl›laflt›¤›m›z bir durum, baflvuru süresi bittikten sonra da flenli¤e kat›lmak isteyen çok say›da gökyüzü tutkununun olufluy-

Nesne tespitinin daha hızlı şekilde gerçekleştirilmesi için yapılan bir çalışmada F-RCNN (Fast- Reccurent Convolution Neural Network - Hızlı tekrarlayan