• Sonuç bulunamadı

Neural networks based online learning

N/A
N/A
Protected

Academic year: 2021

Share "Neural networks based online learning"

Copied!
4
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

Sinir A˘gları Merkezli Çevrimiçi Ö˘grenim

Neural Networks Based Online Learning

Tolga Ergen ve Süleyman S. Kozat

Elektrik ve Elektronik Mühendisli˘gi Bölümü

˙Ihsan Do˘gramacı Bilkent Üniversitesi Ankara, Türkiye

{ergen,kozat}@ee.bilkent.edu.tr Özetçe —Bu bildiride, çevrimiçi do˘grusal olmayan ba˘glanım

incelenmi¸stir ve uzun kısa soluklu bellek a˘gları merkezli özgün algoritmalar sunulmu¸stur. Bu özgün algoritmalar e˘gitmek için ön-celikle temel yapı do˘grusal olmayan durum uzay formuna getiril-mi¸stir ve daha sonra yüksek derecede etkili olan parçacık süzme (PS) merkezli güncellemeler ve bunun yanında geni¸sletilmi¸s Kalman süzme (GKS) merkezli güncellemeler sunulmu¸stur. Belli ¸sartlar sa˘glandı˘gında, PS merkezli e˘gitim algoritması en iyi para-metre tahminine yakınsamayı garanti etmektedir. Parçacık sayısı kontrol edilerek, birinci dereceden bayır merkezli metotların hesaplama karma¸sıkl˘gında bu performans elde edilebilmektedir. Deney sonuçları sunulan algoritmların geleneksel algoritmalara kıyasla elde ettikleri performans geli¸smelerini göstermi¸stir.

Anahtar Kelimeler—çevrimiçi ö˘grenim, uzun kısa soluklu bellek a˘gı, parçacık süzme, Kalman süzme.

Abstract—In this paper, we investigate online nonlinear

reg-ression and introduce novel algorithms based on the long short term memory (LSTM) networks. We first put the underlying architecture in a nonlinear state space form and introduce highly efficient particle filtering (PF) based updates, as well as, extended Kalman filter (EKF) based updates. Our PF based training method guarantees convergence to the optimal parameter esti-mation under certain assumptions. We achieve this performance with a computational complexity in the order of the first order gradient based methods by controlling the number of particles. The experimental results illustrate significant performance imp-rovements achieved by the introduced algorithms with respect to the conventional methods.

Keywords—online learning, long short term memory network, particle filtering, Kalman filtering.

I. G˙IR˙I ¸S

Modern çevrimiçi ö˘grenim literatüründe, bilinmeyen iste-nen bir sinyali tahmin etmek ba¸slıca üzerinde durulan konu-lardan biridir [1]. Bu konuda, ardı¸sık olarak istenen sinyal ile ilgili veri alınıp, istenen sinyalin bir sonraki alaca˘gı de˘ger tahmin edilmeye çalı¸sılmaktadır [1]. Çevrimiçi literatürünün bu problemi ba˘glanım olarak da bilinir ve sinyal i¸sleme litera-türünde de kapsamlı olarak incelenmektedir [2]. Bu çalı¸sma-larda, do˘grusal modellemeler yeterli olmadı˘gı için genellikle do˘grusal olmayan metotlar tercih edilmektedir [2]. Burada, do˘grusal olmayan çevrimiçi ö˘grenim problemi çalı¸sılmaktadır ve bu problemde ardı¸sık olarak bir veri dizisi ve bu dizinin etiketi aralarında do˘grusal olmayan bir ili¸ski bulmak için

göz-lenmektedir. Bu ili¸skiye dayanarak istenen sinyalin gelecekteki de˘gerleri tahmin edilmektedir [2].

Sinyal i¸sleme literatüründe ba˘glanım problemi için çok fazla sayıda do˘grusal olmayan yöntemler bulunmaktadır [1], [2]. Ancak, bu yöntemler yüksek hesaplama karma¸sıklı˘gından ve a¸sırı uyum gösterme özelliklerinden dolayı, yetersiz perfor-mans göstermektedir [1]. Bu yüzden, yüksek derecede karma-¸sık yapıları modelleyebildikleri için sinir a˘gı merkezli ba˘gla-nım algoritmaları sunulmaktadır [3]. Ancak, bu algoritmalar da a¸sırı uyum gösterme probleminden ma˘gdur olabilmektedir. Örnek olarak, derin sinir a˘gı (DSA) verideki zamana ba˘gımlı-lıkları yakalayamamaktadır [4]. Buna çözüm olarak, yinelenen sinir a˘gları sunulmaktadır, ancak, bu a˘glar da verideki uzun ve kısa dönemli ba˘gımlılıkları yakalayamamaktadır [4].

Sinir a˘gı yapısı sabitlendikten sonra, bu a˘gların parametre-lerini ö˘grenmek için genel olarak olasılıksal bayır ini¸si (OB˙I) algoritması gibi birinci dereceden bayır merkezli algoritma-lara kullanılmaktadır [4]. Çünkü bu algoritmalar verimli bir ¸sekilde çalı¸smaktadır [5]. Ancak bu algoritmalar sadece birinci dereceden bayır bilgisini kullandı˘gı için bazı kötü ko¸sullu problemlerde yetersiz performans göstermektedirler [1]. Di˘ger yandan, ikinci dereceden bayır bilgisini kullanan geni¸sletilmi¸s Kalman süzme (GKS) gibi algoritmalar daha iyi bir per-formans göstermelerine ra˘gmen çok yüksek bir hesaplama karma¸sıklı˘gına sahiptiler [3], [6]. Bu nedenlerden dolayı, hem birinci hem de ikinci dereceden bayır merkezli algoritmaların performanslarını azaltan zayıf yönleri bulunmaktadır [3], [5].

Bu bildiride, yukarıda anlatılan problemler uzun kısa so-luklu bellek (UKSB) a˘gı [4] merkezli ba˘glanım algoritma-lar sunualgoritma-larak ve bu algoritmaalgoritma-ların parametreleri çevrimiçi parçacık süzme (PS) [7] merkezli algoritma ile ö˘grenilerek çözülmektedir. Burada, UKSB yapısı içinde bulundurdu˘gu düzenekler sayesinde geçmi¸s verilere ait bilgilerin ne kadarının kullanaca˘gını ayarlayabilmektedir [4]. UKSB yapısının para-metrelerini ö˘grenmek için önerilen çevrimiçi PS merkezli algo-ritma etkili bir performans göstermektedir. Hatta, bu algoalgo-ritma en iyi parametre tahminine yakınsamayı garanti etmektedir. Buna ek olarak, parçacık sayısı kontrol edilerek algoritmanın hesaplama karma¸sıklı˘gı birinci dereceden bayır merkezli algo-ritmalarının düzeyine getirilebilmektedir. Böylece, literatürde ilk defa, UKSB yapısı için etkili ve dü¸sük karma¸sıklı˘ga sahip bir parametre ö˘grenme algoritması sunulmaktadır.

(2)

II. PROBLEMTANIMI

Bu bildirideki problemde, ardı¸sık olarak{dt}t≥1,dt∈ R istenen sinyali ve {xt}t≥1, xt ∈ Rp ba˘glanım vektörleri alınmaktadır. Bu ba˘glamda, amaç dt’yi ¸simdiki ve geçmi¸s gözlemlerimiz olan {. . . , xt−1,xt} vektörlerine ba˘glı olarak tahmin etmektir. Bu problemde, tahmini temsil eden ˆdtsinyali

{. . . , xt−1,xt} ve {. . . , dt−2, dt−1} verilerin bir fonksiyonu ¸seklinde ifade edilebilmektedir. Her bir zaman indeksi t’de, l(dt, ˆdt) yapılan tahmine ba˘glı olarak maruz kalınan hata de˘gerini temsil etmektedir.

Bu bildiride, ˆdt’yi elde edebilmek için denklemleri a¸sa˘gıda verildi˘gi gibi olan UKSB sinir a˘gı kullanılmaktadır [4]:

zt= g  W(z)xt+ R(z)yt−1+ b(z)  (1) it= σ 

W(i)xt+ R(i)yt−1+ b(i)  (2) ft= σ  W(f)xt+ R(f)yt−1+ b(f)  (3) ct= it zt+ ft ct−1 (4) ot= σ  W(o)x t+ R(o)yt−1+ b(o)  (5) yt= ot h(ct). (6)

Burada, ct∈ Rm durum vektörünü, x

t∈ Rp giri¸s vektörünü ve yt ∈ Rm çıkı¸s vektörünü temsil etmektedir. Ayrıca, it,

ft ve ot sırasıyla giri¸s, unutma ve çıkı¸s kapılarıdır. g(·) ve

h(·) uygulandıkları vektörlerin her bir elementini ayrı ayrı

i¸slemekte ve genellikle tanh(·) fonksiyonu olarak seçilmek-tedir. Benzer bir fonksiyon olan σ(·) ise sigmoit fonksiyonu

olarak seçilmektedir. Denklemlerdeki  ise aynı uzunlukta iki vektörün elementlerini tek tek çarparak yeni bir vektör elde etmektedir. Geri kalan katsayı matrisleri ve vektörlerini tanımlamaları ¸su ¸sekildedir: W(z) ∈ Rm×p,R(z) ∈ Rm×m,

b(z) ∈ Rm, W(i) ∈ Rm×p, R(i) ∈ Rm×m, b(i) ∈ Rm,

W(f) ∈ Rm×p,R(f)∈ Rm×m,b(f)∈ Rm,W(o)∈ Rm×p,

R(o)∈ Rm×m ve b(o) ∈ Rm. UKSB yapısını çıkı¸sı kullanı-larak, tahmin a¸sa˘gıdaki gibi elde edilmektedir:

ˆ

dt= wTtyt. (7)

Burada, wt ba˘glanım katsayılarını temsil etmektedir. Bu sis-tem için amaç parametreleri nt=1l(dt, ˆdt) olarak tanımlanan toplam hata fonksiyonunu minimum de˘gere indirecek ¸sekilde çevrimiçi olarak ö˘grenmektir.

III. UZUNKISASOLUKLUBELLEKMERKEZL˙IÖZGÜN ÖGREN˙IM˘ ALGOR˙ITMALARI

Bu bölümde, öncelikle UKSB yapısının denklemleri do˘g-rusal olmayan durum uzay formuna konulmaktadır. Bu forma ba˘glı olarak, PS ve GKS merkezli çevrimiçi güncellemeler elde edilmektedir.

A. Geni¸sletilmi¸s Kalman Süzme Algoritması ile Çevrimiçi Ö˘g-renim

Bu bölümde, (1), (2), (3), (4), (5), (6) ve (7) denklemlerindeki sistemin parametrelerini ö˘grenebilmek için GKS algoritması merkezli güncellemeler sunulmaktadır. GSK algoritması gözlemler verildi˘ginde durum vektörlerinin sonsal yo˘gunluk fonksiyonunun Gauss yo˘gunluk fonksiyonu olmasını gerektirmektedir [6]. Bu varsayım sisteme Gauss

gürültüsü eklenerek sa˘glanabilmektedir [6]. Bundan dolayı, GKS algoritmasını kullanabilmek için sisteme öncelikle Gauss gürültüsü eklenmektedir. Kolaylık için

{w, W(z),R(z),b(z),W(i),R(i),b(i),W(f),R(f),b(f),W(o)

,R(o),b(o)} parametreleri θ ∈ R vektörü ve bu vektörün

boyutunθ= 4m(m+p)+5m ile temsil edilmektedir. Bunları kullanarak, sistem a¸sa˘gıdaki ¸sekilde tanımlanmaktadır:

yt= τ(ct,xt,yt−1) + t (8)

ct= Ω(ct−1,xt,yt−1) + vt (9)

θt= θt−1+ et (10)

dt= wTtyt+ εt. (11)

Yukarıdaki denklemlerde, τ(·) ve Ω(·) fonksiyonları sırasıyla

(6) and (4)’teki do˘grusal olmayan denklemleri temsil etmekte-dir. Ayrıca, t,et,vt veεt sıfırt ortalamalı rastlantısal Gauss de˘gi¸skenleridir. Buna ek olarak, [Tt,vTt,eTt]T ve εt sahip oldu˘gu varyanslar sırasıylaQtveRtile gösterilmektedir. Bu-rada, varyans de˘gerlerinin bilindi˘gi kabul edilmektedir, ancak bilinmedi˘gi takdirde daha önceki veri de˘gerlerine ba˘glı olarak tahmin de edilebilmektedir [6]. Bunlar kullanılarak, (8), (9) ve (10) daha sade bir ¸sekilde a¸sa˘gıdaki gibi tanımlabilmektedir:

yt ct θt  =  τ(c t,xt,yt−1) Ω(ct−1,xt,yt−1) θt−1  +vtt et  (12) dt= wTtyt+ εt. (13)

Denklem (12) ve (13)’teki sistemde, sadecedtsinyali gözlem-lenebilmekte ve bu gözleme ba˘glı olarakyt,ctveθt vektörü-leri tahmin edilebilmektedir. Bu sistem için GKS algoritması [6] a¸sa˘gıdaki ¸sekilde uygulanmaktadır:

⎡ ⎣yct|tt|t θt|t ⎤ ⎦ = ⎡ ⎣yct|t−1t|t−1 θt|t−1⎦ + Lt(dt− wTt|t−1yt|t−1) (14) ct|t−1= Ω(ct−1|t−1,xt,yt−1|t−1) (15) yt|t−1= τ(ct|t−1,xt,yt−1|t−1) (16) θt|t−1= θt−1|t−1 (17) Lt= Σt|t−1Ht(HTtΣt|t−1Ht+ Rt)−1 (18) Σt|t= Σt|t−1− LtHTtΣt|t−1 (19) Σt|t−1= Ft−1Σt−1|t−1FTt−1+ Qt−1. (20) Yukarıdaki denklemlerde, Σ ∈ R(2m+nθ)×(2m+nθ)

kovar-yans matrisini, Lt ∈ R(2m+nθ) Kalman kazancını, Qt R(2m+nθ)×(2m+nθ) i¸slem gürültü kovaryansını ve R

t ∈ R ölçüm gürültü varyansını temsil etmektedir. Ht veFt de˘gi¸s-kenleri a¸sa˘gıdaki gibi hesaplanmaktadır:

HT t = ∂dt y ∂d∂ct ∂dθt y=yt|t−1 c=ct|t−1 θ=θt|t−1 ve Ft= ⎡ ⎢ ⎣ ∂τ (c,xt,y) y ∂τ (c,xt,y) c ∂τ (c,xt,y) θ ∂Ω(c,xt,y) y ∂Ω(c,xt,y) c ∂Ω(c,xt,y) θ 0 0 I ⎤ ⎥ ⎦ y=yt|t c=ct|t θ=θt|t . Bu de˘gi¸skenlerFt∈ R(2m+nθ)×(2m+nθ)veHt∈ R(2m+nθ) ¸seklinde tanımlanmaktadır.

(3)

Denklem (14), (15), (16), (18), (19) ve (20)’ deki güncelle-melere göre, (18), denklem (19) ve (20)’deki matris çarpımları yüzünden algoritmanın hesaplama karma¸sıklı˘gıO(m8+m4p4)

olarak bulunmaktadır.

B. Parçacık Süzme Algoritması ile Çevrimiçi Ö˘grenim

Bu bölümde, (12) ve (13) denklemlerindeki sistem için PS güncellemeleri sunulmaktadır. PS algoritması sadece (12) ve (13) denklemlerindeki gürültü örneklerinin ba˘gımsız olmasını gerektirmektedir [7]. Bu yüzden, (12) ve (13) denklerindeki sistem a¸sa˘gıdaki gibi de˘gi¸stirilebilmektedir:

at= ϕ(at−1) + ηt (21)

dt= wTtyt+ ξt. (22) Yukarıdaki denklemlerde,ηtveξtba˘gımsız gürültü örnekleri ve ϕ(·) fonksiyonu (12) denklemindeki do˘grusal olmayan

i¸slemleri temsil etmektedir. Ayrıca, (21) denklemindeki durum vektörü a¸sa˘gıdaki gibi tanımlanmaktadır:

at= yt ct θt  .

Denklem (21) ve (22)’deki sistem için amaç ortalama karesel hata açısından en iyi parametre tahmini olan E[at|d1:t] elde

etmektir. Bu amaç için öncelikle sonsal yo˘gunluk fonksiyonu olan p(at|d1:t) bulunmaktadır. Daha sonra, sonsal yo˘gunluk

fonksiyonu kullanılarak durum vektörünün ortalaması hesap-lanmaktadır. Sonsal yo˘gunluk fonksiyonun bulunması için PS algoritması [7] a¸sa˘gıda anlatıldı˘gı gibi kullanılmaktadır.

˙Istenen yo˘gunluk fonksiyonu olan p(at|d1:t) örnekleri ve

bu örneklerin a˘gırlıkları {ai

t, ωit}Ni=1 ile gösterilmektedir. Bu örnekler ve a˘gırlıkları kullanılarak, istenen yo˘gunluk fonksi-yonu a¸sa˘gıdaki gibi hesaplanmaktadır:

p(at|d1:t) ≈

N  i=1

ωt(at− ait). (23) ˙Istenen yo˘gunluk fonksiyonundan do˘grudan örnekleme yap-mak genellikle zordur, bu nedenle örnekleri elde etmek için önem fonksiyonu olarak bilinen q(at|d1:t) kullanılmaktadır [7]. Burada, a˘gırlıklar ¸su ¸sekilde hesaplanmaktadır:

ωti∝ p(a i t|d1:t) q(ai t|d1:t) . (24)

Denklem (24)’teki a˘gırlıklar a¸sa˘gıdaki e¸sitli˘gi sa˘glamalıdır: N

 i=1

ωit= 1.

A˘gırlık hesaplanmasını daha basit bir hale getirmek için (24) denklemi çarpanlarına ayrılarak, a¸sa˘gıdaki gibi tekrarlanan bir formül elde edilebilmektedir [7]:

ωti∝p(dt|a i t)p(ait|ait−1) q(ai t|ait−1, dt) ωit−1. (25)

Yukarıdaki denklemde, önem fonksiyonunun a˘gırlıkların var-yansını en aza indirecek ¸sekilde seçilmesi amaçlanmaktadır. Böylece, bütün parçacıkların (23) denkleminde önemli bir etkisi olması garanti edilir [7]. Bu açıdan, p(ai

t|ait−1, dt) en iyi önem fonksiyonu seçimidir. Ancak, bu seçim genellikle

analitik bir formda ifade edilemeyebilmektedir [7]. Bu yüzden, bu bildiride, önem fonksiyonu olarak a˘gırlıklar için küçük bir varyans de˘geri olu¸sturanp(ai

t|ait−1) seçilmektedir. Bu seçimle birlikte, (25) a¸sa˘gıdaki formda hesaplanmaktadır:

ωti∝ p(dt|ait)ωit−1. (26) Denklem (23) ve (26) kullanılarak, durum vektörü için orta-lama de˘ger a¸sa˘gıdaki gibi hesaplanmaktadır:

E[at|d1:t] =  atp(at|d1:t)dat  at N  i=1 ωt(at− ait)dat= N  i=1 ωtiait. (27) PS algoritmasını uygularken, a˘gırlıkların varyansı kaçınılmaz bir ¸sekilde zamanla artmaktadır [8]. Bu yüzden, bir kaç zaman adımından sonra bazı parçacıkların a˘gırlıkları sıfıra çok yakın de˘gerler almakta ve ortalamaya etkileri neredeyse hiç olmamaktadır [7], [8]. Bu problem bozulma problemi olarak bilinmektedir ve bu yüzden hesaplama gücünün ço˘gu bo¸sa gitmektedir. Bozulma oranını ölçmek için a¸sa˘gıdaki gibi hesaplanan etkili örnek hacmine bakılmaktadır [8]:

Nef f =N 1 i=1(ωti)2

.

Küçük bir Nef f de˘geri, a˘gırlıkların varyansını yüksek oldu-˘gunu gösterir. Bu yüzden, e˘ger Nef f belli bir sınırdan kü-çükse, [8]’deki yeniden örnekleme algoritması kullanılmalıdır. Böylece, küçük a˘gırlı˘ga sahip parçacıklar elenip, hesaplama gücü daha büyük a˘gırlıklı parçacıklar için kullanılmaktadır. Bu adımlarla, bir çevrimiçi parametre ö˘grenim algoritması sunulmaktadur. Bu algoritmaE[at|d1:t] de˘gerine belli ko¸sullar

altında yakınsamayı a¸sa˘gıda gösterildi˘gi gibi garanti etmekte-dir.

Teorem 1: at vektörünün a¸sa˘gıdaki e¸sitsizli˘gi sa˘glayan bir durum vektörü oldu˘gunu varsayalım:

sup

at

|at|4p(dt|at) < Kt. (28)

Yukarıdaki e¸sitsizlikteki Kt N ’den ba˘gımsız olan sonlu bir

sabittir. Bu at vektörü için a¸sa˘gıdaki yakınsama sonucu elde edilmektedir:

N  i=1

ωtiait→ E[at|d1:t] as N → ∞.

Teorem 1’in ispatı: [9] kullanılarak, a¸sa˘gıdaki e¸sitsizlik yazılabilmektedir: E[π(at)|d1:t] − N  i=1 ωt(ait) 4 ≤ Ct ||π||4 t,4 N2 . (29)

Yukarıdaki denklemdeki ||π||t,4 ¸söyle tanımlanmaktadır:

||π||t,4 max {1, 

E[|π(at)|4|d1:t]

1

4, t= 1, 2, . . . , t}.

Burada, π ∈ Bt4 [9]’da tanımlanmı¸s özelliklere sahip belli bir fonksiyon sınıfıdır. Ayrıca, Ct N ’den ba˘gımsız sonlu bir sabittir. Denklem (28) kullanılarak,π(at) = atfonksiyonunun

Bt4için gereken ko¸sulları görülmektedir. Böylece,π(at) = at fonksiyonunu (29) denklemine uygulayıp ve daha sonra (29)

(4)

TABLO I: PARAMETREÖGREN˙IM˘ ALGOR˙ITMALARININHE -SAPLAMAKARMA ¸SIKLI ˘GIKAR ¸SILA ¸STIRMASI

Algoritma Hesaplama Karma¸sıklı˘gı

OB˙I Om4 + m2p2

GKS Om8 + m4p4

PS ON (m2 + mp)

denkleminiN sonsuza giderken de˘gerlendirirsek ispat

tamam-lanmı¸s olur. 

Denklem (21), (22), (26) ve (27)’deki güncellemere göre her bir parçacık (21) ve (22) denklemlerindeki matris vektör çarpımlarından dolayı O(m2+ mp) hesaplama karma¸sıklı˘gına

sahip olmaktadır. Bütün parçacıkların güncellenmesi dü¸sünül-dü˘günde, algortima Tablo I’de gösterildi˘gi gibi O(N(m2 + mp)) hesaplama karma¸sıklı˘gına sahip olmaktadır.

IV. SAYISALÖRNEKLER

Bu bölümde, bildiride anlatılan algoritmaların performans-ları gösterilmi¸stir. Bunlara ek olarak, UKSB yapısının gele-neksel parametre ö˘grenme metotu olan olasılıksal bayır ini¸si (OB˙I) [4] merkezli algoritmanın performansı da gösterilmi¸s-tir. Performans de˘gerlendirmesi için Kinematic veri kümesi kullanılmı¸stır. Bu veri kümesinde bir robot kolunun hedefe uzaklı˘gıyla alakalı bir ba˘glanım vektörü ve kolun o andaki hedefe olan uzaklık bilgileri yer almaktadır. Bu veri kümesi için amaç ba˘glanım vektörüne bakarak robot kolunun hedefe uzaklı˘gını tahmin etmektir. Bu veri kümesinde, xt ∈ R8 ba˘glanım vektörünü vem= 8 UKSB yapısının çıkı¸s

boyutlu-lu˘gunu temsil etmektedir. PS merkezli algoritma için parçacık sayısı N = 1000 olarak seçilmi¸stir. Buna ek olarak, ηtve ξt sıfır ortalamalı Gauss gürültüleri olarak seçilmi¸stir ve sırasıyla Cov[ηt] = 0.01I covaryansı ve Var[ξt] = 0.25 varyansına sahiptirler. GKS merkezli algoritma için ba¸slangıç hata covar-yansıΣ0|0 = 0.01I olarak seçilmi¸stir. Ayrıca, durum ve ölçüm istatistikleri Qt = 0.01I ve Rt = 0.25 olarak seçilmi¸stir. OB˙I merkezli algoritma için ise ö˘grenme hızı μ = 0.01

olarak seçilmi¸stir. Bütün bu parametreler algoritmaların benzer dura˘gan durum hatasına ula¸smaları için seçilmi¸stir. Böylece algoritmalara adil bir ¸sekilde karı¸sıla¸stırılabilir.

¸Sekil 1’de, algoritmaların birikimsel hata performansları kar¸sıla¸stırılmaktadır. Görüldü˘gü üzere GKS algoritması erken zamanlarda OB˙I’ den daha iyi olmasına ra˘gmen, dura˘gan durumda en kötü performansı göstermi¸stir. Bu UKSB yapısının yüksek derecede do˘grusal olmayan durumu dü¸sünüldü˘günde beklendik bir sonuçtur. Önerilen PS algoritması ise beklenildi˘gi üzere dura˘gan duruma di˘ger iki algoritmadan çok daha hızlı bir ¸sekilde ula¸smı¸s ve dura˘gan durumda daha küçük bir hata elde etmi¸stir. Bu sonuçlar, önerilen PS merkezli algoritmanın göreceli olarak bir hayli üstün oldu˘gunu göstermektedir.

V. SONUÇLAR

Bu bildiride, çevrimiçi do˘grusal olmayan ba˘glanım prob-lemi çalı¸sılmı¸s ve özgün UKSB yapısı merkezli ba˘glanım algoritmaları sunulmu¸stur. Ayrıca, bu algoritmalar için çevri-miçi parametre ö˘grenim metotları da sunulmu¸stur. Bu metotları elde etmek için öncelikle UKSB yapısı durum uzay formuna sokulup, daha sonra bu forma dayalı olarak GKS ve PS algoritmaları [6], [8] merkezli güncellemeler elde edilmi¸stir.

0 1000 2000 3000 4000 5000 6000 7000 8000 0 0.5 1 1.5 2 2.5 3 3.5 4 Birikimsel Hata 6800 7200 7600 0.06 0.08 0.1 0.12 0.14 GKS PS PS

¸Sekil 1: Algoritmaların birikimsel hata performansları. Böylece, belli ko¸sullar altında en iyi parametre tahminine yakınsayan etkili bir çevrimiçi parametre ö˘grenim metodu elde edilmi¸stir. Ayrıca, önerilen metotun hesaplama karma¸sıklı˘gı birinci derecede bayır temelli algoritmaların hesaplama kar-ma¸sıkl˘gı düzeyindedir. Sayısal örnekler bölümünde, önerilen algoritmanın geleneksel metotlara kıyasla elde etti˘gi perfor-mans artı¸sı gösterilmi¸stir.

KAYNAKLAR

[1] N. Cesa-Bianchi and G. Lugosi, Prediction, learning, and games. Cambridge university press, 2006.

[2] A. C. Singer, G. W. Wornell, and A. V. Oppenheim, “Nonlinear autoregressive modeling and estimation in the presence of noise,” Digital Signal Processing, vol. 4, no. 4, pp. 207–221, 1994.

[3] A. C. Tsoi, “Gradient based learning methods,” in Adaptive processing of sequences and data structures. Springer, 1998, pp. 27–62. [4] K. Greff, R. K. Srivastava, J. Koutník, B. R. Steunebrink, and J.

Schmid-huber, “LSTM: A search space odyssey,” IEEE Transactions on Neural Networks and Learning Systems, vol. PP, no. 99, pp. 1–11, 2016. [5] J. Mazumdar and R. G. Harley, “Recurrent neural networks trained

with backpropagation through time algorithm to estimate nonlinear load harmonic currents,” IEEE Transactions on Industrial Electronics, vol. 55, no. 9, pp. 3484–3491, 2008.

[6] B. D. Anderson and J. B. Moore, Optimal filtering. Courier Corpora-tion, 2012.

[7] P. M. Djuric, J. H. Kotecha, J. Zhang, Y. Huang, T. Ghirmai, M. F. Bugallo, and J. Miguez, “Particle filtering,” IEEE signal processing magazine, vol. 20, no. 5, pp. 19–38, 2003.

[8] M. S. Arulampalam, S. Maskell, N. Gordon, and T. Clapp, “A tutorial on particle filters for online nonlinear/non-gaussian bayesian tracking,” IEEE Transactions on signal processing, vol. 50, no. 2, pp. 174–188, 2002.

[9] X. L. Hu, T. B. Schon, and L. Ljung, “A basic convergence result for particle filtering,” IEEE Transactions on Signal Processing, vol. 56, no. 4, pp. 1337–1348, April 2008.

[10] J. Alcala-Fdez, A. Fernandez, J. Luengo, J. Derrac, S. García, L. Sánc-hez, and F. Herrera, “KEEL data-mining software tool: Data set repo-sitory, integration of algorithms and experimental analysis framework,” Journal of Multiple-Valued Logic and Soft Computing, vol. 17, no. 2-3, pp. 255–287, 2011.

Şekil

TABLO I: P ARAMETRE Ö GREN˙IM ˘ A LGOR˙ITMALARININ H E -

Referanslar

Benzer Belgeler

Tütengil, 7 Aralık 1979 sabahı, üni­ versitedeki dersine gi­ derken otobüs durağın­ da dört kişinin silahlı saldınsı sonucu öldü­ rülmüştü. Tütengil’in

Bayramın üçüncü günü Beyoğ- lu’ndaki Ruhi Su Kültür ve Sanat Vakfı’na hırsız girdiğini söyleyen eşi Sıdıka Su, “Hırsız ikisi büyük üç sazı

Dava dosyasının incelenmesinden; Kırıkkale ili, Bahşili ilçesi, Barbaros İlkokulunda müdür olarak görev yapan davacının dava konusu Yönetmelik eki &#34;Görev Süreleri

Şimdi çift değişkenli fonksiyonlar için Teorem 3.5 „te verilen Klasik Korovkin Teoreminin toplam süreci kullanılarak geliştirilmiş hali olan aşağıdaki teoremi ve

Elektromobil ve Hidro- mobil kategorilerinin birincilerine 25.000 TL ödül, Otonom kategorisi birincisine 15.000 TL performans ödülü, takımların yerli parça ve

Compared to the conventional p-type bulk AlGaN EBL, the proposed structure features an increased hole injection, and thus an enhanced optical output power and EQE among the

As we will show below, the effect of resistive loss is to give a bit-rate capacity for a given line that is proportional to the cross-sectional area and inversely proportional to

Kızartma tekrarı ve ilave edilen adsorban veya antioksidana göre iletkenlik, p-anisidin değeri, indüksiyon zamanı, L* değeri, a* değeri, b* değeri, peroksit