• Sonuç bulunamadı

3. BAĞIMSIZ BĐLEŞEN ANALĐZĐ TABANLI YÖNTEMLER

3.2 Bağımsız Bileşen Analizi Metodolojisi

Şekil 3.2. Đkinci yapının şekilsel gösterimi

3.2 Bağımsız Bileşen Analizi Metodolojisi

BBA algoritmasının genel işleyişi Şekil 3.3.’de gösterildiği gibidir [26]:

2.Piksel

N.Piksel 1.Piksel

Görüntü i Görüntü i’nin kaynakları W11

W12

W1N

U

Şekil 3.3. BBA metodolojisi

Gözlem matrisi olarak isimlendirilen ilk aşamada görüntü resimleri satır vektörleri şeklinde sıralanarak (3.3)’deki gibi gözlem matrisini oluştururlar.

Birinci bölümde TBA da olduğu gibi ortalaması çıkarılmış gözlem vektörleri hesaplanır.

Đkinci bölümde ise beyazlatma işlemi gerçekleştirilir. Beyazlatma işlemi ile hızlı Önişleme

yakınsama sağlanmaktadır. BBA’da beyazlatma işlemi için TBA algoritması yaygın olarak kullanılmaktadır. Böylece beyazlatma işleminin yanında boyut indirgeme gerçekleştirilebilmektedir [27]. Sırasıyla önce (3.4) kullanılarak sıfır ortalamalı gözlem matrisi, kovaryans matrisi ve beyazlatma matrisi bulunur.

m=

[

1 2

]

Ortalaması çıkarılmış gözlem vektörleri (3.5)ve (3.6)’daki gibidir:

Sıfır ortalamalı gözlem matrisi (3.7)’deki gibidir:

Daha sonra sıfır ortalamalı gözlem matrisi kullanılarak (3.8)’deki gibi kovaryans matrisi hesaplanır.

C XX=ɶ ɶ (3.8) T

Cvv eşitliğinden yararlanılarak (3.9)’daki öz değer ayrıştırma yöntemi uygulandığında; E ortogonal öz vektör matrisi, D de diagonal özdeğer matrisi elde edilerek beyazlatma matrisi B eşitlik (3.10)’daki gibi, beyazlatılmış veri matrisi Z ise (3.11) eşitliğindeki gibi bulunur [26].(3.10) eşitliğinde

1

2

D , diagonal özdeğerlerin karekökünün alınmasına karşılık gelmektedir.

E{XXɶ ɶ }= T EDET (3.9)

Böylece beyazlatma işlemi tamamlanır. Bundan sonraki aşama W matrisinin tahmin edilmesi aşamasıdır. Kullanılan her BBA algoritmasında W matrisinin tahmini için farklı yöntemler kullanılmaktadır. “Deflationary fixed point algorithm” literatürdeki BBA algoritmalarından biridir. Bu algoritmada bağımsız bileşenler tek tek tahmin edilmeye çalışılır. Algoritma en baştan itibaren “W” ayrıştırma matrisini aşağıdaki adımları izleyerek tahmin eder [26]:

ADIM 1: Veri sıfır ortalamalı olacak şekilde merkezileştir.

ADIM 2: Veriyi beyazlaştır, Z matrisini bul.

ADIM 3:Tahmin edilmesi istenen “m” bağımsız bileşen sayısını belirle, p ←1, ADIM 4: wp’ye başlangıç değeri ver.(örn. rasgele)

ADIM 8: Eğer wp yakınsamadıysa ADIM 5’e geri dön.

ADIM 9: pp+1, eğer p ≤ m ise, ADIM 4’e geri dön. Değilse dur.

Algoritmada, sağlamlık açısından kullanılan g fonksiyonunun seçiminin önem taşıdığı söylenmektedir [28]. Yapılan çalışmalara dayanarak sapan değerlere karşı (3.13)’deki gauss fonksiyonunun kullanımı önerilmektedir [29].

g(y)= yexp(−y2/ 2) (3.13)

BÖLÜM 4

YÜZ TANIMA DENEYLERĐ

PCA ve ICA algoritmaları temel alınarak yapılan yüz tanıma uygulamalarında AR [30], Yale [31], ORL (Olivetti-Oracle Research Lab) [32] veritabanları kullanıldı.

Her veritabanı için, veritabanını oluşturan görüntülerden rasgele seçimle eğitim ve test setleri oluşturuldu [33]. Bu oluşturma işlemi 10 kez tekrarlandı ve her veritabanından 10 adet yeni veritabanı elde edildi. 10 adet yeni veritabanı üzerinde yapılan yüz tanıma deney sonuçlarından test seti en yüksek tanıma oranını veren değerlerin ortalama tanıma oranları hesaplandı.

4.1 Yale Veritabanı Deneyleri

Yale, 15 farklı kişiden alınan 11 farklı görüntü ile toplamda 165 görüntüden oluşan bir veritabanıdır. Veritabanı, 15 kişiden alınmış olan merkezden aydınlanmış, sağdan aydınlanmış, soldan aydınlanmış, gözlüklü, gözlüksüz, normal, uykulu, şaşkın, mutlu, üzgün, göz kırpmış görüntülerden oluşmaktadır [34]. Deneysel hesap yükünün hafiflemesi için deneyde bu görüntülere downsampling uygulanmış ve boyutları 46×36’ya indirgenmiştir. Kişilerin gözlüksüz görüntüleri hesaplamaya dahil edilmemiştir. 15 kişinin 10 farklı görüntüsü 5’er 5’er rasgele ayrılarak eğitim seti ve test seti olarak ayrı ayrı gruplanmıştır. Eğitim setini oluşturan yüz görüntülerinin tanınması işlemi eğitim görüntüsünün kendisi dışında eğitim sınıfını oluşturan diğer görüntülerle ve diğer sınıf görüntüleri ile aralarındaki uzaklığın karşılaştırılmasıyla gerçekleştirilmiştir. Bu nedenle, eğitim seti tanıma oranları çizelgelerde de görüldüğü üzere % 100 olmamaktadır. Test seti görüntüleri ise test seti sınıflarının bütün görüntüleri ile karşılaştırılmıştır. Yale veritabanından kullanılan bazı örnek görüntüler Şekil 4.1. ‘de verilmiştir.

Şekil 4.1. Yale veritabanından bazı görüntüler

4.1.1 Yale-TBA Deneyleri

Bu şekilde yapılan gruplamalarla 10 adet veritabanı oluşturulmuştur.

Deneylerde kullanılan TBA algoritması ve önişleme teknikleri için TOMCAT toolbox [20]’tan yararlanılmıştır. Yale veritabanı eğitim ve test yüzdeleri her bir veritabanında 75 temel bileşen için hesaplanıp, her bir bileşen için 10 veritabanı tanıma oranlarının

Klasik-Ortalama Merkezileştirme 18 71,20 78,53

Klasik-Standartlaştırma 25 70,53 77,20

Klasik-Standart Normal Değişim 19 70,67 76,80

Robust-Medyan Merkezileştirme 19 70,53 78,40

Robust-Qn-Standart Normal Değişim 19 71,20 78,80 Robust-Sn-Standart Normal Değişim 25 70,80 78,67 Robust-Median Standart Normal Değişim 29 70,67 78,27

Robust-Qn-Standartlaştırma 20 71,20 78

Robust-Sn-Standartlaştırma 18 70,53 77,47

Klasik yöntemlerde en yüksek değer % 78,53 ile ortalama merkezileştirmede bulundu. Bununla birlikte robust yöntemlerden qn-standart normal değişim ve sn-standart normal değişim sırasıyla % 78,80 ve % 78,67 değerleri ile tüm klasik yöntemlerden daha yüksek sonuç verdi.

4.1.2 Yale-BBA Deneyleri

TBA’da kullanılan veritabanı yapısı ile aynı veritabanı kullanılmıştır.

Kullanılan BBA algoritması, FastICA, “deflationary fixed point algorithm” tabanlıdır [35]. Yale veritabanında, bu algoritma, doğrusal olmayan iki fonksiyon olan tanh ve gauss için ayrı ayrı uygulanmıştır. Her 2 fonksiyon için her veritabanında 75 adet bağımsız bileşen hesaplanmıştır. Deney sonuçları Çizelge 4.2.’de görülmektedir.

yöntemi % 70,40 daha iyi sonuç verdi.

4.2 AR Veritabanı Deneyleri

AR, 126 farklı kişiden alınan 26 farklı görüntü ile toplamda 3276 görüntüden oluşan bir veritabanıdır. 126 kişiden alınan, dik ve önden olan görüntülerden ilk 13’ü bir oturumda diğer 13’ü ise 14 gün sonra aynı koşullarda yapılan diğer bir oturumda

alınmıştır [34]. Deneylerde kullanılan AR veritabanında 126 kişi arasından rasgele seçilen 50 kişiden alınan 14 farklı önişleme yapılmış görüntü kullanılmıştır. Yapılan önişleme, her bir yüz görüntüsünde gözler arası uzaklığın yaklaşık olarak eşit tutulup, yüksek boyuttaki görüntülerin downsample edilmesini içerir. Görüntülerin nihai boyutu 60×45’dır. 14 görüntü 7’şer 7’şer rasgele ayrılarak eğitim seti ve test seti olarak ayrı ayrı gruplanmıştır. Bu şekilde 10 adet veritabanı oluşturulmuştur. Eğitim setini oluşturan yüz görüntülerinin tanınması işlemi eğitim görüntüsünün kendisi dışında eğitim sınıfını oluşturan diğer görüntülerle ve diğer sınıf görüntüleri ile aralarındaki uzaklığın karşılaştırılmasıyla gerçekleştirilmiştir. Test seti görüntüleri ise test seti sınıflarının bütün görüntüleri ile karşılaştırılmıştır. AR veritabanından kullanılan bazı örnek görüntüler Şekil 4.2.’de verilmiştir.

Şekil 4.2. AR veritabanından bazı görüntüler

4.2.1 AR-TBA Deneyleri

TBA deneyleri için AR veritabanı eğitim ve test yüzdeleri 10’dan 10’ar 10’ar artırılarak 350 temel bileşene kadar on veritabanı için hesaplanmıştır. Deney sonuçları Çizelge 4.3.’de görülmektedir.

Çizelge 4.3. AR-TBA Deney Sonuçları Klasik-Ortalama Merkezileştirme 350 72,86 77,11

Klasik-Standartlaştırma 330 72,97 77,17

Klasik-Standart Normal Değişim 300 79,09 83,34

Robust-Medyan Merkezileştirme 340 72,86 77,06

Robust-Qn-Standart Normal Değişim 330 72,89 77,06 Robust-Sn-Standart Normal Değişim 300 72,86 77,06 Robust-Median Standart Normal Değişim 340 73,03 77,11

Robust-Qn-Standartlaştırma 320 72,83 77,09

Robust-Sn-Standartlaştırma 320 72,97 77,14

En yüksek değer robust yöntemlerin aksine klasik standart normal değişimde bulundu. Diğer klasik yöntemler ve robust yöntemler birbirine çok yakın sonuçlar verdi.

4.3 ORL Veritabanı Deneyleri

ORL, 40 farklı kişiden alınan 10 farklı görüntü ile toplamda 400 görüntüden oluşan bir veritabanıdır. Veritabanı, 40 kişiden farklı zaman dilimlerinde farklı aydınlanma koşulları, farklı yüz ifadeleri, farklı yüz detaylarına bağlı olarak alınan görüntülerden oluşmaktadır [34]. Deneylerde kullanılan ORL veritabanında 40 farklı kişiden alınan 10 farklı görüntü kullanılmıştır. Görüntü boyutları 56×46’ya indirgenecek biçimde bir önişleme yapılmıştır. Görüntüler 5’er 5’er rasgele ayrılarak eğitim seti ve test seti olarak ayrı ayrı gruplanmıştır. Bu şekilde 10 adet veritabanı oluşturulmuştur. Eğitim setini oluşturan yüz görüntülerinin tanınması işlemi eğitim görüntüsünün kendisi dışında eğitim sınıfını oluşturan diğer görüntülerle ve diğer sınıf görüntüleri ile aralarındaki uzaklığın karşılaştırılmasıyla gerçekleştirilmiştir. Test seti

görüntüleri ise bütün test seti sınıflarının bütün görüntüleri ile karşılaştırılmıştır. ORL veritabanından kullanılan bazı görüntüler Şekil 4.3.’de verilmiştir.

Şekil 4.3. ORL veritabanından bazı görüntüler

4.3.1 ORL-TBA Deneyleri

ORL veritabanı eğitim ve test yüzdeleri 10’dan 10’ar 10’ar artırılarak 200 temel bileşene kadar 10 veritabanı için hesaplanmıştır. Veritabanı ortalamaları Çizelge 4.4.’de görülmektedir.

Çizelge 4.4. ORL-TBA Deney Sonuçları Klasik-Ortalama Merkezileştirme 190 92,35 94,15

Klasik-Standartlaştırma 200 92,35 94,15

Klasik-Standart Normal Değişim 60 91,25 93,20 Robust-Medyan Merkezileştirme 200 92,40 94,20 Robust-Qn Standart Normal Değişim 120 92,60 94,20 Robust-Sn Standart Normal Değişim 150 92,50 94,25 Robust-Median Standart Normal

Değişim

200 92,25 94,15

Robust-Qn Standartlaştırma 200 92,35 94,10

Robust-Sn Standartlaştırma 190 92,35 94,15

ORL veritabanında, klasik yöntemlerden ortalama merkezileştirme ve standartlaştırma % 94,15 ile klasik yöntemde en yüksek sonucu verirken, robust-sn standart normal değişim % 94,25 ile, robust-medyan merkezileştirme ve robust-qn standart normal değişim % 94,20 ile klasik yöntemlerin hepsiden daha iyi sonuçlar vermiştir.

4.3.2 ORL-BBA Deneyleri

Veritabanında BBA algoritması ile hem tanh hem gauss fonksiyonları kullanılarak 10 veritabanı için hesaplama yapılmıştır. Her veritabanında 10’dan 10’ar 10’ar artırarak 200’e kadar bağımsız bileşen hesaplanmıştır. Ortalamalar Çizelge 4.5.’de görülmektedir.

Çizelge 4.5. ORL-BBA Deney Sonuçları

Yöntem Bağımsız Bileşen

Sayısı

Eğitim Seti Doğru Tanıma Oranı (%)

Test Seti Doğru Tanıma Oranı (%)

G=POW 3 170 59,65 69,40

G=GAUSS 40 75 81,35

Kullanılan 2 yöntemden diğerine göre daha robust olduğu söylenen gauss yöntemi % 81,35 ile daha iyi sonuç vermiştir.

BÖLÜM 5

SONUÇ VE TARTIŞMA

TBA ve BBA yöntemlerini temel alarak yapılan deneylerde Yale, AR, ORL veritabanları kullanıldı. Önerilen TBA algoritmaları bütün veritabanlarına uygulandı.

BBA algoritması ise Yale ve ORL veritabanlarında uygulandı. BBA’da sonuç karşılaştırması için iki veritabanı yeterli olduğu için AR veritabanı kullanılmadı.

Yale veritabanında, TBA için önerilen klasik önişleme yöntemlerinin içinde en yüksek değeri ortalama-merkezileştirme yöntemi vermiştir. Robust yöntemlerin içinde bu değeri geçen qn standart normal değişim ve sn standart normal değişim önişleme yöntemleridir. Bununla birlikte, klasik yöntemler ve bu yöntemlerin robust halleri karşılaştırıldığında ortalama merkezileştirme ve bu yöntemin robust hali dışında bütün robust yöntemlerin kendi klasik hallerinden yüksek sonuçlar verdiği görüldü.

AR veritabanında, TBA için önerilen yöntemlerin içinde en yüksek değeri klasik yöntem olan standart normal değişim yöntemi verdi. Diğer klasik ve robust yöntemler deneyde klasik standart normal değişim yöntemine göre düşük sonuçlar verdi. Klasik yöntem olan standart normal değişimin dışındaki klasik ve robust yöntemlerin hepsi birbirine yakın sonuçlar verdi.

ORL veritabanında, TBA için önerilen klasik önişleme yöntemlerinin içinde en yüksek değeri ortalama merkezileştirme ve standartlaştırma yöntemleri verdi. Robust yöntemlerin içinde bu yöntemlerin sonuçlarını geçen yöntemler medyan merkezileştirme, qn standart normal değişim ve sn standart normal değişim yöntemleridir. Ayrıca qn standartlaştırma dışında bütün robust yöntemler klasik hallerinden daha iyi sonuçlar verdi.

BBA algoritmasında kullanılan doğrusal olmayan iki yaklaşımdan gauss yaklaşımı hem Yale veritabanında hem ORL veritabanında sağlamlık açısından tanh yaklaşımına göre daha iyi sonuçlar verdi. BBA algoritmasında birinci yapı olan, görüntülerin satır vektörü olarak alındığı yöntem kullanıldı.

Bütün veritabanlarından alınan sonuçlardan yola çıkarak TBA algoritmasında klasik standart normal değişim veya onun robust hallerinin diğer klasik veya robust yöntemlerden her seferde daha iyi sonuç verdiği görüldü. Bundan sonra yapılacak olan çalışmalarda, önişleme yöntemi olarak sadece standart normal değişim yönteminin klasik ve robust şekillerinin kullanılarak TBA algoritması üzerinde iyileştirmeler yapılması hedeflenmektedir. Ayrıca daha fazla sayıda görüntüye sahip veritabanlarının ve farklı sınıflandırıcıların kullanımı ile tanıma oranlarının daha yüksek çıkacağı düşünülmektedir.

BBA algoritması ile TBA algoritmaları karşılaştırıldığında BBA’da aynı veritabanlarında yapılan deneyler sonucunda TBA’dan daha düşük sonuçlar verdiği görüldü. Kullanılan görüntü özelliklerine, kullanılan BBA yapısına ve kullanılan BBA algoritmalarına bağlı olarak TBA-BBA algoritmalarının karşılaştırmaları farklı sonuçlar vermektedir. Daha önceden yapılan bazı görüntü tanıma deneyleri sonucunda [36], deneyde kullanmış olduğumuz algoritmanın 1. yapı ile kullanıldığı takdirde TBA’dan daha düşük sonuç verdiği, 2.yapı ile kullanıldığı takdirde TBA’dan daha iyi sonuçlar verdiğini biliyoruz. Bundan sonra yapılacak çalışmalarda sağlamlığını kontrol ettiğimiz iki fonksiyonu algoritmada 2.yapıyı kullanarak hem kendi içinde sağlamlık açısından hem de TBA ile yöntemler arası karşılaştırma hedeflenmektedir.

EK AÇIKLAMALAR

A-TEMEL BĐLEŞEN ANALĐZĐ DENEYLERĐ

Çizelge A.1.1.Yale için klasik-ortalama merkezileştirme önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-ORTALAMA MERKEZĐLEŞTĐRME Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.1.2. Yale için klasik-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.1.3. Yale için klasik-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.1.4. Yale için robust-medyan merkezileştirme önişleme metodu

ÖNĐŞLEME METODU: ROBUST-MEDYAN MERKEZĐLEŞTĐRME Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.1.5. Yale için robust-qn-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: ROBUST-QN-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.1.6. Yale için robust-sn-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: ROBUST-SN-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.1.7. Yale için robust-medyan standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: ROBUST-MEDYAN STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.1.8. Yale için robust-qn-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: ROBUST-QN-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.1.9. Yale için robust-sn-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: ROBUST-SN-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.1. AR için klasik-ortalama merkezileştirme önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-ORTALAMA MERKEZĐLEŞTĐRME Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.2. AR için klasik-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.3. AR için klasik-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.4. AR için robust-medyan merkezileştirme önişleme metodu

ÖNĐŞLEME METODU: ROBUST-MEDYAN MERKEZĐLEŞTĐRME Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.5. AR için robust-qn-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: ROBUST-QN-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.6. AR için robust-sn-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: ROBUST-SN-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.7. AR için robust-medyan standart normal değişim önişleme metodu

ÖNĐŞLEME METODU:ROBUST-MEDYAN STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.8 AR için robust-qn-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: ROBUST-QN-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.2.9. AR için robust-sn-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: ROBUST-SN-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.1. ORL için klasik-ortalama merkezileştirme önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-ORTALAMA MERKEZĐLEŞTĐRME Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.2. ORL için klasik-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.3. ORL için klasik-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: KLASĐK-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.4. ORL için robust-medyan merkezileştirme önişleme metodu

ÖNĐŞLEME METODU: ROBUST-MEDYAN MERKEZĐLEŞTĐRME Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.5. ORL için robust-qn-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: ROBUST-QN-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.6. ORL için robust-sn-standart normal değişim önişleme metodu

ÖNĐŞLEME METODU: ROBUST-SN-STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.7. ORL için robust-medyan standart normal değişim önişleme metodu

ÖNĐŞLEME METODU:ROBUST-MEDYAN STANDART NORMAL DEĞĐŞĐM Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.8. ORL için robust-sn-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: ROBUST-SN-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Çizelge A.3.9. ORL için robust-qn-standartlaştırma önişleme metodu

ÖNĐŞLEME METODU: ROBUST-QN-STANDARTLAŞTIRMA Veritabanı No: Temel Bileşen

Sayısı

Eğitim Seti Doğru Tanıma Oranı (%)

Test Seti Doğru Tanıma Oranı (%)

ORL1 30 90.5 95

ORL 2 150 94 93

ORL 3 140 92 93

ORL 4 70 91.5 96

ORL 5 70 91.5 95

ORL 6 90 92 95.5

ORL 7 50 90 98.5

ORL 8 40 92.5 93

ORL 9 40 96 93.5

ORL10 140 94.5 91.5

MAKSĐMUM TANIMA ORANI

190 92.35 94.15

EK AÇIKLAMALAR

B-BAĞIMSIZ BĐLEŞEN ANALĐZĐ DENEYLERĐ

Çizelge B.1.1. Yale ve g=pow 3 fonksiyonu deney sonuçları

G=POW 3 Veritabanı No: Bağımsız Bileşen

Sayısı

Çizelge B.1.2. Yale ve g=gauss fonksiyonu deney sonuçları

G=GAUSS Veritabanı No: Bağımsız Bileşen

Sayısı

Çizelge B.2.1. ORL ve g=pow 3 fonksiyonu deney sonuçları

G=POW 3 Veritabanı No: Bağımsız Bileşen

Sayısı

Çizelge B.2.2. ORL ve g=gauss fonksiyonu deney sonuçları

G=GAUSS Veritabanı No: Bağımsız Bileşen

Sayısı

KAYNAKLAR DĐZĐNĐ

[1] Duda, R.O. and Hart, P.E., 1973, Pattern classification and scene analysis, John Wiley and Sons Inc., 482 p.

[2] Bishop, C.M., 1995, Neural networks for pattern recognition, Clarendon Press,

Oxford, 504 p.

[3] Konak, E. S., 2006, Bilgisayar destekli yüz tanıma sistemi tasarımı, Yüksek

Lisans tezi, Đstanbul Üniversitesi Fen Bilimleri Enstitüsü, 58 s.

[4] http://tr.wikipedia.org/wiki/FAce_Recognition

[5] Zhao, W., Chellappa, R., Phillips, P. J. and Rosenfeld, A., 2003, Face

recognition: A literature survey, ACM Computing. Surveys., 35, 4, 399–458.

[6] Chellappa, R., Wilson, C. L. And Sirohey, S.,1995, Human and machine recognition of faces: A survey, Proceedings of IEEE, 83, 5, 705–741.

[7] Jain A. K., Ross A. and Prabhakar S., 2004, An introduction to biometric recognition, IEEE Transactions on Circuits and Systems for Video Technology, 14, 1, 4–20.

[8] Salah A. A., 2005, Đnsan ve bilgisayarda yüz tanıma, Bilgi Đşleyen Makine Olarak Beyin Sempozyumu-3, Albert Long Hall, Boğaziçi Üniversitesi

[9] http://www.internetdergisi.com/index.php?Part=Article&id=56

[10] Sütçüler E., 2006, Gerçek zamanlı video görüntülerinden yüz bulma ve tanıma

sistemi, Yüksek Lisans tezi, Yıldız Teknik Üniversitesi Fen Bilimleri Enstitüsü,90 s.

[11] http://www.face-rec.org/algorithms/

[12] Durucasu, H.,1991, Asal bileşen analizi ve bir uygulama denemesi, Yüksek Lisans tezi, Anadolu Üniversitesi Fen Bilimleri Enstitüsü, 89 s.

[13] Yaycılı, A. Ö., 2006, Temel bileşenler analizi için robust algoritmaları, Yüksek Lisans tezi, Gazi Üniversitesi Fen Bilimleri Enstitüsü, 56 s.

[14] Filiz Z., 2003, Güvenilirlik çözümlemesi, temel bileşenler ve faktör

çözümlemesi, Anadolu Üniversitesi Bilim ve Teknoloji Dergisi, 4, 2, 211-222.

[15] Çilli, M., 2007, Đnsan hareketlerinin modellenmesi ve benzeşiminde Temel Bileşenler Analizi yönteminin kullanılması, Doktora tezi, Hacettepe Üniversitesi Sağlık Bilimleri Enstitüsü, 240 s.

[16] Turk, M. A. and Pentland A. P., 1991, Face recognition using eigenfaces, computer vision and pattern recognition, IEEE Computer Society Conference, 586-591.

[17] Alpar, R., 2003, Uygulamalı çok değişkenli istatiksel yöntemlere giriş 1, Nobel Yayın Dağıtım/Teknik Dizisi, 410 s.

[18] Stanimirova, I., Daszykowski, M. and Walczak, B., 2007, Dealing with values and outliers in Principal Component Analysis, Talanta, 72, 1, 172-178.

[19] Daszykowski, M., Kaczmarek, K., Heyden, Y. V. And Walczak, B., 2007,

Robust statistics in data analysis- A review basic concepts, Chemometrics and Intelligent Laboratory Systems, 85, 2, 203-219.

[20] Daszykowski, M., Serneels, S., Kaczmarek, K., Espen, P. V., Croux, C. and Walczak, B., 2007, TOMCAT: A MATLAB toolbox for multivariate calibration techniques, Chemometrics and Intelligent Laboratory Systems, 85, 2, 269-277.

[21] Yaman, B., 2006, Öz yüz kullanılarak yüz tanıma, Yüksek lisans tezi, Skarya Üniversitesi Fen Bilimleri Enstitüsü, 109 s.

[22] Bartlett, M. S., Movellan, J. R. And Sejnowski, T. J., 2002, Face recognition by Independent Component Analysis, IEEE transacitons on neural Networks,13, 6, 1450-1464.

[23] Koçyiğit, Y. ve Korürek, M., 2005, EMG işaretlerini dalgacık dönüşümü ve bulanık mantık sınıflayıcı kullanarak sınıflama, ĐTÜ dergisi - Mühendislik Serisi, 4, 3, 25-31

[24] Hyvarinen, A.,1999, Survey on Independent Component Analysis, Neural Computation Surveys, 2, 94-128.

[25] Hyvarinen, A. and Oja, E.,2000, Independent component analysis: algorithms and applications, Neural Networks, 13, 411-430.

[26] Hyvarinen, A., Karhunen, J. and Oja, Erkki, 2001, Independent Component Analysis, John Wiley and Sons Inc., 481p.

[27] Sezer, O. G.,2003, Superresolution techniques for face recognition from video,

M. S. thesis, Boğaziçi University, 49 p.

[28] Gadhok, N. and Kinsner, W, 2004,A study of outliers for robust independent

[28] Gadhok, N. and Kinsner, W, 2004,A study of outliers for robust independent

Benzer Belgeler