• Sonuç bulunamadı

Sıkıştırılmış raster görüntülerin fotogrametrik otomasyonda kalite ve doğruluk üzerindeki etkilerinin araştırılması

N/A
N/A
Protected

Academic year: 2021

Share "Sıkıştırılmış raster görüntülerin fotogrametrik otomasyonda kalite ve doğruluk üzerindeki etkilerinin araştırılması"

Copied!
111
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

T.C.

SELÇUK ÜNĠVERSĠTESĠ FEN BĠLĠMLERĠ ENSTĠTÜSÜ

SIKIġTIRILMIġ RASTER GÖRÜNTÜLERĠN FOTOGRAMETRĠK OTOMASYONDA KALĠTE VE DOĞRULUK ÜZERĠNDEKĠ

ETKĠLERĠNĠN ARAġTIRILMASI Ekrem UÇAR

DOKTORA TEZĠ

Harita Mühendisliği Anabilim Dalı

Nisan-2011 KONYA Her Hakkı Saklıdır

(2)
(3)

TEZ BĠLDĠRĠMĠ

Bu tezdeki bütün bilgilerin etik davranış ve akademik kurallar çerçevesinde elde edildiğini ve tez yazım kurallarına uygun olarak hazırlanan bu çalışmada bana ait olmayan her türlü ifade ve bilginin kaynağına eksiksiz atıf yapıldığını bildiririm.

DECLARATION PAGE

I hereby declare that all information in this document has been obtained and presented in accordance with academic rules and ethical conduct. I also declare that, as required by these rules and conduct, I have fully cited and referenced all material and results that are not original to this work.

İmza

Ekrem UÇAR Tarih:

(4)

iv ÖZET

DOKTORA TEZĠ

SIKIġTIRILMIġ RASTER GÖRÜNTÜLERĠN FOTOGRAMETRĠK OTOMASYONDA KALĠTE VE DOĞRULUK ÜZERĠNDEKĠ ETKĠLERĠNĠN

ARAġTIRILMASI

Ekrem UÇAR

Selçuk Üniversitesi Fen Bilimleri Enstitüsü Harita Mühendisliği Anabilim Dalı DanıĢman: Prof.Dr. Ferruh YILDIZ

2011, 101 Sayfa Jüri

Prof.Dr. Ferruh YILDIZ Prof.Dr. F.Gönül TOZ Doç.Dr. Hakan KARABÖRK

Doç.Dr. Murat YAKAR Y.Doç.Dr. Engin KOCAMAN

Sıkıştırılmış veriler veri depolama ve iletimi aşamasında sıklıkla kullanılmaktadır. Fazla sayıda görüntü kullanımını gerektiren fotogrametrik çalışmalarda kullanılan sıkıştırılmış görüntülerin, çalışmada elde edilcek doğruluğu ve görüntü kalitesini ne şekilde etkilediğinin belirlenmesi önem arzetmektedir. Bu çalışmada sayısal hava kamerası ile 1:20.000 ve 1:65.000 ölçekli, analog hava kamerası ile 1:26.000 ölçeğinde elde edimiş hava fotoğraflarının kullanılması ile fotogrametrik blok oluşturulmuştur. Mevcut görüntüler, JPEG2000 ve MrSID görüntü formatlarına 10:1, 20:1, 40:1 ve 80:1 sıkıştırma oranları kullanılarak sıkıştırılmıştır. Her blok için orijinal ve sıkıştırılmış görüntüler kullanılarak fotogrametrik triangülasyon işlemi gerçekleştirilmiştir. Fotogrametrik triangülasyon sonrası oluşturulan stereo modeler üzerinden belirlenen kontrol noktalarının üç boyutlu koordinat ölçmeleri tamamlanmıştır. Radyometrik bozulma miktarlarının tespit edilebilmesi amacıyla orijinal görüntüler ile sıkıştırılmış görüntüler arasındaki fark değerleri hesaplanmıştır. Bu değerler kullanılarak karesel ortalama hata, ortalama hata ve pik sinyal gürültü oranı değerleri elde edilmiştir. Genel olarak bakıldığında, aynı sıkıştırma oranında JPEG2000 görüntülerinin, MrSID görüntülerinden daha iyi geometrik ve radyometrik sonuçlar sağladığı belirlenmiştir.

Anahtar Kelimeler: Görüntü Sıkıştırma, Kayıpsız ve Kayıplı Sıkıştırma Teknikleri, Görüntü Sıkıştırmada Geometrik ve Radyometrik Doğruluk, JPEG2000 ve MrSID.

(5)

v ABSTRACT Ph.D THESIS

EVALUATION OF QUALITY AND ACCURACY EFFECTS OF COMPRESSED RASTER IMAGES IN AUTOMATED PHOTOGRAMMETRY

Ekrem UÇAR

THE GRADUATE SCHOOL OF NATURAL AND APPLIED SCIENCE OF SELÇUK UNIVERSITY

THE DEGREE OF DOCTOR OF PHILOSOPHY IN MAP ENGINEERING

Advisor: Prof.Dr. Ferruh YILDIZ 2011, 101 Pages

Jury

Prof.Dr. Ferruh YILDIZ Prof.Dr. F.Gönül TOZ Doç.Dr. Hakan KARABÖRK

Doç.Dr. Murat YAKAR Y.Doç.Dr. Engin KOCAMAN

Compressed data commonly used in data storage and transmission stage. It is very important to identify that how compressed images affect the image quality and accuracy in the photogrammetric applications in which lots of images must be handled. In this study photogrammetric blocks were prepared from 1:20.000 and 1:65.000 scaled digital aerial cameras and 1:26.000 scaled analogue aerial camera images. Images compressed into both JPEG2000 and MrSID image formats by 10:1, 20:1, 40:1 and 80:1 compression ratios. For each block photogrammetric triangulation process was done with original and compressed images. After triangulation process 3D coordinates of pre-defined check points measured in stereo models. In order to calculate the radiometric distortion, the difference of the pixel values were calculated from the original and the compressed images. By using difference values mean error, mean square error and peak-signal-to-noise ratio values were calculated. In generally, for the same compression ratio JPEG2000 compressed images give better results than MrSID compressed images both in geometric and radiometric aspects.

Keywords: Image Compression, Lossless and Lossy Compression Techniques, Geometric and Radiometric Accuracy on Image Compression, JPEG2000 and MrSID.

(6)

vi ÖNSÖZ

Sıkıştırılmış görüntülerin fotogrametrik üretimdeki otomatik işlemler üzerindeki görüntü kalitesi, geometrik ve radyometrik doğruluk üzerindeki etkilerinin araştırılarak, kullanıcılara en uygun sıkıştırma format ve oranlarının sunulmaya çalışıldığı tez çalışmasında, danışmanlığımı üstlenerek, her aşamada engin bilgi, ulusal ve uluslararası deneyimleriyle beni yönlendiren, desteğini hiçbir zaman esirgemeyen sayın hocam Prof.Dr. Ferruh YILDIZ’a gönülden teşekkür ederim.

Tez çalışmasını değerli bilgileri ile yönlendirmeleri nedeniyle, Tez İzleme Komitesindeki sayın hocalarım Prof.Dr. Gönül TOZ (İstanbul Teknik Üniversitesi) ve Yrd.Doç.Dr. Engin KOCAMAN’a; bu seviyeye gelmemde çok büyük katkısı olan, çalışmamda kullanılan veri, yazılım ve donanımı sağlaması nedeniyle Harita Genel Komutanlığı’na ve personeline; çalışmalarım esnasında sebat göstermeleri nedeniyle, eşim Zeliha, kızım Simge ve oğlum Anıl’a en derin şükranlarımı sunarım.

Tez çalışmamda belirtilen teorik esasları, çalışma aşamalarını ve elde ettiğim sonuçları, fotogrametrik harita üretimi uygulamalarında kullanmasını arzuladığım bütün kullanıcılara ithaf ediyorum.

Ekrem UÇAR KONYA-2011

(7)

vii ĠÇĠNDEKĠLER ÖZET ... iv ABSTRACT ... v ÖNSÖZ ... vi ĠÇĠNDEKĠLER ... vii SĠMGELER VE KISALTMALAR ... ix 1. GĠRĠġ ... 1 2. KAYNAK ARAġTIRMASI ... 4

2.1. Sıkıştırma Yöntemlerinin Karşılaştırılması Konusunda Yapılan Çalışmalar ... 5

2.2. Sıkıştırılmış Görüntüler ile Yapılan Fotogrametrik Uygulama Çalışmaları ... 8

3. TEORĠK ESASLAR ... 13

3.1. Kayıpsız Sıkıştırma ... 14

3.2. Kayıplı Sıkıştırma ... 16

3.3. Sıkıştırma Algoritmaları ... 16

3.3.1. Kayıpsız sıkıştırma algoritmaları ... 17

3.3.2. Kayıplı sıkıştırma algoritmaları ... 28

3.3.3. Niceleme (Quantization) ... 34

3.3.4. Örnek sıkıştırma algoritmaları uygulamaları ... 35

3.4. Görüntü Formatları ... 36

3.4.1. TIFF (Tagged Image File Format) ... 37

3.4.2. JPEG2000 ... 38

3.4.3. MrSID (Multiresolution Seamless Image Database) ... 40

3.4.4. JPEG ... 41

3.4.5. ECW ... 45

3.4.6. GIF (Graphics Interchange Format) ... 46

3.4.7. PNG (Portable Network Graphics) ... 46

3.4.8. BMP (Windows BitMap) ... 47

3.5. Sıkıştırmadaki Performans Kriterleri ... 48

3.6. Sıkıştırmadaki Distorsiyon Kriterleri ... 49

3.7. Modelleme ve Kodlama ... 53

3.8. Görüntü Eşleme ... 54

4. ARAġTIRMA SONUÇLARI VE TARTIġMA ... 56

4.1. Çalışma Bölgesi ve Kullanılan Veriler ... 56

4.2. Çalışmada Kullanılan Sistemler ... 61

4.2.1. Zeiss RMK TOP 15 analog hava kamerası ve Vexcel UltraCamX sayısal hava kamerası ... 61

4.2.2. Match-AT fotogrametrik triangülasyon yazılımı ... 63

(8)

viii

4.3. Fotogrametrik Triangülasyon ... 65

4.4. Doğruluk ve Kalite Üzerindeki Etkiler ... 71

4.4.1. Geometrik bozulmalar ... 71 4.4.2. Radyometrik bozulmalar ... 76 4.5. Tartışma ... 88 5. SONUÇLAR VE ÖNERĠLER ... 90 KAYNAKLAR ... 95 ÖZGEÇMĠġ ... 100

(9)

ix

SĠMGELER VE KISALTMALAR

Kısaltmalar

AAC : Advanced Audio Coding; Geliştirilmiş Ses Kodlama ASCII : American Standard Code For Information Interchange BMP : Windows BitMap Dosya Formatı

BWT : Burrows-Wheeler Transform; Burrows-Wheeler dönüşümü

CALIC : Context-based Adaptive Lossless Image Coding; Kaynak Tabanlı Uyarlanabilir Kayıpsız Görüntü Kodlama

CBS : Coğrafi Bilgi Sistemleri CMYK : Cyan-Magenta-Yellow-Black

DCT : Discrete Cosine Transform; Ayrık Kosinüs Dönüşümü DEM : Digital Elevation Model; Sayısal Yükseklik Modeli

DMC : Dynamic Markov Compression; Dynamic Markov Sıkıştırması DPMC : Diferential Pulse-Code Modulation; Diferansiyel Darbe Kod

Modülasyonu

DSC : Distributed Source Coding; Dağıtılmış Kaynak Kodlaması DWT : Discrete Wavelet Transform; Ayrık Dalgacık Dönüşümü

ECW : Enhanced Compression Wavelet; Geliştirilmiş Dalgacık Sıkıştırma GIF : Graphics Interchange Format; Grafik Değişim Formatı

GPS : Global Positioning System; Küresel Konumlama Sistemi

GZIP : UNIX Compressed File Archieve; UNIX Sıkıştırılmış Dosya Arşivi HPC : Hierarchical Predictive Coding, Hiyerarşik Tahmin Kodlaması IMU : Inertial Measurement Unit; Ataletsel (İnersiyal) Ölçüm Ünitesi INS : Inertial Navigation System; Ataletsel (İnersiyal) Navigasyon Sistemi JPEG : Joint Photographic Experts Group; Birleşik Fotoğrafik Uzmanlar Grubu KOH : Karesel Ortalama Hata

LOCO-I : LOw COmplexity LOssless COmpression for Images; Görüntüler için Az Karışık Kayıpsız Sıkıştırma

LPC : Linear Predictive Coding; Doğrusal Tahmin Kodlaması LZ77,

LZ78

: Lempel-Ziv 1977, Lempel-Ziv 1978 LZW : Lempel-Ziv-Welch

MNG : Multiple-image Network Graphics; Çoklu Görüntü Ağ Grafiği

MP3 : Moving Picture Experts Group Layer-3 Audio Format/Extension; Hareketli Resim Uzmanlar Grubu 3’üncü Katman Ses Formatı/Uzantısı MPEG : Moving Picture Experts Group; Hareketli Resim Uzmanlar Grubu MrSID : Multiresolution Seamless Image Database; Çoklu Çözünürlüklü

Kesintisiz Görüntü Veritabanı NIR : Near InfraRed; Yakın Kızılötesi

(10)

x

PCX : Personel Computer eXchange; Kişisel Bilgisayar Değişim Formatı PNG : Portable Network Graphics; Taşınabilir Ağ Grafiği

PPM : Prediction by Partian Matching; Kısmi Eşleme Kestirimi PQS : Picture Quality Scale; Resim Kalite Ölçeği

PSNR : Peak Signal to Noise Ratio; Pik Sinyal Gürültü Oranı RAM : Random Access Memory; Rasgele Erişimli Hafıza RGB : Red-Green-Blue; Kırmızı-Yeşil-Mavi

RMSE : Root Mean Square Error; Karesel Ortalama Hata SAR : Syntetic Aparture Radar; Sentetik Açıklıklı Radar SDK : Software Development Kit; Yazılım Geliştirme Modülü

SPIHT : Set Partitioning in Hierarchical Trees; Hiyerarşik Ağaç Yapısına Katılım Kümesi

SRTM : Shuttle Radar Topography Mission; Uzay Mekiği Radar Topoğrafya Görevi

SYM : Sayısal Yükseklik Modeli

TIFF : Tag Image File Format; Etiket Resim Dosya Formatı WMA : Windows Media Audio; Windows Medya Ses Formatı WZC : Wyner-Ziv Coding; Wyner-Ziv Kodlama

YKN : Yer Kontrol Noktası

(11)

1. GĠRĠġ

İnsan hayatında veri kelimesinin kullanılması ile birlikte, verilerin bir ortamdan başka bir ortama iletilmesi ve bu verilerin depolanması en büyük problemlerden biri haline gelmiştir. Verilerin iletim ve depolanma problemi veri sıkıştırma yöntemleri kullanılarak giderilmeye çalışılmaktadır. Veri sıkıştırmaya ilk örnek 19’uncu yüzyıl ortalarında Samuel Morse tarafından geliştirilen mors alfabesidir. Bu alfabede kullanılan harfler noktalar (∙) ve çizgilerden (-) oluşacak şekilde kodlanmakta ve telgraf tarafından gönderilmektedir. Morse, dilde kullanılan bazı harflerin diğerlerine göre daha sıklıkla kullanıldığını farketmiştir. Bir mesajın gönderilmesi için gerekli olan ortalama zamanı azaltmak için, e (∙) ve a (∙-) gibi sıklıkla kullanılan harfleri kısa kod dizileri ile, q (--∙-) ve j (∙---) gibi daha az kullanılan harfleri uzun kod dizileri ile kodlamaktadır. Sıklıkla kullanılan karakterlerin kısa kod dizileri ile kodlanması konsepti 3’üncü Bölümde bahsedilecek olan Huffman Kodlamanın temellerini oluşturmaktadır. Mors kodlaması harflerin bireysel olarak tekrarlanma sıklığını kullanmasına rağmen, benzer şekilde yine 19’uncu yüzyılın ortalarında geliştirilen ve yaygın olarak kullanılan Braille Kodlaması sıkıştırmayı sağlayacak şekilde kelimelerin tekrarlanma sıklığını kullanmaktadır. 2 x 3 boyutundaki diziler içerisinde yer alan noktalar kullanılarak, her 6 noktadan oluşturulan bir dizi ile tek bir karakteri temsil eden harfler kodlanmış, geriye kalan nokta kombinasyonları ise ingilizcede sıklıkla kullanılan kelimeler ile eşleştirilmiştir. Veri sıkıştırmanın temellerini ve konseptini oluşturacak olan bu düzenleme ile ortalama %20 oranında yer tasarrufu sağlanmıştır.

Bilgisayar teknolojisinin günlük yaşantımızın bir parçası haline gelmesi sonucunda sıkıştırma yöntemleri ve formatlarının kullanılması kaçınılmaz olmuştur. Sürekli olarak kullandığımız ve çoğu zaman farkında olmadığımız veriler, aslında sıkıştırılmış veri kümeleridir. Görüntü, ses ve video verileri sıkıştırmanın sıklıkla kullanıldığı veri kaynaklarıdır. En fazla kullanılan formatlar arasında zip, rar, jpeg, mpeg, mp3, mp4 formatları gösterilebilir. Örneğin sıkıştırma olmaksızın 1 saniyelik bir video görüntüsünün 20 megabyte’dan daha fazla bir alan kaplamaktadır. Bu durumda 1 saatlik bir video yaklaşık olarak 70 gigabyte’dan fazla bir alan kapsayacaktır ki, böyle bir verinin internet ortamından veya bir kaynaktan diğerine aktarımındaki iletim problemlerini ve benzer şekilde bu verinin depolanma problemlerini çoğu zaman düşünmek bile istemeyiz. Sıkıştırma teknikleri sayesinde, aynı veriyi veya yaklaşık olarak aynı veriyi daha küçük boyutlarda elde etme imkânı kazanılmıştır. 70

(12)

gigabyte’lık bir veri, kullanılan sıkıştırma teknikleri ile 50 megabyte boyutuna veya 500 megabyte boyutlarına indirilebilmektedir. Veri sıkıştırma, sabit disk alanı veya veri transferi bant genişliği gibi pahalı olan kaynakların tüketimini azaltmakta yardımcı olduğu için bir çok alanda kullanılmaktadır. Özellikle internet ortamında veriyi iletmek için kullandığımız bazı sıkıştırma programlarının binary yapıdaki yazı dosyalarını çok küçük boyutlara indirdiği, ancak aynı programların yine binary yapısında olan resim dosyalarını sıkıştırmada etkin bir sonuç elde edemediği hepimiz tarafından bilinmektedir. Bir veri kümesinde hangi sıkıştırma yönteminin kullanılacağı verinin karakteristik özellikleri ile doğrudan ilişkilidir. Sıkıştırılacak verinin yapısı kullanılacak teknik ve yazılımın seçilmesinde büyük rol oynar. Benzer şekilde veriyi kullanacak olan insanın algılama özellikleri de veri sıkıştırma yönteminin belirlenmesinde önemli rol oynamaktadır. Örneğin insan gözünün bir saniyede algıladığı çerçeve sayısının alt sınırı video görüntülerin sıkıştırılmasında, insan kulağının sesi algılayabilmesindeki frekans aralığı da ses verilerinin sıkıştırılmasında belirleyici faktörler olarak kullanılmaktadır.

Analog ve analitik fotogrametrik sistemler, bilgisayar teknolojisindeki gelişmelere paralel olarak yerini dijital fotogrametrik sistemlere bırakmıştır. Fotogrametrik işlemlerin tamamı, yaşanan süreç içerisinde bilgisayar sistemlerinde uygulanmaya başlamıştır. Fotogrametrik üretim zincirinin temelini oluşturan görüntülerin işlenmesi ve depolanması aşamalarında, görüntü sıkıştırma yoğun bir şekilde fotogrametrik uygulamalarda kullanılmaya başlanmıştır. Analog hava kameraları kullanılarak elde edilen fotoğraflar belirli bir çözünürlükte taranmak suretiyle sayısallaştırılmakta, elde edilen sayısal görüntüler kullanıcı operatörlerin gerçekleştirdiği ölçme işlemleri sonrasında, uygulamalar için kullanıma hazır hale getirilmektedir. Orta ve büyük hacimli projelerde operatörler tarafından gerçekleştirilen ölçüm işlemleri uzun zaman almaktadır. Sayısal görüntüler üzerinde eşleme tekniklerinin geliştirilmesi ile birlikte, uzun zaman gerektiren operatör ölçüm işlemleri azaltılmaya çalışılmış, bununla birlikte büyük hacim gerektiren görüntülerin tamamının kullanılabilmesi gerekliliği ortaya çıkmıştır. Fotogrametrik otomasyon olarak adlandırdığımız bu aşamada, blok içerisinde yer alan görüntülerin tamamının kullanılabilmesi, raster görüntü sıkıştırma ile olanaklı hale gelmiştir. Görüntü kalitesi ile doğrudan bağlantılı olan görüntü eşleme (image matching) yöntemleri otomasyon işlemlerini oldukça arttırmıştır. Kullanılan sıkıştırma yöntemi ve oranı, elde edilecek olan doğruluk ve hassasiyeti doğrudan etkileyecek olması nedeni ile, gerçekleştirilecek fotogrametrik uygulamaya yönelik çözümlerin belirlenmesi önemlidir. Fotogrametrik

(13)

işlem adımlarından olan iç yöneltmede, fotogrametrik triangülasyondaki bağlama noktalarının ölçülmesinde ve dengelenmiş görüntüler üzerinden sayısal yükseklik verilerinin toplanmasında, görüntü eşleme yöntemleri kullanılarak kullanıcı kontrollü tam veya yarı otomasyona geçilmiştir. Bu konuda gerçekleştirilen çalışmalar genellikle bu otomasyon aşamalarında sıkıştırma yöntemlerinin kullanılarak elde edilen sonuçların irdelenmesi veya farklı sıkıştırma tekniklerinin karşılaştırılması şeklinde olmuştur. Kullanılan sıkıştırma yöntem ve oranlarının, özellikle otomatize işlemlerde olmak üzere, ardışık olarak yapılan işlemlerin tamamında ne şekilde sonuç vereceği konusu bu çalışmada ortaya konacaktır.

İkinci bölümde; kayıplı veya kayıpsız sıkıştırma yöntemleri kullanılarak özellikle görüntü sıkıştırma ile gerçekleştirilen, sıkıştırma yöntem ve algoritmalarının karşılaştırılması, sıkıştırma oranlarının karşılaştırılması, fotogrametrik uygulamalarda sıkıştırılmış görüntülerin kullanılması gibi, daha önceki çalışmalara ait kaynak araştırması gerçekleştirilecek ve elde edilen sonuçlar incelenerek yapılacak çalışmanın yönlendirmesinde kullanılacaktır.

Üçüncü bölümde; veri sıkıştırmanın anlamı, sıkıştırma yöntemlerinin sınıflandırılması, veri sıkıştırma algoritmaları, görüntü formatları, modelleme ve kodlama kavramları, sıkıştırmadaki doğruluk, performans ve kalite ölçütleri, görüntü eşleme yöntemleri gibi veri sıkıştırma ile ilgili temel kavramlar ele alınacaktır. Özellikle uygulamada kullanılacak algoritma ve görüntü formatları detaylandırılacaktır.

Dördüncü bölümde; çalışma bölgesinin ve kullanılan verilerin tanıtılması, çalışmada kullanılan yazılım ve programlar, kullanılan fotogrametrik bloklar ile gerçekleştirilen işlemler, elde edilen doğruluk ve kalite ile ilgili sonuçlar ve istatistiki bilgilere yer verilecek ve elde edilen neticeler tartışılacaktır.

Beşinci bölümde ise çalışmada gerçekleştirilen uygulamalar sonrasında elde edilen sonuçlar değerlendirilerek, fotogrametrik üretim gerçekleştiren orta ve büyük hacimli bütün potansiyel kullanıcılar için, üretim projelerinde kullanıma en uygun sıkıştırma teknik ve oranları belirlenerek, önerilerde bulunulacaktır.

(14)

2. KAYNAK ARAġTIRMASI

Yapılan inceleme sonrasında literatürde bulunan mevcut yayınların; veri sıkıştırmanın temelleri ve sınıflandırılması, veri sıkıştırma algoritmalarının matematiksel yapısı ve kullanılan yöntemler üzerinde olduğu gözlenmiştir. Gerçekleştirilen uygulama çalışmalarının büyük bir bölümünün sıkıştırma yöntemlerinin veya oranlarının karşılaştırılması şeklinde olduğu görülmüştür. Diğer çalışmaların ise görüntü sıkıştırması ile elde edilen verilerden yararlanılarak oluşturulan üç boyutlu görüntülerden, otomatik eşleme ile bulunan sayısal yükseklik verileri üzerindeki doğruluğun araştırılması şeklindedir. Lam ve ark. (2001) tarafından sıkıştırılmış görüntülerin SYM doğruluğunu önemli derecede etkilediği, görüntü üzerinde yapı zenginliği fazla ise, görüntü sıkıştırma neticesinde bu yapı zenginliğinin azalmakta olduğu ve bunun neticesinde sıkıştırılmış görüntüler üzerinde toplanan sayısal yükseklik verilerinin doğruluğunu önemli derecede etkilediği bildirilmiştir.

Raad (1996) tarafından görüntü sıkıştırma işleminin, görüntünün sayısallaştırılması (taranması) işleminden hemen sonra başladığı ve sıkıştırmada elde edilen görüntü kalitesinin fotogrametrik projenin tamamında etkisini gösterdiği belirtilerek, işlemler sonrasında elde edilen ürünlere ait doğruluk değerlerinin sıkıştırma işlemiyle ilişkili olduğu bildirilmiştir.

Görüntü kullanımı ile ilgili olarak kullanıcıların bütün ihtiyaçlarını karşılayacak bir yöntem belirlemek hemen hemen imkansızdır. Yapılan bütün çalışmalar ihtiyaçları en optimum seviyede karşılayacak yöntemlerin belirlenebilmesi üzerine dayanmaktadır. Uygulamada kullanıcılar, kayıpsız sıkıştırmadaki gibi doğruluk ile hassasiyetten taviz vermeyen ve görüntü kalitesi çok iyi olan, kayıplı sıkıştırmadaki gibi fazla sıkıştırma oranı uygulanmış ve sabit diskler üzerinde fazla yer kaplamayan görüntüler ile çalışmayı tercih ederler. Said ve Pearlman (1993) kullanıcı ihtiyaçlarını karşılamaya yönelik en uygun kodlama yöntemini belirlemek için bir çalışma gerçekleştirmiştir. Aşamalı-uygunluk ve aşamalı-çözünürlük olmak üzere, aşamalı yeniden oluşturma için iki algoritma önerilmiştir. Soyadlarının baş harflerini kullanarak S+P dönüşümü olarak adlandırdıkları bu yeni çoklu çözünürlüklü dönüşüm küçük bir hesap yükü ile başarılı sonuçlar vermiştir. Burada elde edilen sonuç literatürde yer alan en uygun sıkıştırma oranını elde etmiştir. İlk olarak tek boyutlu dönüşüm ile görüntünün çoklu çözünürlüklü piramidleri oluşturulmuş, sonrasında kestirim katsayıları bulunmuş, entropi kodlama uygulanarak aşamalı-uygunluk dönüşümü yapılmıştır.

(15)

Halen görüntülerin karşılaştırılmasında kullanılmakta olan pik sinyal gürültü oranı ile karesel ortalama hata ölçütleri evrensel olarak kabul görmektedir. Wang ve Bovik (2002) tarafından, insan görsel sistemi dahil her türlü karşılaştırma ölçütünü bünyesinde barındıran yeni bir görüntü kalite ölçütü ortaya sürülmektedir. Bu kalite ölçütü görüntüdeki herhangi bir distorsiyonu üç farklı faktörün bileşkesi olarak ele almaktadır: korelasyon eksikliği, aydınlatma bozulması ve kontrastlık bozulması. Çalışmalar neticesinde elde edilen sonuçların tek bir formülasyonla yapılabilmesi neticesinde tatmin edici ve başarılı olduğu, ancak bu yeni ölçütün gelecekte daha geniş çaptaki deneylerle desteklenmesi şeklinde olduğu belirtilmiştir.

2.1. SıkıĢtırma Yöntemlerinin KarĢılaĢtırılması Konusunda Yapılan ÇalıĢmalar

Standard JPEG algoritması ve hiyerarşik kestirim kodlaması (Hierarchical Predictive Coding, HPC) kullanılarak üç farklı görüntü üzerinde sıkıştırma testleri gerçekleştirilmiştir. Geometrik kalite, sıkıştırma oranları ve hızları ile bilgi kayıpları yönünden elde edilen sonuçlar karşılaştırılmıştır. HPC tekniğinin daha hızlı olduğu ve daha iyi geometrik ve radyometrik görüntü kalitesi değerleri elde ettiği tesbit edilmiş, bunun yanında JPEG tekniğinin daha yüksek oranlarda sıkıştırma yapabildiği görülmüştür. Büyük sıkıştırma oranlarının görüntüde dikkate değer bozulmalara sebebiyet vermesi nedeniyle, hava fotoğraflarının sıkıştırılmasında kullanılmaması önerilmektedir. Elde edilen geometrik distorsiyon değerleri Çizelge 2.1’de gösterilmektedir (Novak ve Shahin, 1996).

Çizelge 2.1. JPEG ve HPC algoritmalarının geometrik karşılaştırma sonuçları

Sıkıştırma

Oranları JPEG-75 JPEG-40 JPEG-5 HPC-8.5.3.1 HPC-8.3.3.1

maksimum x 0.292 2.654 17.036 0.308 1.303

maksimum x 0.353 0.815 12.972 0.671 2.075

rms (x) 0.038 0.107 0.786 0.036 0.056

rms (y) 0.042 0.102 0.807 0.031 0.070

(Sonuçlar piksel olarak verilmektedir.)

Dalgacık sıkıştırma algoritmasını geliştirmeye yönelik Martin ve Bell (2001) tarafından çoklu dalgacık adı verilen bir çalışma gerçekleştirilmiştir. Görüntü sıkıştırmada sıklıkla kullanılan dalgacık dönüşümünde, bir ölçekleme fonksiyonu bir de

(16)

dalgacık fonksiyonu kullanılmaktadır. Bu çalışmada iki veya daha fazla ölçekleme fonksiyonu ile dalgacık fonksiyonu kullanılarak çoklu dalgacıklar oluşturulmuştur. Öncelikle görüntü iteratif ayrıştırma yöntemi ile alt bloklara ayrılmış, sonrasında Said ve Pearlman (1993) tarafından geliştirilen ve SPIHT adı verilen niceleme yöntemi ile görüntüler sadeleştirilmiş ve çoklu dalgacık fonksiyonları kullanılarak kodlama işlemi yapılmıştır. Çalışmada çeşitli görüntüler kullanılmış, yöntemin uygulamada getirdiği ilave hesap yükünün yanında o zamana kadar dalgacık sıkıştırmayla elde edilen sonuçlara oranla, özellikle doğal görüntülerde kullanılan filtreleme yönteminin ve ölçeksel dalgacıkların çok iyi sonuçlar verdiği bulunmuştur.

Kayıpsız görüntü sıkıştırma yöntemlerinin karşılaştırılmasına yönelik bir çalışma Mesut ve Carus (2005) tarafından gerçekleştirilmiştir. Karşılaştırmada 1, 4, 8 ve 16 bit renk derinliklerine sahip küçük boyutlu 16 adet görüntü dosyası kullanılmıştır. Çalışma sonucunda sadece elde edilen sıkıştırma oranları birbirleri ile karşılaştırılmıştır. Çalışmada kullanılan fotoğraflar, programlar ve elde edilen sonuçlar fotogrametrik uygulamalara yönelik değildir, ancak görüntü formatlarının başka amaçlar için sıkıştırma testlerinin uygulanması yönüyle bu bölüm içerisinde bahsedilmiştir.

Avcıbaş ve ark. (2002) tarafından yaklaşık kayıpsız bir görüntü sıkıştırma algoritması ile ilgili olarak 8 farklı görüntü üzerinde test çalışması yapılmış ve elde edilen sonuçların SPIHT ve CALIC yöntemleri ile elde edilenlerden daha iyi kayıpsız performans sağladığı bildirilmektedir.

Kayıplı görüntü sıkıştırma yöntemlerinden biri olan global ayrık kosinüs dönüşümü algoritmasının iyileştirilmesini hedef alan bir yöntem, Günlü ve Bilge (2006) tarafından önerilmiştir. Görüntülere ait ayrık kosinüs dönüşüm katsayıları incelenmiş ve bu değerler içerisinde bir çok sıfıra yakın değer olduğu tespit edilmiştir. Belirli bir noktadan itibaren bu veri iki gruba ayrılmış ve her gruba Huffman kodlama uygulanmıştır. Bu çalışmada ayrım noktasının belirlenmesi için bir dizi çalışma gerçekleştirilerek, bu noktanın belirlenmesi için otomatik bir yöntem sunulmuştur. İlave işlem karmaşıklığı gerektirmeden sıkıştırma oranında %8 ve işlem süresinde %50’ye varan başarı elde edilmiştir.

Ayrık kosinüs dönüşümü tabanlı sıkıştırma yöntemlerinin yerini dalgacık tabanlı yöntemlere bırakacağı, ancak bu geçiş için o döneme ait mevcut bilgisayar sistemlerinin geliştirilmesine ihtiyaç duyulduğu Aksan ve Doğan (2004) tarafından öngörülmüştür.

Büyük boyutlu uzaktan algılama görüntülerinin depolanmasında ve transferindeki etkili çözümler, yüksek uygunluk ve hızlı sıkıştırmadır. Dalgacık

(17)

dönüşümlerine ve parçalı kodlamaya bağlı hibrid algoritmaları günümüzde oldukça popülerdir. Jie ve ark. (2008) tarafından geliştirilen ve dalgacık dönüşümü ile parçalı kodlamaya dayanan geliştirilmiş bir yöntem, uzaktan algılamadaki görüntü sıkıştırmada önerilmektedir. Yöntemde ilk olarak görüntünün alt bantları arasında benzerliği oluşturmak için dalgacık dönüşümü kullanılmış, daha sonra benzer karakterli ardışık yüksek frekans bantlarına parçalı algoritma uygulanmıştır. Bu aşamada benzer blokların araştırılmasındaki hızı arttırmaya yönelik bazı geliştirmeler yapılmıştır (Çizelge 2.2). Sonuçta daha az bilgi kaybı ile görüntüyü kapsayan daha fazla görüntü kalitesi elde edilmiştir. Bununla birlikte görüntünün sinyal-gürültü oranını sağlayacak şekilde, görüntü kodlama etkinliği de arttırılmıştır.

Çizelge 2.2. Üç farklı kodlama yönteminin karşılaştırılması

Kodlama İşlem

Zamanı (sn) PSNR Sıkıştırma Oranı

Geleneksel Parçalı Kodlama Yöntemi 3600 22.78 4:1

Dalgacık Tabanlı Parçalı Kodlama

Yöntemi 306 22.02 7:1

Dalgacık Tabanlı Geliştirilmiş Parçalı

Kodlama Yöntemi 120 22.00 7:1

JPEG ve JPEG2000 görüntülerinin karşılaştırılmasına yönelik bir çalışma Grgic ve ark. (2001) tarafından gerçekleştirilmiştir. Karşılaştırmada iki görüntü kalite ölçütü kullanılmıştır: resim kalite ölçeği (PQS) ve doruk sinyal gürültü oranı (PSNR). Görüntü kalite ölçütü PSNR kullanılarak yapılan karşılaştırmada, bütün test görüntülerinde ve veri iletim oranlarında JPEG2000 yönteminin yüksek görüntü kalitesini elde ettiği tespit edilmiştir (Çizelge 2.3). Ancak PQS ile gerçekleştirilen karşılaştırma farklı sonuçlar göstermiştir. Orta ve yüksek veri iletim oranlarında JPEG daha iyi sıkıştırma performansı sergilemiştir (Çizelge 2.4). İyi görüntü kalitesi ve düşük hesaplama kompleksliği sebebiyle JPEG görüntülerinin orta veri iletim oranlarında kullanılması önerilmektedir. Düşük veri iletim oranlarında DWT kullanan JPEG2000 algoritmasının, DCT kullanan JPEG’den daha az bozulmalara sebebiyet verdiği tespit edilmiştir.

(18)

Çizelge 2.3. Pik sinyal gürüntü oranı (PSNR) sonuçları

Çizelge 2.4. Resim kalite ölçeği (PQS) sonuçları

2.2. SıkıĢtırılmıĢ Görüntüler ile Yapılan Fotogrametrik Uygulama ÇalıĢmaları

Liu ve ark. (2005) tarafından JPEG2000 yöntemi kullanılarak sıkıştırılmış hava fotoğrafları üzerindeki bilgi ve geometri içeriklerin incelenmesi konusunda bir çalışma gerçekleştirilmiştir. Bu çalışmada 13.3:1 oranında sıkıştırılmış JPEG ve JPEG2000 görüntülerinin manuel yöntemlerin kullanıldığı fotogrametrik uygulamalar için yeterli olduğu bildirilmiştir. Görüntü sıkıştırma ile görüntü eşleme arasındaki doğruluğun araştırıldığı, Kiefner ve Hahn (2000) tarafından gerçekleştirilen başka bir çalışmada 5:1 oranında sıkıştırılmış JPEG görüntülerinin fotogrametrik çalışmaları olumsuz yönde etkilemeyeceği bildirilmiştir. Bununla birlikte 30:1 oranına kadar JPEG2000 görüntülerinin kullanılabileceği, özellikle 50’den büyük sıkıştırma oranlarında DWT

(19)

algoritmasının (JPEG2000), DCT algoritmasına büyük üstünlük sağladığı (JPEG) belirtilmiştir.

Sıkıştırılmış JPEG görüntülerinin yakın mesafe fotogrametri uygulamaları üzerine etkileri ile ilgili gerçekleştirilen bir çalışmada, hedef noktalar alt piksel doğruluğunda ölçülerek, elde edilen ölçümler ışın demetleri ile dengelenmiş ve elde edilen sonuçlar Çizelge 2.5’de sunulmuştur. Çalışma sonucunda elde edilen değerler ışığında, 1:1 ile 1:70 arasındaki JPEG sıkıştırma oranlarının, özellikle yersel dijital kameraların sınırlı depolama kapasiteleri de dikkate alındığında, yakın mesafe fotogrametri uygulamalarında rahatlıkla kullanılabileceği değerlendirilmiştir (Yılmaztürk ve Akçay, 2005).

Çizelge 2.5. JPEG sıkıştırma sonuçları

Görüntüler (Bütün Noktalar) KOH (Küçük Hedefler) KOH KOH (Orta Hedefler) KOH (Büyük Hedefler) TIFF 0.17 0.14 0.15 0.20 SHQ 0.17 0.15 0.16 0.19 HQ 0.18 0.17 0.17 0.18 JPEG 1:10 0.24 0.17 0.23 0.27 JPEG 1:20 0.24 0.14 0.25 0.26 JPEG 1:40 0.28 0.21 0.27 0.33 JPEG 1:60 0.31 0.27 0.30 0.34 JPEG 1:70 0.31 0.32 0.29 0.32 JPEG 1:80 0.47 0.45 0.41 0.51

(KHO sonuçları mikrometre ve xyz olarak verilmektedir.)

İnternetteki CBS görsel similasyon sistemlerinde, çoklu ölçek sunumlarda DEM verisinin kullanımı oldukça fazlalaşmış, bu nedenle sınırlı ağ bant genişliği dikkate alındığında, bu veri hacminin azaltılması yönünde Zheng ve ark. (2008) tarafından bir çalışma gerçekleştirilmiştir. Çalışmada birçok tamsayıdan tamsayıya dalgacık dönüşümü arasında, hangisinin DEM çoklu ölçek gösterimi için en uygun sıkıştırmayı sağladığı, JPEG2000 algoritması kullanılarak karşılaştırılmıştır. Üç farklı arazi karakteristiğine sahip 90mx90m aralıklı SRTM90 verisi, 15 adet farklı tamsayı oranları kullanan dalgacık yöntemi ile sıkıştırılmış ve elde edilen sonuçlar neticesinde 2/6 tamsayı dalgacık yönteminin en uygun kademeli sıkıştırma ve dönüşüm sonucunu verdiği görülmüştür.

Bilgisayarda yine görüntü gibi oldukça yer kaplayan sayısal yükseklik modellerinin sıkıştırılması ile ilgili bir çalışma gerçekleştirilmiştir. Çalışmada aritmetik kodlama yöntemi, Huffman kodlama ile doğrusal kestirim algoritması kullanılarak,

(20)

SYM verilerinin kayıpsız sıkıştırılmasında %40-62 oranında gelişim sağlanmıştır (Kidner ve Smith 2003).

ġekil 2.1. JPEG ve dalgacık sıkıştırmanın karşılaştırılması

Sayısal yükseklik modellerinin sıkıştırma sonrası etkilenme durumunu araştırmak için benzer bir çalışma Schieve (1998) tarafından gerçekleştirilmiş, ancak diğerinden farklı olarak, uygulamada kayıplı JPEG görüntüleri kullanılmış, ayrıca sıkıştırma yöntemleri de kısmen test edilmiştir. Çalışmada test verisi olarak kullanılan sayısal yükseklik verisinde, 15:1 oranındaki sıkıştırmanın mevcut veriyi fazla bozmadığı ve uygulamada kullanılabileceği değerlendirilmiştir. Kayıplı sıkıştırma algoritmalarının otomatik işlemleri negatif yönde etkilediği belirtilmiş, özellikle Şekil 2.1’de gösterildiği gibi 50:1’den büyük sıkıştırma oranlarında dalgacık tabanlı sıkıştırmaların JPEG algoritmasına üstünlük sağladığı bildirilmiştir.

ġekil 2.2. Farklı arazilerde değişik sıkıştırma oranları ile elde edilen KOH

Arazi-3 Arazi-1 Arazi-2 Sıkıştırma Yüzdesi Kala n Değ er lein KOH (m etr e) SıkıĢtırma Oranı

(21)

Oimoen (2004) tarafından dalgacık tabanlı sıkıştırma yönteminin sayısal yükseklik modelleri üzerindeki etkileri üzerinde bir test çalışması gerçekleştirlmiştir. Üç farklı arazi grubu (arazi-1: düz ve dağlık, arazi-2: küçük bir kaç göl içeren düzlük alan, arazi-3: tamamen dağlık) üzerinde gerçekleştirilen çalışmada Şekil 2.2’de gösterilen sonuçlar elde edilmiş ve düz yapılı arazilerde ayrık dalgacık dönüşüm işleminin daha başarılı sonuçlar verdiği bildirilmiştir.

Aster uydu görüntülerinden elde edilen global sayısal yükseklik modeli verileri kullanılarak, JPEG2000 algoritmasının kayıplı ve kayıpsız seçenekleri ve oranları kullanılarak çeşitli test çalışmaları gerçekleştirilmiştir. Elde edilen sonuç değerleri oldukça dikkate değer bulunmuştur. SYM verisi kayıpsız JPEG2000 sıkıştırma ile 6:1-10:1 oranlarında sıkıştırılmış, 8:1 oranında kayıpsız bir sıkıştırma ile 547 Gbyte olan bir verinin yaklaşık 68 Gbyte boyutuna ineceği görülmektedir. JPEG2000 kayıplı en iyi görüntü olarak adlandırılan 19:1 sıkıştırma oranı ile SYM verisi sıkıştırılmış, Şekil 2.3’de gösterilen orijinal veri ile sıkıştırılmış veri arasındaki farklar hesaplanmıştır. Orijinal veri ile sıkıştırılmış veri arasında; %83 oranındaki verinin 1 metre içerisinde, %17 oranındaki verinin 1-2 metre içerisinde ve %0.005 oranındaki verinin de 2 metreden büyük olduğu test edilmiştir.

Sıkıştırılmamış 19:1 Kayıplı Sıkıştırılmış Fark Verisi (yeşil=1m.,

siyah=2m.)

ġekil 2.3. Orijinal veri ile 19:1 oranında sıkıştırılmış veri arasındaki farklar

Aynı veri grubunda 80:1 oranında kayıplı JPEG2000 sıkıştırma yöntemi ile benzer çalışma yapılmış ve sonuç olarak Şekil 2.4’de gösterilen değerler elde edilmiştir. Orijinal veri ile sıkıştırılmış veri arasında; %33 oranındaki verinin 1 metre içerisinde, %46 oranındaki verinin 1-2 metre içerisinde, %16 oranındaki verinin 2-3 metre içerisinde, %4 oranındaki verinin 3-4 metre içerisinde ve %1 oranındaki verinin en

(22)

büyüğü 20 m. olacak şekilde 4 metreden büyük olduğu belirlenmiştir (www.microimages.com).

Sıkıştırılmamış 80:1 Kayıplı Sıkıştırılmış Fark Verisi (beyaz=0m,

mavi=1m., sarı=2m., turuncu=3m., kırmızı=4m.)

(23)

3. TEORĠK ESASLAR

Bilgisayar biliminde ve bilgi teorisinde veri sıkıştırma veya kaynak kodlama, özel kodlama algoritmaları kullanılarak, kodlanmamış kullanımından daha az boyutta olacak şekilde verinin kodlanması işlemidir. Herhangi bir veri iletişiminde gönderici ve alıcının ikisi birden kodlama algoritmasını okuyabiliyorsa sıkıştırılmış veriler kullanılabilir. Yani göndericinin veriye uyguladığı kodlama şemasına göre, alıcı çözme şemasına sahip ise sıkıştırılmış veri iletişiminden bahsedilebilir.

Sıkıştırma tekniği veya algoritması denildiğinde gerçekte iki farklı algoritma kastedilmektedir. Birincisi Χ orijinal verisini girdi olarak alan ve bunu sıkıştırarak daha küçük boyutta bir XC verisi oluşturan sıkıştırma algoritması, ikincisi de XC sıkıştırılmış

verisini girdi olarak alan ve bunu açarak bir Y verisi oluşturan yeniden oluşturma algoritmasıdır. Bu işlemler şematik olarak Şekil 3.1’de gösterilmektedir. Bu çalışmada, hem sıkıştırma hem de yeniden oluşturma algoritmaları sıkıştırma teknikleri olarak adlandırılacaktır (Sayood 2005).

ġekil 3.1. Sıkıştırma ve yeniden oluşturma

Yeniden oluşturulan verinin özellikleri, sıkıştırma tekniklerinin temel olarak iki bölümde sınıflandırılmasında belirleyici olmaktadır. Birincisi yüksek sıkıştırma uygulanan ve Y verisinin X verisi ile aynı olduğu kayıpsız sıkıştırma yöntemleri, diğeri de Y verisinin X verisi ile farklılıklar gösterdiği kayıplı sıkıştırma yöntemleridir.

βεδεαρπξσυ Ωεεγακ Λζςρντφελ δεαρε εγαςρντφ βεδεαρπξσυ Ωεεγακ Λζςρντφελ δεαρε εγαςρντφ βεδεαρπξσυ Ωεεγακ Λζςρντφελ δεαρε εγαςρντφ X Y XC

(24)

Sıkıştırmanın ana hedefi olarak verinin depolanması aşamasındaki yer ihtiyacının azaltılması ve iletilmesi aşamasında veri aktarımının hızlandırılması olarak bahsedilmiştir. Bununla birlikte veri sıkıştırmanın bazı alt hedefleri de bulunmaktadır. Bu alt hedefler; işlemci ve bellek kullanımının minimum seviyeye indirilmesi, aktarma hata etkilerinin azaltılması, sıkıştırılmış sürümün yazılım ve işlenmesinin desteklenmesi ve devam eden görüntü transferinin desteklenmesi olarak sıralanabilir (Aksan ve Doğan 2004).

ġekil 3.2. Sıkıştırma işleminin temel aşamaları

Sıkıştırma yöntemlerini, algoritmalarını ve formatlarını kesin kurallar ile birbirinden ayırmamız ve birbirinden bağımsız bir şekilde ele almamız yanlış olacaktır. Bir sıkıştırma algoritmasından yararlanılarak elde edilen farklı formatlarda veriler olabileceği gibi, birden fazla tekniğin bir arada kullanılması ile elde edilen veri formatları da mevcuttur. Bundan sonraki bölümlerde; sıkıştırma yöntem, algoritma ve formatları detaylı olarak anlatılacak olup, uygulamada kullanılacak olan format ve algoritmalar üzerinde biraz daha ayrıntılı anlatılacaktır. Kayıplı veya kayıpsız bir sıkıştırma işleminin temel aşamaları Şekil 3.2’de gösterilmektedir.

3.1. Kayıpsız SıkıĢtırma

Kayıpsız sıkıştırma tekniklerinde, adından da anlaşılacağı gibi veride herhangi bir bilgi kaybı olmamaktadır. Eğer veri kayıpsız olarak sıkıştırılmış ise, orijinal veri tam

Ham Veri Dönüşüm Niceleme Kodlama

Yeniden Oluşturulan Veri Ters Niceleme Ters Dönüşüm Kod Çözme Sıkıştırılmış Veri

(25)

olarak sıkıştırılmış veriden tekrar elde edilebilir. Orijinal ve yeniden oluşturulmuş veri arasında herhangi bir farklılığa tahammülü olmayan uygulamalarda kayıpsız sıkıştırma teknikleri kullanılmaktadır. Kayıpsız sıkıştırmanın kullanıldığı en önemli alan, metin verilerinin sıkıştırılmasıdır. Yeniden oluşturulan verinin orijinal veriyle birebir aynı olması çok önemlidir. Olabilecek en küçük bir farklılık bu veri grubunda farklı anlaşılmalara yol açacaktır. Sadece tek bir karakterin farklı bir şekilde yeniden oluşturulması sonrasında, “Bugün kürek getir” ile “Bugün yürek getir” cümleleri masumane bir örnek olarak verilebilir. Ancak bu masum örneğin bir bankanın kayıtlarının yeniden oluşturulması aşamasında oluşabileceğini düşünürsek, ortaya çıkabilecek farklı anlamlar veya rakamlar bir felaketle sonuçlanabilir.

Daha sonradan kullanabilecek olan ve önemli bilgiler içeren herhangi bir veri çeşidinde bütünlüğün korunması çok önemlidir. Madencilik çalışmalarında kullanılan multispektral görüntülerde, pikseller üzerindeki bilgiler önceden belirlenmiş spektral aralıklara göre maden cinslerini göstermektedir. Kayıplı bir şıkıştırma sonrasında elde edilen görüntü ile oluşturulacak sonuçlar yanlış yönlendirmelere ve maddi kayıplara yol açabilecekken, benzer şekilde radyolojide kullanılan görüntülerden oluşturulacak sonuçlar insan hayatına mal olabilecektir. Tarım, ormancılık, çevre kirliliği gibi çevresel görüntülemede kullanılan uydu görüntüleri farklı numerik betimlemeler elde edebilmek ve kıyaslama yapabilmek amacıyla belirli bir süre sonra yeniden değerlendirmelere tabi tutulabilmektedir. Eğer yeniden oluşturulan veri, orijinal veri ile birebir aynı olmaz ise farklı sonuçlar ortaya çıkacaktır. Tekrardan aynı koşulları oluşturacak şekilde yeni bir görüntü elde etme de olanaklı değildir. Bu sebeple bu şekildeki veri kümelerinde sıkıştırma aşamasında herhangi bir farklılık yaratacak bir yöntemin kullanılması tavsiye edilmemektedir.

Orijinal veri ile birebir aynısı olmasını arzu ettiğimiz birçok uygulama bulunmasına rağmen, daha fazla sıkıştırma yapıp daha rahat bir şekilde verilerle uğraşmak istediğimiz uygulamalar da bulunmaktadır. Bu gibi durumlarda kayıplı sıkıştırma tekniklerinden söz edebiliriz.

Kayıpsız veri sıkıştırma birçok uygulamada kullanılmaktadır. Bunlardan en yaygın olanları ZIP dosya formatı ve Unix sistemlerindeki gzip dosya formatıdır. Kayıplı sıkıştırma teknolojisi içerisinde de bir bileşen olarak kullanılabilmektedir. TIFF ve MNG gibi bazı görüntü formatları kayıplı veya kayıpsız metotları kullanabilirken, PNG ve GIF gibi bazı görüntü formatları ise sadece kayıpsız sıkıştırmayı kullanmaktadır.

(26)

3.2. Kayıplı SıkıĢtırma

Kayıplı sıkıştırma teknikleri bir kısım veri kayıplarını göze almaktadır. Bu yöntemde sıkıştırılmış verinin yeniden oluşturulmasında tam olarak orijinal verinin elde edilemeyeceği bilinmektedir. İnsan gözünün veya diğer duyu organlarının algılamadığı veya algılamada güçlük çektiği bilgilerin, orijinal veriden arındırılarak sıkıştırmanın uygulanması, bu yöntemlerin en büyük avantajıdır. Ancak sıkıştırmanın fazla olduğu durumlarda sıkıştırma hataları olarak adlandırılan görüntü bozulmaları dikkati çekmektedir. Yeniden oluşturma sonrasında orijinal verinin elde edilemeyeceğinin ve bir distorsiyon olacağının kabul edilmesi, kayıpsız sıkıştırma ile göremeyeceğimiz yüksek sıkıştırma oranlarını elde etmemize olanak sağlar.

Bir çok uygulamada yeniden oluşturmadaki eksiklik bir problem teşkil etmemektedir. Örneğin bir konuşmanın veya sesin iletilmesi veya depolanması aşamasında, konuşmada geçen herbir örnek sesin gerçek değerinin tutulması zorunluluk yaratmamaktadır. Yeniden oluşturulacak konuşmada beklenen kaliteye bağlı olarak, her örneğe ilişkin değişken miktarda bilgi kayıpları göze alınabilmektedir. Yeniden oluşturulan konuşmada telefondaki ses kalitesine benzer bir kalite bekliyorsak kayda değer bilgi kayıpları göze alınabilir. Ama yeniden oluşturulan konuşmada müzik CD’sindeki gibi bir kalite bekliyorsak çok daha az bilgi kaybı olacağı görülecektir.

Benzer şekilde bir video görüntü dizisinde yeniden oluşturulan video görüntüsünün orjinal görüntü ile aynı olamayacağı bir gerçektir. Kullanıcının video görüntüsünde beklediği çözünürlük nispetinde, bu veri çeşidinde kesinlikle kayıplı sıkıştırma yöntemleri kullanılmaktadır.

Bir sıkıştırma planı tasarladığımızda elde edeceğimiz perfonmansı ölçebilme yeteneğimizin bulunması gerekmektedir. Sıkıştırmanın birçok farklı uygulama alanı olacağından, performans tanımlama ve ölçümü için farklı koşullar geliştirilmelidir.

3.3. SıkıĢtırma Algoritmaları

Bilgisayar ortamında depolama ve sınırlı bant genişliklerinde veri iletimi gibi etkenler yanında, sıkıştırma yöntemlerinin ve formatlarının ortaya çıkmasındaki veya araştırılmasındaki en büyük etkenlerden birisi de verinin kendisidir. Verinin içerisinde ihtiyaç dışı ve fazla bilgiler bulunabilmektedir. Bu fazla bilgilerin veri yapısı içerisinden

(27)

ayrıştırlması da bir nevi sıkıştırma sağlamaktadır. Bir veri içerisinde ne kadar fazla veri varsa sıkıştırma oranı da o derece yüksek olacaktır. Bu fazlalık bilgilerin kaynaklarını ise şu şekilde sıralayabiliriz: uzaysal fazlalık, spektral fazlalık, anlık fazlalık ve algılanabilen fazlalık (Aksan ve Doğan 2004).

3.3.1. Kayıpsız sıkıĢtırma algoritmaları

Çoğu kayıpsız sıkıştırma programı iki aşamada işlemi gerçekleştirir: birinci aşamada girdi verisinin istatistiksel modeli oluşturulur, ikinci aşamada ise oluşturulan bu model kullanılarak girdi verisi bit sırasına göre adreslenir. Bu aşamada veri tekrar sıklıkları veya olasılıkları önemli rol oynamaktadır.

Kayıpsız sıkıştırma algoritmalarında en çok Huffman kodlama ve aritmetik kodlama kullanılmaktadır. Aritmetik kodlama bilgi entropisinde verilen belirli istatistiksel model için uygun olabilen en iyi sıkıştırma oranlarına ulaşabilmekte, Huffman kodlama ise basit ve hızlı bir sıkıştırma olmasına rağmen bire yakın sembol olasılıkları olan modellerde kötü sonuçlar elde edebilmektedir.

İstatistiksel model oluşturmak için iki ana yol bulunmaktadır: statik model ve uyarlanabilir model. Statik modelde veri analiz edilir ve model oluşturulur, sonra bu model sıkıştırılan veri ile birlikte depolanır. Bu yaklaşım basit ve modülerdir, ancak bazı durumlarda modelin kendisinin depolanması zahmetli olabilmektedir. Ayrıca sıkıştırılacak bütün verilerde tek bir modelin kullanılması zorunluluğu, heterojen veri içeren dosyalarda düşük performansa sebep olmaktadır. Uyarlanabilir modellerde ise veri sıkıştırılırken kullanılan model dinamik olarak güncellenmektedir. Hem kodlayıcı hem de çözücü, ilk başta önemsiz bir model kullanmakta, başlangıç verisinde zayıf sıkıştırmaya sebep olmakta, fakat daha fazla bilgi öğrendikçe veri performansı gelişmektedir. Günümüzde uygulamada kullanılan en popüler sıkıştırma tipi uyarlanabilir kodlayıcıları kullananlardır.

Kayıpsız sıkıştırma yöntemleri sıkıştırma için tasarlandıkları veri tiplerine göre sınıflandırılabilir. Prensipte herhangi bir genel maksat kayıpsız sıkıştırma algoritması, herhangi bir veri tipine uygulanabilir ve bazen tasarlandıkları veri tipi haricindeki verilerde bile çok iyi sonuçlar elde edebilirler. Metin verilerinde kullanılan birçok kayıpsız sıkıştırma tekniğinin, adreslenmiş görüntülerde de iyi sonuçlar verdiği görülmüştür.

(28)

Sürekli görüntülerde ilk piksel hariç her pikselin sol komşusu ile arasındaki renk farkının az olduğu varsayımı ile, piksel değerleri birbirinden çıkartılmak suretiyle aradaki farkların yer aldığı görüntüler daha düşük değerler ile çalışma imkânı sağlanır. Fark verilerinden yeni oluşturulan bu veri kümesinde yakınsamalar daha fazla olacağı için verilerin tekrarlanma sıklıkları daha yüksek olacaktır.

Bu tekniğin bir sonraki aşamasında veri noktalarına ait bütün komşu nokta çiftlerinin farkları ve toplamları depolanmakta, düşük çözünürlükte sadece toplamlar kullanılarak devam ettirilmektedir. Bu işlem ayrık wavelet dönüşümü olarak adlandırılmaktadır. JPEG2000 formatında, bunlara ilave olarak diğer çiftlerdeki veri noktaları ve çarpım faktörleri de farkların içerisine ilave edilmektedir. Bu faktörlerin tamsayı olması nedeniyle her koşulda elde edilen sonuç da tamsayı olmaktadır. Değerlerin artışı beraberinde dosya boyutunun da artmasını getirmektedir, ancak değerlerin dağılımı daha yüksek olmaktadır.

Bu başlık içerisinde yer alan sıkıştırma algoritmalarından, görüntü sıkıştırmada kullanılmayanların sadece isimleri ve kullanıldıkları veri kümeleri belirtilecektir. Görüntü sıkıştırmada kullanılanlardan tez çalışmasında kullanılacak olanlar detaylı olarak anlatılacaktır.

3.3.1.1. ArdıĢık tekrarlı kodlama (Run-length encoding)

Kayıpsız veri sıkıştırmanın en basit yöntemi olarak bilinir. Orijinal veri kümesi yerine, tek bir veri karakterinin ve tekrarlanma sayısının tutulduğu bir yöntemdir. Ardışık olarak tekrar eden karakterlerden oluşan verilerin sıkıştırılmasında başarılı sonuçlar vermektedir. Özellikle fax cihazlarındaki veri iletimi için geliştirilmiş Huffman kodlama teknikleri ile birleştirilerek kullanılan ve siyah-beyaz renk ayırımına göre çalışan bir yöntemdir. Gönderilen veri içerisinde renkli resim bulunsa bile bu resim siyah beyaz olarak kodlanmaktadır. Normal bir metin içerisinde çoğu alanın boş veya beyaz olduğu dikkate alınırsa, verinin sıkıştırılması ve yeniden oluşturulması hızlı bir şekilde gerçekleştirilmektedir. Fax cihazındaki bir tarama çizgisinde aşağıdaki renkleri elde ettiğimizi varsayarsak (siyah pikseller S ile beyaz pikseller B ile temsil edilsin); BBBBBBSSBBBBBBBBBBBBBBSSSSBBBBBBBBSSBBBBBBBBBBBBBBBB BBBBBBBSSBBBBBBBBBBBBSSSSSBBBBBBBSSBBBBBBBBBBBBBBBBB bu verinin kodlanması;

(29)

1’inci tarama çizgisi: 6B2S14B4S8B2S16B 2’nci tarama çizgisi: 7B2S12B5S7B2S17B şeklinde olacaktır.

Simgeler, çizgisel çizimler ve animasyonlar gibi tekrarlı renk karakterlerinin fazla olduğu resimler haricinde, diğer normal fotoğrafların sıkıştırılmasında tercih edilmez. Hava fotoğrafı ve uydu görüntülerini bir kenara bırakacak olursak, normal fotoğraflarda bile elde edilecek sıkıştırma dosyasının boyutu orijinal dosya boyutunun 2-3 katına çıkabilmektedir. Eğer görüntünün yapısı çoğunlukla dikey dokulardan oluşmuş ise bu görüntünün yatay bir şekilde taranması da boyutu arttıracağından, kötü sıkıştırmaya bir örnek olacaktır. Bu nedenle görüntünün tarama yönünün de belirlenmesi bu kodlama yöntemi için önemli bir etkendir (Salomon 2004).

Ardışık tekrarlı kodlama ile elde edilen yaygın formatlar arasında; TGA (Truevision Graphics Adaptor) veya TARGA (Truevision Advanced Raster Graphics Adaptor), Macintosh bilgisayarları için Apple tarafından geliştirilen PackBits formatı (TIFF dosyalarında da aynı sıkıştırma şeması kullanılmaktadır), PCX (Personel Computer eXchange) ve ILBM (InterLeaved BitMap) sayılabilir.

3.3.1.2. Sözlük kodlayıcıları (Dictionary coders)

Yedek kodlayıcı olarak da bilinen bu yöntem, sıkıştırılacak metin ile kodlayıcı tarafından veri yapısında oluşturulan bir grup dizgi arasındaki eşleme araştırmasını gerçekleştiren kayıpsız bir sıkıştırma yöntemidir. Metin yapısındaki veri gruplarında kullanılan bir yöntemdir. Kodlayıcı ilk eşlemeyi bulduğunda, veri yapısında bu dizginin konumuna karşılık gelen bir yer değiştirme gerçekleştirir. LZ77 ve LZ78 yöntemleri de bu prensipe göre çalışmaktadır.

LZ77 ve LZ78: Abraham Lempel ve Jacob Ziv tarafından 1977 ve 1978 yıllarında geliştirilen kayıpsız veri sıkıştırma algoritmalarıdır. LZ1 ve LZ2 olarak da bilinir. Her ikisi de sözlük kodlayıcısı olarak kullanılmaktadır. LZ77 sıralı erişim ile eşleme yaparken, LZ78 rasgele erişim ile eşleme yapmaktadır. PNG formatı LZ77 algoritmasına dayanmaktadır. Huffman kodlamanın aksine, Lempel-Ziv (LZ) kodlama algoritması değişken uzunluklu girdi sembolleri sabit uzunluklu kod verilerine dönüşmektedir. Huffman kodlama kaynakla ilgili istatistik bilgilerinin önceden

(30)

bilinmesine ihtiyaç gösterirken, bu yöntemde bilinmesine ihtiyaç yoktur ve sadece özel bir kaynak için değil birçok kaynak türünde etkili bir şekilde çalışabilmektedir. Belki de bu sebeple kayıpsız veri sıkıştırmada en çok kullanılan yöntem olmuştur. Literatürde algoritmanın iki sürümü bulunmaktadır; teorik sürüm ve pratik sürüm. Her iki sürüm de temelde aynıdır (Gersho ve Gray 1992).

LZW: LZ78 algoritmasının Terry Welch tarafından geliştirilmesiyle oluşturulan bir sıkıştırma algoritmasıdır. LZ grubunun en çok kullanılan şeklidir. GIF formatı LZW’nin kullanıldığı en çok bilinen uygulamadır. Unix sıkıştırma da bu algoritmayı kullanmaktadır.

3.3.1.3. Kaynak tabanlı sıkıĢtırma (Context-based compression)

Eğer kodlanacak semboller dizisi, sembollerin bağımsız oluşumlarını içermiyorsa, kodlanacak sembolün komşusunda oluşacak sembolün bilgisi, kodlanacak sembolün değeri hakkında iyi bir fikir verecektir. Yani bu bilgi verilen bir kaynak içerisinde bazı sembollerin diğerlerine göre daha fazla olasılıkla yer alması anlamına gelmektedir. Bu da olasılık dağılımının eğriliğini arttırmaktadır. Eğer kaynak kodlayıcı ve çözücü tarafından biliniyorsa, bu olasılık dağılımı sıkıştırma seviyesinin arttırılması için kullanılabilmektedir.

3.3.1.3.1. Kısmi eĢleme kestirimi (Prediction by partial matching, PPM)

Kaynak tabanlı algoritmalar içerindeki en çok bilinen bu yöntem, ilk olarak 1984 yılında Cleary ve Witten tarafından önerilmiştir. PPM olarak da bilinen bu algoritma, kaynak modelleme ve kestirim tekniklerine dayalı uyarlanabilir istatistiksel veri sıkıştırma tekniğidir. Bu model sıkıştırılmamış sembol kümesindeki bir önceki sembol setlerini kullanarak, küme içerisindeki bir sonraki sembolü tahmin etme üzerine kurulmuştur (Sayood, 2005).

1990’lı yılların başına kadar PPM algoritmalarının hatırı sayılır bir miktarda RAM gerektirmesi nedeni ile yazılım uygulamalarında sıklıkla tercih edilen bir yöntem olmamıştır. Ancak son zamanlardaki PPM uygulamaları, doğal konuşma metinleri için en iyi sonuç veren kayıpsız sıkıştırma programları olarak kullanılmaktadır.

(31)

3.3.1.3.2. Burrows-Wheeler dönüĢümü (BWT)

Kaynak tabanlı yöntemlerden birisi olan BWT, kayıpsız sıkıştırma için farklı bir yol kullanarak kodlanacak sembolün kaynağını kullanır. Bu algoritmanın en önemli parçasını oluşturan dönüşüm işlemi 1983 yılında Wheeler tarafından geliştirilmiştir. Diğer yöntemlerin aksine, kodlama işlemi öncesinde kodlanacak bütün kod dizilerinin mevcudiyetini gerektirmektedir (Salomon, 2008). Blok sıralama sıkıştırması olarak da bilinen bu algoritma, bzip2 gibi veri sıkıştırma tekniklerinde kullanılmaktadır. Metin, ses ve görüntü şeklindeki veri gruplarının sıkıştırılmasında kullanılan etkin bir kayıpsız veri sıkıştırma algoritmasıdır.

3.3.1.3.3. Buyanovski iliĢkili kodlayıcısı (Associative Coder of Buyanovsky)

George Buyanovsky tarafından geliştirilen, sıkıştırma işleminde kullanılan kaynaklarda farklı bir yaklaşım getiren bir yöntemdir. Bu etkin kodlayıcının ayrıntılı detayları tam olarak bilinmemektedir. Diğerlerin farklı olarak kaynak içeriklerinin yolları da bu kodlayıcıda tutulmaktadır. Metin verisinde geleneksel soldan sağa doğru okuma yaklaşımı mevcuttur. Ancak bu yöntemde sağdan sola okuma yaklaşımı ilave edilmiş ve eşlemede komşu içerikler de dikkate alınmaktadır. Bu şekildeki yaklaşımın sonucu olarak algoritma daha zengin bir çevrede çalışma imkanı bulmuş ve sıkıştırmayı sağlayabilmek için esneklik kazanmıştır. Metin verilerinin sıkıştırılmasında çok başarılı sonuçlar elde edilmiştir (www.siret.ms.mff.cuni.cz ).

3.3.1.3.4. Dinamik Markov sıkıĢtırması (Dynamic Markov compression, DMC)

Gordon Cormack ve Nigel Horspool tarafından geliştirilen kayıpsız veri sıkıştırma algoritmasıdır. Her seferinde bir bit tahmin edilir ve kodlanır. PPM’ye benzer bir şekilde kestirimli aritmetik kodlama kullanmakta, sadece kestirimin her seferinde bir byte yerine bir bit kullanılmaktadır. DMC yeterince hızlı çalışan ve iyi sıkıştırma sonuçları veren bir algoritmadır, ancak fazla hafıza gerektirmesi nedeni ile geniş uygulama alanları bulunmamaktadır. Özellikle metin verilerinde çok başarılı sonuçlar verdiği test edilmiştir (Cormack ve Horspool 1987).

(32)

3.3.1.3.5. Kaynak karıĢtırma (Context mixing)

Diğer bireysel kestirim sonuçlarına göre daha doğru sonuç veren, iki veya daha fazla istatistik modellerinin birleştirilmesiyle, bir sonraki sembol tahminini daha iyi yapabilen bir veri sıkıştırma algoritmasıdır. Bu yöntemin kullanılması ile ilgili en basit yöntem, örneğin her modele ilişkilendirilen olasılıkların ortalamasının alınmasıdır. Bireysel modellerin kestirimlerinden yeni bir kestirim oluşturan rasgele ağaç yapısı bir diğer yöntemdir. Modellerin birleştirilmesi, yapay zekâ ile öğrenmedeki aktif araştırma alanıdır. Ortalama kalite işlemi kullanan veri sıkıştırma programları, girdi verisinin bireysel değerlerine olasılık atamada bu algoritmayı kullanmaktadır. Modellerin bağımsız olması nedeniyle, güvenirlik modellerin karşılaştırılmasında değil, aynı model içerisindeki iki kestirimin karşılaştırılmasında anlamlı hale gelmektedir (www.cs.fit.edu).

3.3.1.3.6. Kaynak uyarlı kayıpsız görüntü sıkıĢtırma (Context Adaptive Lossless Image Compression, CALIC)

Piksel değerlerinin kaynak ve kestirimini birlikte kullanan, 1994’de ortaya konan bir kayıpsız görüntü sıkıştırma algoritmasıdır. CALIC algoritması gri tonlamalı görüntülerde ve iki seviyeli görüntülerde olmak üzere iki modda işlem yapabilmektedir. Bir görüntü içerinde verilen bir pikselin değeri genellikle komşularından birine çok yakındır. Hangi komşu pikselin en yakın değere sahip olduğu görüntünün lokal yapısı ile ilgilidir. Hangi pikselin en yakın olduğunun bulunması en iyi kestirimi verecektir (Wu ve Memon 1997).

Algoritma kodlanacak pikselin çevresini belirlemelidir ve bu belirleme hem kodlayıcı hem de çözücü tarafından bilinmelidir. Algoritmanın iyi bir şekilde çalışabilmesi için en önemli adım başlangıç kestirim değerinin bulunmasıdır. Algoritma içerisindeki bazı işlem aşamalarının sadeleştirilebilmesi sonrasında görüntüler için en iyi sıkıştırma yöntemi olabileceği değerlendirilmektedir.

(33)

3.3.1.4. Entropi kodlaması (Entropy coding)

Bilişim kuramında entropi kodlama, ortamın özel karakteristiklerinden bağımsız olan bir kayıpsız veri sıkıştırma algoritmasıdır. Entropi kodlama girdi verisi içerisinde yer alan her bir sembole bir ön kod oluşturur ve atar. Daha sonra her sabit uzunluklu girdi sembolünü, karşılık gelen değişken uzunluklu ön kodlama kelimesi ile değiştirerek verinin sıkıştırılmasını gerçekleştirir (Erdem 2006). Her kodlama kelimesinin uzunluğu yaklaşık olarak, olasılığının negatif logaritması ile orantılıdır. Bu nedenle en fazla kullanılan semboller en kısa kodları kullanmaktadır.

Shannon kaynak kodlama teorisine göre bir sembolün en uygun kod uzunluğu −logbP ile temsil edilmektedir. b çıktı kodlarını oluşturmada kullanılan sembollerin

sayısını, P de girdi sembolünün olasılığını temsil etmektedir.

En yaygın olarak kullanılan enrtopi kodlama tekniklerinden ikisi; Huffman kodlama ve aritmetik kodlamadır. Özellikle sinyal sıkıştırmada, veri akışı içerisindeki yaklaşık entropi karekteristikleri iyi bir şekilde bilinirse, basit statik kodların kullanılması yararlı olacaktır. Bu statik kodlar; evrensel kodları (Elias gama kodlama veya Fibonacci kodlama gibi) ve Golomb kodlarını (birli kodlama veya Rice kodlama gibi) içermektedir.

Entropi kodlama sayısal verilerin sıkıştırmasında bir yöntem olarak kullanılmasının yanında, entropi kodlayıcı veri akışıları arasındaki benzerliklerin miktarının ölçülmesinde de kullanılabilmektedir. Bu işlem, her veri sınıfı için bir entropi kodlayıcısı veya sıkıştırıcısı oluşturmakla gerçekleştirilmektedir. Daha sonra sınıflandırılmamış bilinmeyen veri, her sıkıştırıcıya sıkıştırılmamış bir şekilde verilir ve en yüksek sıkıştırmayı sağlayana göre sınıflandırılır.

3.3.1.4.1. Huffman kodlama

David A. Huffman tarafından 1952 yılında geliştirilen bu yöntem, Basit Entropi Kodlama olarak da adlandırılır. Genellikle sıkıştırmanın en son aşamasında kullanılır. Bilgisayar biliminde ve bilişim kuramında Huffman kodlama kayıpsız veri sıkıştırma için kullanılan bir entropi kodlama algoritmasıdır. Konsept Mors kodlamaya oldukça benzemektedir. Kaynak sembolün kodlanmasında, değişken uzunluklu kod tablosunun kullanımına dayanmaktadır. Sabit uzunluklu girdi verisindeki semboller, değişken

(34)

uzunluklu kod değerlerine dönüşmektedir. Değişken uzunluklu kod tablosu, kaynak sembolün her muhtemel değer oluşum tahmin edilen olasılığının, özel bir yöntem ile türetilmesine dayanmaktadır (Salomon 2004, Erdem 2006, Salomon 2008).

Verilen bir modele veya olasılıklar grubuna en uygun olan ön kodlar, Huffman kodlar olarak adlandırılır. Huffman kodlama, en uygun ön kodlara ilişkin iki gözleme dayanmaktadır. Birincisi; uygun kodlamada sıklıkla tekrar eden sembollerin kod uzunlukları az tekrar edenlerden daha kısadır. İkincisi; uygun kodlamada az tekrar eden iki sembol aynı uzunluktadır.

Huffman kodlama, her sembolün temsil edilerek seçiminde özel bir metot kullanmaktadır. Bir takım sembollerin temsilinde kullanılan bit sırası, az kullanılan kaynak sembolerin temsil edilmesindeki bit sırası uzunluğundan, sıklıkla kullanılan sembollerin temsilindeki daha kısa olan bit dizisinin ön kodlaması olamaz.

Bu kodlamanın etkinlik ölçüsü, onun ortalama uzunluk ile entropi arasındaki farkı veya fazlalığıdır (redundancy). Dış düğüm noktalarının veya yapraklarının sembollere karşılık geldiği ikili sistem ağaç yapısı, Huffman kodlamayı oluşturmanın diğer bir yöntemidir.

Huffman kodlamanın kullanıldığı bir çok uygulama alanından en önemlileri şu şekilde sıralanabilir: kayıpsız görüntü sıkıştırma, metin sıkıştırma, ses sıkıştırma. Kayıpsız görüntü sıkıştırmada, dört adet örnek görüntü kullanarak Sayood (2005)’un elde ettiği neticeler Çizelge 3.1 ve Çizelge 3.2’de gösterilmektedir.

Çizelge 3.1. Huffman kodları kullanılarak elde edilen piksel değerleri

Görüntü Adı Bits/Piksel Toplam Boyut (byte) Sıkıştırma Oranı

Sena 7.01 57,504 1.14

Sensin 7.49 61,430 1.07

Earth 4.94 40,534 1.62

Omaha 7.12 58,374 1.12

Çizelge 3.2. Huffman kodları kullanılarak elde edilen piksel fark değerleri

Görüntü Adı Bits/Piksel Toplam Boyut (byte) Sıkıştırma Oranı

Sena 4.02 32,968 1.99

Sensin 4.70 38,541 1.70

Earth 4.13 33,880 1.93

Omaha 6.42 62,643 1.24

Uyarlanır Huffman kodlama (Adaptive Huffman coding): Dinamik Huffman kodlama olarak da bilinir. Huffman kodlama kaynak verideki olasılıkların

(35)

bilinmesine dayanmaktadır. Bu bilgi mevcut değil ise, verinin üzerinden ilk geçişte istatistik bilgileri toplanır, ikinci geçişte de veri kodlanır (Salomon 2004). Kaynak veriye ait herhangi bir önbilgi olmaksızın, iletilecek sembol kodlarının belirlenmesine, verinin değişen koşullarına göre uyarlanmasına ve bir defada kodlanmasına olanak sağlamaktadır.

Bu algoritmayı tek bir geçişlik işleme dönüştürebilmek için Faller ve Gallagher tarafından uyarlanabilir algoritma ortaya koymuş, daha sonra bu algoritma Knuth ve Vitter tarafından geliştirilmiştir (Sayood 2005). En büyük faydası gerçek zamanlı olarak kaynak verinin bir defada kodlanmasıdır. Bu yöntemin getirdiği dezavantaj ise iletişim hatalarına karşı oldukça duyarlı olmasıdır. Veri içerisindeki sadece bir kayıp bütün kodlamayı harap edecektir.

Golomb kodlama (Golomb coding): Huffman kodlama grubundan olan bir yöntemdir. Solomon W. Golomb tarafından 1960’lı yıllarda ortaya konan kayıpsız veri sıkıştırma yöntemidir. Geometrik dağılımlı sonsuz girdi verisinin basit entropi kodlanmasıdır. Geometrik dağılım izleyen alfabeler en uygun ön kod olarak Golomb kodu alırlar. Girdi verisindeki küçük değerlerin tekrarlanmasının büyük değerlerden fazla olduğu durumlar için Golomb kodlaması oldukça uygun bir yöntemdir. Yarı sonsuz olasılık modelleri için kullanılan Huffman kodlama ile aynı olduğu söylenebilir (Seroussi ve Weinberger 1997).

Rice kodlama: Robert F.Rice tarafından tasarlanan ve daha sonra Pen-Shu Yeh ve Warner Miller tarafından geliştirilen bir kodlama yöntemidir. Golomb kodlaması gibi Huffman kodlama grubundan olan bu yöntem, uyarlanabilir Golomb kodlaması olarak da değerlendirilmektedir. Bu kodlamada negatif olmayan tamsayılar dizisi bloklara bölünmekte, daha sonra her bloğa Golomb kodlama uygulanmaktadır. Uzay Veri Standartları Danışma Komitesi (Consultative Committee on Space Data Standards, CCSDS) kayıpsız sıkıştırmada kullanılmak üzere bu yöntemin kullanılmasını tavsiye etmiştir (Sayood 2005).

Tunstall Kodlama: Bu yöntemi diğer Huffman kodlama grubundan ayıran en büyük özelliği, sembollerin tekrarlanma sıklıklarına göre kod uzunluğunun verilmemesi, her sembolün aynı uzunlukta kodlanmasıdır. Aynı uzunluktaki kod uzunluklarının sağladığı en büyük avantaj ise kodlamadaki hataların devamlılığının olmamasıdır. Değişken uzunluklu kodlarda ise bir hata sonrasında, takip eden hatalar serisi oluşmaktadır (www.rle.mit.edu).

Şekil

Çizelge 2.5. JPEG sıkıştırma sonuçları
ġekil 2.2. Farklı arazilerde değişik sıkıştırma oranları ile elde edilen KOH Arazi-3
ġekil 2.3. Orijinal veri ile 19:1 oranında sıkıştırılmış veri arasındaki farklar
ġekil 3.4. Büyük bir nokta kümesinin vektör niceleme ile gruplara ayrılması ve merkezinin belirlenmesi
+7

Referanslar

Benzer Belgeler

1954-Haziran ayında fakülteyi bitirip dövizli özel öğrenci olarak Almanya’ya doktora tahsiline gitti.. Goethe Enstitüsü’nde dilbilgisini genişletip,

Tüm bu hükümler dikkate alındığında, üye devletler arasında görüş birli- ğinin sağlanamaması veya üye devletlerin isteksizlikleri sebebiyle Konseyin başlıca

Baflkent Üniversitesi Hastanesi, Kad›n Hastal›klar› ve Do¤um Anabilim Dal›, Perinatoloji Bölümü, Ankara.. Amaç: Faktör VII (FVII) eksikli¤i otozomal resesif geçiflli

Bilateral tulumu olan olgulardan birinde tip 1 konjenital kistik adenoid malfor- masyon olan olguda polihidramnioz ve yayg›n hidrops mevcut olup yap›lan karyotip analizi

[r]

The results of vegetation surveys showed that rangeland health and condition classes were unhealthy and fair; risky and fair on the rangelands of Kırıkkale - Akçaağaç village

kondirite normalize edilmiş REE değerleri.Şekil 5.9 da tanımlanan yöntem kullanılarak kalıntı manto bileşimleri plot edilmiştir.Hesaplamalarda spinel denge alanı içindeki PUM

Bunun doğal sonucu olarak, proje, performans ödevi, öğrenme etkinlikleri, çalışma yaprağı gibi bazı yeni kavramlar eğitim sistemimizin birer