• Sonuç bulunamadı

5.1 Sonuçlar

Hareketsiz hastaların yakınlarıyla konuĢmak veya acil durum gibi hallerde haber vermek için iletiĢim kurmaları, çağımızdaki önemli problemlerden biridir. Hareketsiz hastaların iletiĢim kurabilmeleri için vücutlarında kontrol edebildikleri yegâne uzuv genellikle göz veya kaĢlar olmaktadır. Bu organların hareket bilgileri alınırken kaslardan elde edilen elektrik sinyallerinin yanında görüntü iĢleme teknikleri de kullanılabilmektedir. Ayrıca görüntü iĢleme tekniklerinin kullanılması, hasta yaĢam kalitesini, sistemin minimum zamanda kullanılmaya hazır hale getirilmesi, kullanım ömrü gibi sistem parametrelerini olumlu etkilemektedir. Bu tez projesinde göz kırpma hareketleri görüntü iĢleme teknikleriyle algılanmıĢ ve kullanıcının verdiği göz kırpma komutlarına göre diğer kiĢilere mesaj gönderilmiĢ ya da kontrol iĢlevleri yerine getirilmiĢtir. Bu kontrol iĢlevleri arasında, programın ayarlarını düzenleme ve harici cihazları kontrol etmek vardır.

Yüzün ön görünümündeki göz özelliklerin çıkarımı ve takibi için uygun olan teknikler araĢtırılmıĢtır. Bunun sonucunda kullanılmaya karar verilen teknikler Visual Studio geliĢtirme ortamı kullanılarak C# programlama dilinde kodlanmıĢtır.

Ġnsanların ALS gibi hastalıklar geçirmeleri sonrasında diğer kiĢilerle iletiĢim kuramamaları sonucunda kendilerini kötü hissetmelerine bağlı olarak iyileĢme sürecinin olumsuz etkilenmesi araĢtırmalarının göstergelerinden biridir. Bu doğrultuda yukarıda iĢaret edilen görüntü iĢleme tekniklerine ek olarak hastaların dıĢ dünya ile iletiĢimlerini sağlayabilmeleri için gerekli donanımlar projeye eklenmiĢtir. Bu donanımlar sayesinde kullanıcı güçlü bir Ģekilde iletiĢim imkânı bulmaktadır. Ayrıca projenin bir diğer önemli özelliği de acil durumlar karĢısında hareket edemeyen hastalara acil çağrı imkânı verilmesidir. Bu fonksiyon da yine önceden tanımlanan mesajlar gibi göz kırpma davranıĢları sonucunda yakalanmaktadır. Hastanın kolaylıkla gerçekleĢtirebileceği bir dizilim Ģeklinde seçilmesi acil durumlar karĢısında bu fonksiyonun kullanılabilirliğini artırmıĢtır.

Proje kapsamında bilgisayarla görme teknikleri kullanılarak geliĢtirilen yazılım, hareketsiz hastalardan oluĢan kullanıcıların mesajlarını iletebilmek için verici ve alıcı cihazlarla donatılmıĢtır. Bu aĢamada GSM tabanlı teknoloji kullanılarak karĢı tarafa SMS göndermek ve radyo frekans iletiĢim kullanılarak ekonomik bir Ģekilde özel olarak

tasarlanmıĢ alıcıya mesaj göndermek seçenek olarak sunulmuĢtur. Ġlk yolun tercih edilmesi durumunda alıcı cihaz olarak PDA, telefon gibi zaten birçok kiĢinin üzerinde taĢıdığı cihazlar kullanılabilmektedir. Ġkinci yol da sık kullanımlar için daha ekonomik ve karĢılıklı iletiĢimi de mümkün kılan bir alternatiftir.

Makine görme yazılımının geliĢtirilmesi sırasında birçok görüntü iĢleme tekniği kullanılmıĢtır. Bunların temel amacı ilk olarak, yakalanan görüntüler üzerinde sınıflandırıcılar kullanarak yüz ve göz resimlerini çıkararak, elde edilen göz resimleri üzerinde kırpma davranıĢının yakalanmasını sağlamaktır. Ardından sistem ardı arda gelen kırpma davranıĢlarını üzerinde kaydedilmiĢ verilerle karĢılaĢtırarak tanımlı komutlardan birinin girilip girilmediğini kontrol etmektedir.

GeliĢtirilen yazılımın değiĢik kullanıcılarda ideal bir Ģekilde kullanılabilmesi için, temel yazılım özelliklerinin kiĢiselleĢtirilebilir nitelikte olması sağlanmıĢtır. Böylece programın kullanılabilirliği ve kiĢinin kendi kendine adapte olması sayesinde programı özümsemesi sağlanmıĢtır. Programın bir baĢka özelliği de öncelikle baĢlangıç kodu niteliğindeki göz kırpma dizilerinin girilmesini beklemesidir. Böylece yanlıĢlıkla gönderilen mesajların önüne geçilmesi amaçlanmıĢtır. Ayrıca programın komut beklerken verdiği sesli geribildirim sinyali de baĢlangıç kodu bekleme aĢamasında üretilmemektedir.

GeliĢtirilen sistem 120 kiĢi üzerinde testlere tabi tutulmuĢtur. Bu testlerde sistemin çalıĢmasındaki tüm aĢamalarda nasıl olayların olduğu tablolarla kayıt altına alınmıĢtır. Sistem yüz resimlerinin tanınıp kare içerisine alınabilmesi, yüz resmi içerisindeki gözlerin çıkarımının yapılabilmesi, çıkarımı yapılan göz resimlerinden kırpma davranıĢının yakalanabilmesi, kırpma dizilerinin kayıtlı komutla örtüĢtürülüp ilgili mesajın doğru olarak belirlenmesi, belirlenen mesajın karĢı taraftaki alıcı cihazda da doğru bir Ģekilde görüntülenmesi Ģeklinde oluĢturulan kalemlerde test edilmiĢtir. Gönderilen mesajlar ve mesajı gönderme kanalı, deney esnasında kullanıcı olan kiĢiler arasında farklılıklar göstermektedir.

Sonuçta yapılan bu testler ıĢığında sistem literatürde bulunan benzer çalıĢmalarla karĢılaĢtırılmıĢtır. Ancak sistemin denenmesi esnasında kullanılan test kalemlerinden yalnızca göz kırpma belirlemesi doğruluk oranının diğer çalıĢmalarla karĢılaĢtırılabilinecek olduğu görülmüĢtür. Çünkü çalıĢmanın literatürde birebir örneğine rastlanmamıĢtır.

Bu çalıĢmada elde edilen sonuçlar kameranın kullanıcılara göre uzaklık ve açı ayarlamasının yapılabildiği, arka planda aĢırı yüksek ıĢık kaynaklarının bulunması veya

ortamın yeteri kadar aydınlık olmaması gibi durumlarda ortamın değiĢtirildiği deney Ģartlarında sağlanmıĢtır.

Göz kırpma doğruluk oranları konusunda elde edilen sonuçlara bakılacak olursa, (Kim ve ark., 2011) çalıĢmasında %98,8 doğruluk oranı, (Grauman ve ark., 2001) çalıĢmasında %95,6 baĢarı oranı, (Chau ve Betke, 2005) çalıĢmasında ise %95,3 oranında baĢarıların elde edilmesine karĢın bu tez çalıĢmasında önerilen yöntemle de %98,9 oranında baĢarı sağlanmıĢtır.

Sistemin yüz tanıma aĢamasındaki genel baĢarı oranı %100 olarak tespit edilmiĢtir. Sistemin tespit edilen yüz resimleri üzerinde göz çıkarımını yapması aĢamasında baĢarı oranı %100 olarak tespit edilmiĢtir. Sistemin göz kırpma algılamasındaki genel baĢarı oranı %98,9 olarak tespit edilmiĢtir. Sistemin kullanıcı tarafından verilen mesajları doğru olarak algılayabilmesi %98,9’luk bir baĢarı oranıyla tespit edilmiĢtir. Sadece algılanan mesajlar üzerinde gerçekleĢtirilen doğru iletim testlerinde ise sistem %100 doğruluk oranıyla testi tamamlamıĢtır. Sistem tarafından algılanmayan mesajlar son istatistiğe katılmamıĢtır.

17-24 yaĢ aralığına sahip bay kullanıcılara yönelik olarak, sistem %100 doğruluk oranında çalıĢmıĢtır. 25-34 yaĢ aralığındaki bay kullanıcıların yer aldığı testlerde, sistem %98,5 doğruluk oranıyla çalıĢmıĢtır. 35-44 yaĢ aralığındaki bay kullanıcılara yönelik olarak, sistem %100 doğruluk oranında çıkıĢ vermiĢtir. 45 yaĢ ve üstü bay kullanıcıların olduğu deneylerde, sistem %100 doğrulukta çalıĢmıĢtır.

17-24 yaĢ aralığına sahip bayan kullanıcılara yönelik olarak, sistem %99,2 doğruluk oranında çalıĢmıĢtır. 25-34 yaĢ aralığındaki bayan kullanıcıların yer aldığı testlerde, sistem %100 doğruluk oranıyla çalıĢmıĢtır. 35-44 yaĢ aralığındaki bayan kullanıcılara yönelik olarak, sistem %100 doğruluk oranında çıkıĢ vermiĢtir. 45 yaĢ ve üstü bayan kullanıcıların olduğu deneylerde, sistem %100 doğrulukta çalıĢmıĢtır.

Bay kullanıcıların genel doğruluk oranı % 99,6’dır. Bayan kullanıcıların genel doğruluk oranı % 99,8’dir.

5.2 Öneriler

Görüntü iĢleme sisteminin olabildiğince hızlı çalıĢması sistemin her durumda en iyi Ģekilde iĢlemesine katkıda bulunacaktır. Dolayısı ile geliĢen yazılım ve donanım teknolojileri ile birlikte sürekli olarak bu gibi projelerin de yeniden gerçekleĢtirilmesi

gerekmektedir. Bu duruma bir de yöntem güncellemesi dâhil olmaktadır. Dolayısı ile çok değiĢkenli bir güncelleme havuzu ortaya çıkmaktadır.

Görüntü iĢleme (GĠ) uygulaması geliĢtiren kiĢilerin, gerçek zamanlı iĢlemlerde gereken yoğun iĢlemler için yüksek performanslı sistemlere ihtiyaç duymaktadırlar. Bu ihtiyaçlara ek olarak GĠ uygulamaları deneysel ve etkileĢimli olma zorunluluğu vardır. Anlamı, geliĢtiriciler uygulamaları geliĢtirirken algoritmalarını değiĢtirebilmeli, ayarlayabilmeli ve yer değiĢtirebilmelidir. DüĢük seviyeli GĠ iĢlemlerinin (komĢuluk iĢlemleri) doğasından dolayı, bu iĢlemleri paralel iĢlemlerle gerçekleĢtirmek performansı yükseltmektedir. Buna rağmen çok iĢlemcili GĠ istemleri bu gerçeklemeler için tam bir çözüm olamamaktadırlar. Yüksek maliyet, paralel makineler için yazılım desteği ve kararlılık eksikliği: eğer görüntüler çekilip gerçek zamanlı olarak iĢlemcilere dağıtılırlarsa, haberleĢmeden dolayı oluĢan masraflar oldukça fazladır. Yüksek performanslı GĠ uygulamaları geliĢtirmenin ikinci bir yolu da Sayısal ĠĢaret Ġsleyici (DSP-digital signal processor) iĢlemciler kullanmaktır. DSP iĢlemciler temel olarak yazılım programlama desteği sayesinde geleneksel iĢlemcilere göre performansları geliĢtirilmiĢtir. Bu performans geliĢmesi genel amaçlı bir iĢlemciden DSP algoritmaları gerçeklenebileceği bir yapıya dönüĢtürülmesi ile baĢarılmıĢtır. Örnek olarak DSP iĢlemciler birçok veri yoluna sahiptir, bu özellik daha yüksek bant geniĢliği sağlamaktadır. Genel olarak bu yapı ardıĢık düzen (pipelined) kullanarak paralel iĢlemleri gerçeklemekte kullanılır. Bu özelliklerine rağmen DSP iĢlemciler tek kontrol akısına bağımlılıklarından dolayı bir DSP iĢlemci paralel görevi tam olarak baĢaramaz.

Yukarıda belirtilen yazılım tabanlı çözümlere karĢılık olarak, donanım çözümleri geliĢtirilmiĢtir. Uygulamaya özgül tümdevreler (ASIC-application specific ıntegrated circuit) belirli bir algoritmayı tamamen isteğe uyarlanmıĢ çözümlerdir. Bu çözüm tamamen bu algoritmanın çözümü içindir ve alan ve hız bakımından maksimum performansı sağlar. Bunlara rağmen yazılımlar kadar esnek olmaması olumsuz yönüdür. Diğer olumsuz yönleri ise yüksek üretim maliyeti ve uzun üretim çevrimidir.

Tekrar ayarlanabilen donanım çözümlerinden, elektriksel olarak diğer bir algoritmanın tekrar programlanabileceği alanda programlanabilir kapı dizileri (FPGA- field programmable gate array) yüksek performans sağlarlar. Her ne kadar ilk FPGA ler basit anti devreleri ve kontrol uygulamalarında kullanılsalar da, günümüzdeki FPGA ler milyon apılarla ifade edilen bir yapıya kavuĢmuĢlardır. Üstelik tümleĢik devre üretimindeki eliĢmeler FPGA lerin çalıĢabileceği maksimum hızları arttırmıĢtır.

Görüntü ve video isleme ygulamaları için geliĢtirilen günümüz FPGA leri 500 MHz lik bir bant geniĢliği ile evresindeki diğer elemanlarla haberleĢebilmektedir.

Dolayısıyla bu çalıĢmadan sonra gerçekleĢtirilebilinecek en iyi ilerleme sistemi FPGA tabanlı olarak tekrardan tasarlama böylece görüntü iĢleme sürecini olabildiğince kısaltıp uygulamayı çok daha kararlı hale getirmektir.

Ardından kullanıcının kendisini yalnızken bile güvende hissetmesini sağlayacak bu uygulamaya ek olarak, kullanıcının kelime girebileceği bir sistemin acil çağrı iletiĢim sistemiyle birlikte geliĢtirilmesi sistemi daha iĢlevsel kılacaktır. Yine bu sistemin de FPGA tabanlı olarak gerçekleĢtirildiği çalıĢmalar literatürde çok nadir bulunmaktadır. Dolayısı ile ASIC yongaların bu hedefe yönelik olarak geliĢtirilip üretilmesi atılabilecek sonraki adımlar arasında ön sıralarda gelmektedir.

Bu tez çalıĢmasında geliĢtirilen görüntü iĢleme sistemi kiĢinin belli bir hareketine odaklanarak bu hareketin gerçekleĢtirilmesi sonrası gerekli iĢlemleri yapmaktadır. Bu yapıya ek olarak bir uzman sistem katkısıyla kiĢinin mimik ve hareket davranıĢlarının değerlendirilmesi gerçekleĢtirilebilir. Böylece sistem kiĢinin davranıĢlarından acil bir durum olduğu çıkarımını yapabilir. Böylece yapay zeka destekli akıllı izleme mimarisi geliĢtirilmiĢ olur.

Göz kırpma iletiĢim sistemi sadece görüntü girdisini kullanmaktadır. Sisteme görüntü sinyalleri yanında mikrofondan elde edilen ses sinyallerinin de girilmesiyle daha kararlı sonuçlar elde edilebilir. Ses sinyallerinin hastanın göz kırpma dizisiyle karıĢtırılması çok daha yüksek sayıda kombinasyonun oluĢturulabilmesine olanak sağlayacaktır. Böylece geliĢtirilen iletiĢim sistemi daha çok iĢleve sahip olabilir.

Kullanıcının göz kırpma davranıĢlarının algılanıp algılanmadığı konusunda bilgilendirilmesi için sesli geribildirimin yanında kameranın yanında led ıĢıkların kullanılması daha iyi performans sağlayabilir. Bunun yanında tablet bilgisayar gibi kompakt bir ekran veya bilgisayar kullanıcı önüne yerleĢtirilirse bu ekrandan kullanıcıya kırpma kodları gibi veriler gösterilebilir ve aynı zamanda kırpma komutlarıyla ekrandaki içeriklerin değiĢmesi sağlanabilir.

OpenCv kütüphanesinin android mobil iĢletim sistemi için de kullanılabilecek versiyonu bulunmaktadır. Bu projede geliĢtirilen programın mobil versiyonu sayesinde sistem daha kolay kullanılabilen bir hale getirilebilir. Böylece harici verici kullanmaya da gerek kalmayacaktır.

Sistem çok kullanıcılı bir Ģekilde tasarlanarak, hareketsiz hastaların kendi aralarında iletiĢim kurabilmeleri sağlanabilir. Bu Ģekilde hastalar sosyal hayatlarına daha etkin bir Ģekilde devam edebileceklerdir.

Programın geribildirim bip sesi, konuĢma sesleriyle değiĢtirilerek daha etkin bir bilgilendirme sağlanabilir. Böylece verilebilecek mesajlar daha anlaĢılır olacak ve istenildiği kadar çeĢitlendirilebilecektir.

KAYNAKLAR

Akram, W., Tiberii, L., Betke, M., 2007, A Customizable Camera-Based Human Computer Interaction System Allowing People with Disabilities Autonomous Hands-Free Navigation of Multiple Computing Tasks, 9th ERCIM Workshop on User Interfaces for All, Germany, 28-42.

Ayudhya, C.D.N., Srinark, T., 2009, A Method for Real-Time Eye Blink Detection and Its Application, The 6th International Joint Conference on Computer Science and Software Engineering, JCSSE 2009 , Phuket, Thailand, 25-30.

Betke, M., Gips, J., Fleming, P., 2002, The Camera Mouse: Visual Tracking of Body Features to Provide Computer Access for People With Severe Disabilities, Neural Systems and Rehabilitation Engineering, 10 (1), 1-10.

Biradal, A., 2007, Hand gesture recognition, Yüksek Lisans Tezi, Çankaya Ün. Fen Bilimleri Enstitüsü, Ankara.

Bobis, C. F., Gonzalez, R.C., Cancelas, J.A., Alvarez, I., Enguita, J.M., 1999, Face Recognition Using Binary Thresholding for Features Extraction, Int. Conf. On Image Analysis and Processing, ICIAP 1999, Venice-Italy, 1077-1080.

Brandt, T., Stemmer, R., Rakotonirainy, A., 2004, Affordable Visual Driver Monitoring System for Fatigue and Monotony, lntemational Conference on Systems, Man and Cybemetics, The Hague, Netherlands, 6451-6456.

Burke, D., Ward, T., Paor, A., 2001, Image processing used to harness blinking as a channel of communication and control for physically disabled people, Medical & Biological Engineering & Computing 2001, 39 (3), 285-287.

Chandrasekaran, V., 2010, Measurıng vıtal sıgns usıng smart phones, Yüksek Lisans Tezi, University of North Texas, Denton, Texas.

Chau, M., Betke, M., 2005, Real Time Eye Tracking and Blink Detection with USB Cameras, Boston University Computer Science, No. 2005-12.

Colombo, C., Del Bimbo, A., De Magistris, S., 1995, Human-Computer Interaction Based on Eye Movement Tracking, International Conference on Computer Architectures for Machine Perception CAMP'95 , Como, Italy, 259-263.

Corno, F., Farinetti, L., Signorile, I., 2002, A Cost-Effective Solutıon For eye-gaze Assistive Technology, Multimedia and Expo, ICME '02, Lausanne, Switzerland 433-436.

Crisman, E.E., Loomis, A., Shaw, R., Laszewski, Z., 1991, Using the eye wink control interface to control a powered wheelchair, Annual International Conference of the IEEE Engineering in Medicine and Biology Soc., 13 (4), 1821-1822.

Datong, C., Bharucha, A.J., Wactlar, H.D., 2007, Intelligent Video Monitoring to Improve Safety of Older Persons, Proceedings of the 29th Annual International Conference of the IEEE EMBS, Lyon, France, 3814-3817.

Deng, Z., 2006, Data-drıven facial animation synthesis by learning from facial motion capture data, Doktora Tezi, University of Southern California, Los Angeles. Divjak M., Bischof H., 2008, Real-time video-based eye blink analysis for detection of

low blink-rate during computer use, First International Workshop on Tracking Humans for the Evaluation of their Motion in Image Sequences, THEMIS 2008, Leeds, UK, 99-107.

Du, W., Li, H., 2000, Vision based gesture recognition system with single camera, 5th International Conference on Signal Processing Proceedings, WCCC-ICSP 2000., 1351-1357.

Fasel, I.R., 2006, Learning Real-Time Object Detectors: Probabilistic Generative Approaches, Doktora Tezi, University of California, San Diego.

Freud, Y., Schapire, R.E., 1997, A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting, Journal of computer and system sciences, 55, 119-139.

Grauman, K., Betke, M., Lombardi, J., Gips, J., Bradski, G.R., 2001, Communication via Eye Blinks Detection, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Lihue, HI, 1010-1017.

Gökmen, M., Kurt, B.,Kahraman, F., Çapar, A., 2007, Çok Amaçlı Gürbüz Yüz Tanıma, İstanbul Teknik Üniversitesi, 104E121.

Göknar, G., 2005, Hand gesture recognition using artifical neural Networks, Yüksek Lisans Tezi, Yedi Tepe Ün. Fen Bilimleri Enstitüsü, Ġstanbul.

Hansen, D.W., Hansen, J.P., Nielsen, M., Johansen, A.S., 2002, Eye Typing using Markov and Active Appearance Models, Proceedings Sixth IEEE Workshop on Applications of Computer Vision, WACV 2002, Orlando, USA, 132-136.

Heishman, R., 2007, Deducing Fatigue and Cognitive Engagement From Eye Region Biometrics, Doktora Tezi, George Mason University, Fairfax, Virginia.

Ġnce, Ġ.F., Yang, T.C., 2009, A New Low-Cost Eye Tracking and Blink Detection Approach: Extracting Eye Features with Blob Extraction, 5th International Conference on Intelligent Computing, South Korea, 526-533.

Je, H., Kim, J., Kim, D., 2007, Vision-Based Hand Gesture Recognition for Understanding Musical Time Pattern and Tempo, The 33rd Annual Conference of the IEEE Industrial Electronics Society, IECON 2007, Taipei, Taiwan, 2371- 2376.

Keskin, C., 2006, Vision based real-time continuous 3d hand gesture recognition interface for generic applications basedon input-output hidden markov models, Yüksek Lisans Tezi, Boğaziçi Ün. Fen Bilimleri Enstitüsü, Ġstanbul.

Kim, J., Lee, E.C., Lim, J.S., 2011, A New Objective Visual Fatigue Measurement System by Using a Remote Infrared Camera, Eighth International Joint Conferenceon Computer Science and Software Engineering, JCSSE 2011, Bangkok, Thailand, 182 - 186.

Knight, H., Lee, J.K., Ma, H., 2008, Chair Alarm for Patient Fall Prevention based on Gesture Recognition and Interactivity, 30th Annual International IEEE EMBS Conference, Vancouver, Canada, 3698-3701.

Krolak, A., Strumillo, P., 2008, Vision-Based Eye Blink Monitoring System for Human-Computer Interfacing, Conference on Human System Interactions, HSI 2008, Krakow, Poland, 994 - 998.

Kumar, S., Rai, A., Agarwal, A., Bachani, N., 2010, Vision Based Human Interaction System for Disabled, Image Processing Theory, International Conference on Image Processing Theory Tools and Applications, Paris, France, 2154-5111. Kurylyak, Y., Lmonaca, F., Mirabelli, G., Boumbarov, O., Pnev, S., 2011, The Infrared

Camera-based System to Evaluate the Human Sleepiness, Medical Measurements and Applications Proceedings, MeMeA 2011, Bari, Italy, 253-256.

Leens, F., 2009, An introduction to I2C and SPI protocols, Instrumentation & Measurement Magazine, 12 (1), 8-13.

Louisa, W.M.S., 2005, Evaluation of computer access systems for students with multiple and severe physical handicap, Y.L. Tezi, Hong Kong Polytechnic Un, Hung Hom, Kowloon, Hong Kong.

Nakajima, N., 2009, Short-Range Wireless Network and Wearable Bio-Sensors for Healthcare Applications, 2nd Int. Symposium on Applied Sciences in Biomedical and Communication Technologies, ISABEL 2009, Bratislava, Slovakia, 1-6. Özüntürk, E., 2007, Optik akıĢ ile hareket tespiti, Y.L. Tezi, Y.T.Ü. Fen Bilimleri Ens. Porwik, P., Lisowska, A., 2004, The Haar–Wavelet Transform in Digital Image

Processing: Its Status and Achievements, Machine graphics & vision, 13 (1-2), 79-98.

Puma, F.A.W.P., 2007, A human computer interface operated with head-movements, eye-movements & eye blinks, Doktora Tezi, Virginia Commonwealth University, Richmond, Virginia.

Sen, M., Corretjer, I., Haim, F., Saha, S., Schlessman, J., Bhatta-charyya, S.S., Wolf, W., 2005, Computer Vision on FPGAs: Design Methodology and its Application to Gesture Recognition, Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, CVPR’05, 133.

Septanto, H., Prihatmanto, A.S., Indrayanto, A., 2009, A Computer Cursor Controlled by Eye Movements and Voluntary Eye Winks Using A Single Channel EOG, International Conference on Electrical Engineering and Informatics, Bangi Selangor, Malaysia, 117-120.

Shic, F., 2008, Computational methods for eye track analysis: Applications to autism, Doktora Tezi, Yale University, New Haven, Connecticut.

Song, B., Ozawa, S., 1994, Personal identification by image-processing sequential images of human-face, Industrial Electronics, Control and Instrumentation, IECON 1994, Bologna, Italy, 963-967.

Soundari, B.N., Nandakumar, M., Nivetha, R., Rajakumari, K., 2011, Extension of Desktop Control to Robot Control by Eye Blinks Using Support Vector Machine (SVM), International Conference on Recent Trends in Information Technology, Tamil Nadu, India, 1121-1125.

Su, M., Yeh, C., Lin, S., Wang, P., Hou, S., 2008, An Implementation of an Eye-blink- based Communication Aid for People with Severe Disabilities, International Conference on Audio, Language and Image Processing, ICALIP 2008, Shanghai, China, 351 - 356.

ġeker, ġ.E., 2008, SVM (Support Vector Machine, Destekçi Vektör Makinesi), Okan Üniversitesi, http://www.bilgisayarkavramlari.com/2008/12/01/svm-support- vector-machine-destekci-vektor-makinesi/ [Ziyaret Tarihi: 21 Ağustos 2011]. Taylor, S.A., 1998, CCD and CMOS Imaging Array Technologies: Technology

Review, Xerox Research Centre Europe Cambridge Laboratory, EPC-1998-106. Ünlütürk, M., Atay, C., 2010, Supervising Event Executive, 5th Int. Symposium on

Health Informatics and Bioinformatics HIBIT 2010 , Antalya, 20-22.

Verma, R., Dev, A., 2009, Vision based Hand Gesture Recognition Using Finite State Machines and Fuzzy Logic, International Conference on Ultra Modern Telecommunications & Workshops, ICUMT '09, Petersburg, Russia, 1-6.

Wei-Gang, C., Huang, C.L., Hwang, W.L., 2007, An Automatic Eye Wink Interpretation System For The Disable, International Conference on Multimedia and Expo, ICME 2007,Beijing, China, 979 – 982.

Xie, X., 1994, Automatic extraction and tracking of eye features from facial image sequences, Doktora Tezi, Florida Atlantic University, Boca Rota.

Yamada, M., Fukuda, T., 1986, Eye word processor (EWP) and peripheral controller for the ALS patient, Physical Science, Measurement and Instrumentation, Management and Education -Reviews, 134 (4), 328-330.

Yılmaz, N. (2005), Web tabanlı mobil robot sistemi tasarımı,gerçekleĢtirlmesi ve uygulamaları, Y.L. Tezi, T.C. Selçuk Üniveristesi Fen Bilimleri Enstitüsü, Elektrik-Elektronik Mühendisliği, Konya.

Zhang, X., 2008, The eye as na input device: eye tracking, eye interaction and eye typing, Yüksek Lisans Tezi, York University, Toronto.

Zheng, X., Li, X., Liu, J., Chen, W., Hao, Y., 2009, A portable wireless eye movement- controlled Human-Computer Interface for the Disabled, International Conference on Complex Medical Engineering, Salzburg, Austria, 1-5.

EKLER

EK-1 C# Programlama dilinde kabuk komutu çalıĢtırmak için gerekli kaynak kod

public void ExecuteCommandSync(object command) {

try {

// Programı çalıştırmak için „cmd“ kullanarak // ProcessStartInfo oluşturuluyor

System.Diagnostics.ProcessStartInfo procStartInfo =

new System.Diagnostics.ProcessStartInfo("cmd", "/c " + command); procStartInfo.RedirectStandardOutput = true;

procStartInfo.UseShellExecute = false;

// Siyah ekranın görüntülenmemesi için procStartInfo.CreateNoWindow = true;

// Bir işlem oluşturulup ProcessStartInfo özelliği belirleniyor. System.Diagnostics.Process proc= new System.Diagnostics.Process(); proc.StartInfo = procStartInfo;

// İşlem başlatılıyor... proc.Start();

Benzer Belgeler