• Sonuç bulunamadı

Tez olarak hazırlanan bu çalışma gigapiksel çözünürlüğe sahip bir gözetleme sistemi hedeflenerek başlamıştır. Eldeki imkanlar ölçüsünde, ölçeklenebilir ve verimli bir yapı ortaya konulmaya çalışılmıştır. Bu noktada literatürde en önde gelen çalışmalar olan ARGUS-IS [26], AWARE [28-33] ve Leblebici’nin çalışmaları [11-18,23] referans olarak kabul edilmiştir. Söz konusu sistemlerin elektronik kısmı örnek alınarak bir sistem geliştirilmiştir. Geliştirilen sistemin hali hazırda bulunan sistemlere getirdiği yenilikler şu şekildedir.

Diğer çalışmalarda işlemci olarak kullanılan kartlar FPGA kartlarıdır. Yapılan çalışmada ise kendi işletim sistemine sahip mikroişlemci bulunduran kartlar kullanılmıştır. Bu seçimin hem olumlu hem de olumsuz yönleri gözlemlenmiştir.

 İşletim sistemli kartların birbiri ile senkronizasyonun sağlanması zor olmuştur. Komutlar SSH bağlantısı ile paralel ve eş zamanlı olarak gönderilmesine rağmen, işletim sistemlerinin arka planındaki iş yükünden dolayı gecikmeler ve senkronizasyonda bozulmalar olabilmektedir.

 Kullanılan kartlarda bulunan işletim sistemi (Linux Raspian), OpenCV kütüphanesini ve kullanılan protokolleri desteklemektedir. Bundan dolayı, FPGA kullanıldığında oluşacak iş yüküne oranla daha düşük iş yükü elde edilmektedir. Algoritmalar ve protokoller kolayca tanımlanarak kullanılabilmektedir.

 Kartlarda bulunan medya (resim ve video) kodlaması, donanımsal olarak tanımlandığından dolayı, ek olarak işlem gücü ayrılmasına gerek kalmamıştır.

 Kartlarda bulunan medya (resim ve video) kodlaması, donanımsal olarak kodlandığından dolayı, kodlama işlemine müdahale edilememiştir.

Diğer çalışmalarda resim birleştirme işlemi için kameraların koordinat ve yönelim değişkenleri kullanılmıştır. Değişkenlere göre görüş alanı hesapları yapılarak, birleşim noktaları öngörülmüş ve bu noktalardan birleştirme yapılmıştır. Bu amaçla kullanılan algoritmalar düşük işlem yüküne sahip algoritmalardır. Ancak bu algoritmaların çalışması için çok hassas bir geometri oluşturulması gerekmektedir. Kameraların sabit, hareket etmeyecek bir şekilde konumlandırılması

algoritmaların çalışması için önem arzetmektedir. Özellikle referans kabul edilen çalışmalarda [11-18,23,26,28-33], kameraların odaklandığı açılardaki küçük değişiklikler, görüş açılarını bozabilir.

Bu açıdan, bahsi geçen çalışmalarda kullanılan yöntemler, tasarımı ve uygulaması zor yöntemlerdir. Ek olarak bahsi geçen çalışmalarda bulunan kompleks lens sistemleri, kameralar arası açı farkı bu sistemler tarafından düşürülmektedir. Örnek olarak ARGUS-IS [26] sensöründe kameralar arası görüş açısı farkı 2 derecedir, ancak tez çalışması kapsamında geliştirilen sensörde bu değer minimum 30 derecedir. Yapılan çalışmada, referans çalışmalardaki hassasiyet yakalanamayacağından ve referans çalışmalarda bulunan kompleks lens sistemleri bulunmadığından dolayı kamera konumlarını almayan, homografi kullanarak kendi hesaplayan AutoStitch yöntemi kullanılmıştır. Bu seçimin hem olumlu hem de olumsuz yanları gözlemlenmiştir.

 Donanımsal konum destekli yöntemler düşük işlem gücü gereksinimine sahip hafif algoritmalardır. Ondan dolayı yüksek performans alınmaktadır. Örneğin ARGUS-IS saniyede 12 çerçevelik hızda, gerçek zamanlı kayıt yapabilmektedir. Ancak AutoStitch yöntemi ile bu hız yakalanamamaktadır. 1280 x 720 piksellik çözünürlükte bir birleştirme için 1 saniyelik bir zaman gerekmektedir.

 Kullanılan AutoStich yöntemi pozisyonlarını parametre olarak almamakta ve girdi sayısından bağımsız olarak birleştirme yapabilmektedir. Kesişim durumu ortadan kalmadığı sürece, AutoStitch baklış açısı ve konum değişikliklerine karşı dayanıklıdır.

Bahsi geçen durum pozisyon destekli bir yöntemde olursa, birleştirme başarısız olacaktır.

Bu bakımdan homography kullanan AutoStitch yöntemi üstündür.

Tez çalışması kapsamında geliştirilen prototip dijital yakınlaşma –Digital Zoom- amacıyla geliştirilmiş ve bu amaca ulaşılmıştır. Prototip tarafından çekilen videonun çözünürlüğü 20 megapikseldir. Bu değer 5 megapiksellik 4 kameradan elde edilen görüntülerle elde edilmiştir. Tek odaklı sensörlere göre daha yüksek çözünürlük ve görüş açısının elde edilebileceği bir tasarım ortaya konulmuştur. Maddi destek sağlandığı durumda, bu tasarım genişletilerek ve lens sistemlerinin eklenmesi ile geliştirilip çok yüksek çözünürlükler elde edilebilir. Çalışmanın kullanılabileceği başka alanlar da bulunmaktadır. Bunlar aşağıda verilmiştir.

 Geliştirilen prototip, destek alınması durumunda büyütülerek ve lens sistemlerinin eklenmesi ile gigapiksel seviyesinde çözünürlüklere ulaşabilir.

 Kameraların aynı görüş alanına odaklanması sağlanarak [2] benzeri bir şekilde yüksek hızda video elde edilebilir.

 Kameraların görüş alanları kesişimi arttırılarak cisimlerin uzaklıklarına ve şekillerine dair bilgi çıkarımı yapılabilir.

KAYNAKLAR

1. Aldalali, B., Fernandes, J., Almoallem, Y. and Jiang, H. (2013). Flexible miniaturized camera array inspired by natural visual systems. Journal of Microelectromechanical Systems, 22(6), 1254-1256.

2. Wilburn, B., Joshi, N., Vaish, V., Talvala, E. V., Antunez, E., Barth, A. and Levoy, M. (2005).

High performance imaging using large camera arrays. In Association for Computer Machinery Transactions on Graphics, 24(3), 765-776.

3. Wilburn, B., Joshi, N., Vaish, V., Levoy, M. and Horowitz, M. (2004). High-speed videography using a dense camera array. Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 214-301.

4. Cossairt, O. S., Miau, D. and Nayar, S. K. (2011, April). Gigapixel computational imaging.

Proceedings of the IEEE Computer Society Conference on Computational Photography, 1-8.

5. Davis, J. D., Barrett, S. F., Wright, C. H. G. and Wilcox, M. (2009). A bio-inspired apposition compound eye machine vision sensor system. Bioinspiration & biomimetics, 4(4).

6. Hu, W. C., Chang, C. H., Liang, Y. F. and Wu, C. T. (2007). Creating wide field-of-view video using multicamera. Proceedings of the Second International Conference on Innovative Computing, Information and Control. 239-239.

7. Feng, G., Tian, W., Huang, C., Liu, T. and Zhang, S. (2008). Wide field of view CCD camera based on multi-sensors image mosaics. Proceedings of the 2008 Conference on Image and Signal Processing, 2, 432-435.

8. Marefat, F., Partovi, A. and Mousavinia, A. (2012). A hemispherical omni-directional bio inspired optical sensor. Proceedings of 20th Iranian Conference on Electrical Engineering, 668-672.

9. Prabhakara, R. S., Wright, C. H. and Barrett, S. F. (2012). Motion detection: A biomimetic vision sensor versus a ccd camera sensor. IEEE Sensors Journal, 12(2), 298-307.

10. Liu, H., Tang, C., Wu, S. and Wang, H. (2011). Real-time video surveillance for large scenes.

Proceedings of International Conference on Wireless Communications and Signal Processing, 1-4.

11. Afshari, H., Jacques, L., Bagnato, L., Schmid, A., Vandergheynst, P. and Leblebici, Y. (2011).

Hardware implementation of an omnidirectional camera with real-time 3D imaging capability.

3DTV Conference: The True Vision-Capture, Transmission and Display of 3D Video, 1-4.

12. Akin, A., Erdede, E., Afshari, H., Schmid, A. and Leblebici, Y. (2012). Enhanced omnidirectional image reconstruction algorithm and its real-time hardware. Digital System Design, 907-914.

13. Afshari, H., Popovic, V., Tasci, T., Schmid, A. and Leblebici, Y. (2012). A spherical multi-camera system with real-time omnidirectional video acquisition capability. IEEE Transactions on Consumer Electronics, 58(4), 1110-1118.

14. Afshari, H., Akin, A., Popovic, V., Schmid, A. and Leblebici, Y. (2012). Real-time FPGA implementation of linear blending vision reconstruction algorithm using a spherical light field camera. Proceedings of 2012 IEEE Workshop on Signal Processing Systems, 49-54.

15. Afshari, H., Jacques, L., Bagnato, L., Schmid, A., Vandergheynst, P. and Leblebici, Y. (2013).

The PANOPTIC camera: a plenoptic sensor with real-time omnidirectional capability. Journal of Signal Processing Systems, 70(3), 305-328.

16. Popovic, V., Afshari, H., Schmid, A. and Leblebici, Y. (2013). Real-time implementation of Gaussian image blending in a spherical light field camera. IEEE International Conference on Industrial Technology, 1173-1178.

17. Akin, A., Cogal, O., Seyid, K., Afshari, H., Schmid, A. and Leblebici, Y. (2013).

Hemispherical multiple camera system for high resolution omni-directional light field imaging. IEEE Journal on Emerging and Selected Topics in Circuits and Systems, 3(2), 137-144.

18. Seyid, K., Popovic, V., Cogal, O., Akin, A., Afshari, H., Schmid, A. and Leblebici, Y. (2015).

A real-time multiaperture omnidirectional visual sensor based on an interconnected network of smart cameras. IEEE Transactions on Circuits and Systems for Video Technology, 25(2), 314-324.

19. Zhang, C. and Chen, T. (2004). A self-reconfigurable camera array. Association for Computer Machinery Transactions on Graphics Special Interest Group on Computer Graphics and Interactive Techniques 2004 Sketches, 151-151.

20. Tang, W. K., Wong, T. T. and Heng, P. A. (2005). A system for real-time panorama generation and display in tele-immersive applications. IEEE Transactions on Multimedia, 7(2), 280-292.

21. Tanimoto, M. (2012). FTV: Free-viewpoint television. Signal Processing: Image Communication, 27(6), 555-570

22. Xu, Y., Zhou, Q., Gong, L., Zhu, M., Ding, X. and Teng, R. K. (2014). High-Speed Simultaneous Image Distortion Correction Transformations for a Multicamera Cylindrical Panorama Real-time Video System Using FPGA. IEEE Transactions on Circuits and Systems for Video Technology, 24(6), 1061-1069.

23. Cogal, O., Akin, A., Seyid, K., Popovic, V., Schmid, A., Ott, B. and Leblebici, Y. (2014). A new omni-directional multi-camera system for high resolution surveillance. Proc. Mobile Multimedia/Image Processing, Security, and Applications, 9120.

24. Flaugher, B. (2005). The dark energy survey. International Journal of Modern Physics A, 20(14), 3121-3123.

25. İnternet: 360 Degree Spherical Camera Systems, URL:

http://www.webcitation.org/query?url=https%3A%2F%2Fwww.ptgrey.com%2F360-degree-spherical-camera-systems&date=2016-09-27, Son Erişim Tarihi : 20.08.2016.

26. Leininger, B., Edwards, J., Antoniades, J., Chester, D., Haas, D., Liu, E., and Wein, S. (2008).

Autonomous real-time ground ubiquitous surveillance-imaging system (ARGUS-IS). SPIE Defense and Security Symposium, 69810H-69810H.

27. Marks, D. L., Son, H. S., Kim, J., Brady, D. J. (2012). Engineering a gigapixel monocentric multiscale camera. Optical Engineering, 51(8), 1-13.

28. Brady, D. J. Gigapixel Television, Presented at the 14th Takayanagi Kenjiro Memorial Symposium, Shizuoka.

29. Brady, D. J., Marks, D. L., Feller, S., Gehm, M., Golish, D., Vera, E., Kittle, D. (2013).

Petapixel photography and the limits of camera information capacity. In IS&T/SPIE Electronic Imaging, 86570B-86570B.

30. Brady, D. J., Gehm, M. E., Stack, R. A., Marks, D. L., Kittle, D. S., Golish, D. R., and Feller, S. D. (2012). Multiscale gigapixel photography. Nature, 486(7403), 386-389.

31. Marks, D. L., Llull, P. R., Phillips, Z., Anderson, J. G., Feller, S. D., Vera, E. M., and Brady, D. J. (2014). Characterization of the AWARE 10 two-gigapixel wide-field-of-view visible imager. Applied optics, 53(13), C54-C63.

32. Son, H. S., Marks, D. L., Youn, S. H., Brady, D. J., and Kim, J. (2013). Alignment and assembly strategies for AWARE-10 gigapixel-scale cameras. SPIE Optical Engineering Applications, 88360B-88360B.

33. İnternet: Ginsberg M. AWARE2 Multiscale Gigapixel Camera URL:

http://www.webcitation.org/query?url=http%3A%2F%2Fwww.disp.duke.edu%2Fprojects%

2FAWARE%2F&date=2016-09-27, Son Erişim Tarihi: 24.08.2016.

34. Llull, P., Bange, L., Phillips, Z., Davis, K., Marks, D. L., and Brady, D. J. (2015).

Characterization of the AWARE 40 wide-field-of-view visible imager. Optica, 2(12), 1086-1089.

35. Llull, P., Bange, L., Phillips, Z., Davis, K., Marks, D. L., and Brady, D. J. (2015).

Characterization of the AWARE 40 wide-field-of-view visible imager. Optica, 2(12), 1086-1089.

36. İnternet : QG Camera Specs, URL:

http://www.webcitation.org/query?url=http%3A%2F%2Fwww.aqueti.com%2Faboutqg%2F

&date=2016-09-27, Son Erişim Tarihi : 24.08.2016.

37. Kawanishi, T., Yamazawa, K., Iwasa, H., Takemura, H., & Yokoya, N. (1998). Generation of high-resolution stereo panoramic images by omnidirectional imaging sensor using hexagonal pyramidal mirrors. Proceedings. Fourteenth International Conference on Pattern Recognition, 1, 485-489.

38. Tan, K. H., Hua, H., and Ahuja, N. (2004). Multiview panoramic cameras using mirror pyramids. IEEE Transactions on Pattern Analysis and Machine Intelligence, 26(7), 941-946.

39. Hua, H., Ahuja, N., and Gao, C. (2007). Design analysis of a high-resolution panoramic camera using conventional imagers and a mirror pyramid. IEEE Transactions on Pattern Analysis and Machine Intelligence, 29(2), 356-361.

40. Hua, H., and Ahuja, N. (2001). A high-resolution panoramic camera. Proc. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 1, 960-967.

41. Shimamura, J., Yokoya, N., Takemura, H., and Yamazawa, K. (2000). Construction of an immersive mixed environment using an omnidirectional stereo image sensor. Proceedings of IEEE Workshop on Omnidirectional Vision, 62-69.

42. Fischler, M. A., and Bolles, R. C. (1981). Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM, 24(6), 381-395.

43. Schreer, O., Feldmann, I., Weissig, C., Kauff, P., and Schafer, R. (2013). Ultrahigh-resolution panoramic imaging for format-agnostic video production. Proceedings of the IEEE, 101(1), 99-114.

44. Fehrman, B., and McGough, J. (2014). Depth mapping using a low-cost camera array. IEEE Southwest Symposium on Image Analysis and Interpretation, 101-104.

45. Moens, E., Meuret, Y., Ottevaere, H., Sarkar, M., Bello, D. S. S., Merken, P., and Thienpont, H. (2010). An insect eye-based image sensor with very large field of view. SPIE Photonics Europe, 77162D-77162D.

46. Hiura, S., Mohan, A., and Raskar, R. (2009). Krill-eye: Superposition compound eye for wide-angle imaging via GRIN lenses. IEEE 12th International Conference on Computer Vision Workshops, 2204-2211.

47. Brückner, A., Duparré, J., Leitel, R., Dannberg, P., Bräuer, A., and Tünnermann, A. (2010).

Thin wafer-level camera lenses inspired by insect compound eyes. Optics Express, 18(24), 24379-24394.

48. Di, S., Lin, H., & Du, R. (2009). An artificial compound eyes imaging system based on MEMS technology. IEEE International Conference on Robotics and Biomimetics, 13-18.

49. Duparre, J. W., Schreiber, P., Dannberg, P., Scharf, T., Pelli, P., Völkel, R., and Bräuer, A.

(2004). Artificial compound eyes: different concepts and their application for ultraflat image acquisition sensors. In Micromachining and Microfabrication, 89-100

50. Duparre J. W., Dannberg, P., Schreiber, P., Braeuer, A., and Tuennermann, A. (2004). Micro-optically fabricated artificial apposition compound eye. Electronic Imaging, 25-33.

51. Brückner, A., Duparrü, J., Brńuer, A., and TŘnnermann, A. (2006). Artificial compound eye applying hyperacuity. Optics express, 14(25), 12076-12084.

52. Duparré, J., Dannberg, P., Schreiber, P., Bräuer, A., and Tünnermann, A. (2004). Artificial apposition compound eye fabricated by micro-optics technology. Applied Optics, 43(22), 4303-4310.

53. İnternet : Anatomy of the SIFT Method URL:

http://www.webcitation.org/query?url=http%3A%2F%2Fwww.ipol.im%2Fpub%2Fart%2F2 014%2F82%2F&date=2016-09-27 , Son Erişim Tarihi : 27.09.2016.

54. Otero, I. R. (2015), Anatomy of the SIFT Method, Unpublished Doctoral Thesis, École normale supérieure de Cachan, Cachan.

55. Land, M. F. (1997). Visual acuity in insects. Annual review of entomology, 42(1), 147-177.

56. Land, M. F. (1997). Microlens arrays in the animal kingdom. Pure and Applied Optics:

Journal of the European Optical Society Part A, 6(6), 599.

57. Land, M. F. (1997). Microlens arrays in the animal kingdom. Pure and Applied Optics:

Journal of the European Optical Society Part A, 6(6), 599.

58. Franceschini, N., Pichon, J. M., Blanes, C., & Brady, J. M. (1992). From insect vision to robot vision [and discussion]. Philosophical Transactions of the Royal Society B: Biological Sciences, 337(1281), 283-294.

59. Horridge, G. A., & Longuet-Higgins, H. C. (1992). What can engineers learn from insect vision [and discussion]. Philosophical Transactions of the Royal Society B: Biological Sciences, 337(1281), 271-282.

60. Srinivasan, M. V., Thurrowgood, S., & Soccol, D. (2009). Competent vision and navigation systems. IEEE Robotics and Automation Magazine, 16(3), 59-71.

61. Warrant, E., Oskarsson, M. and Malm, H. (2014). The remarkable visual abilities of nocturnal insects: neural principles and bioinspired night-vision algorithms. Proceedings of the IEEE, 102(10), 1411-1426.

62. Luke, G. P., Wright, C. H. and Barrett, S. F. (2012). A multiaperture bioinspired sensor with hyperacuity. IEEE Sensors Journal, 12(2), 308-314.

63. Nehorai, A., Liu, Z. and Paldi, E. (2006). Optimal design of a generalized compound eye particle detector array. Proc. Defense and Security Symposium, 62320O-62320O.

64. Zbikowski, R. (2005). Fly like a fly [micro-air vehicle]. IEEE Spectrum, 42(11), 46-51.

65. Nehorai, A., Liu, Z. and Paldi, E. (2006). Optimal design of a generalized compound eye particle detector array. In Defense and Security Symposium. International Society for Optics and Photonics, 62320O-62320O.

66. Duparre, J., Volkel, R. (2006) Novel optics/micro-optics for miniature imaging systems. In:

Photonics Europe. International Society for Optics and Photonics, 619607-619607-15.

67. Song, Y. M., Xie, Y., Malyarchuk, V., Xiao, J., Jung, I., Choi, K. J. and Li, R. (2013). Digital cameras with designs inspired by the arthropod eye. Nature, 497(7447), 95-99.

68. Kopf, J., Uyttendaele, M., Deussen, O. and Cohen, M. F. (2007). Capturing and viewing gigapixel images. In ACM Transactions on Graphics (TOG), 26(3), 93.

69. Cao, Z. L., Oh, S. J. and Hall, E. L. (1985). Dynamic omnidirectional vision for mobile robots.

In 1985 Cambridge Symposium. International Society for Optics and Photonics, 405-414.

70. Roning, J. J., Cao, Z. L. and Hall, E. L. (1987). Color target recognition using omnidirectional vision. In Cambridge Symposium Intelligent Robotics Systems. International Society for Optics and Photonics, 57-64.

71. Cao, Z. and Hall, E. L. (1990). Beacon recognition in omni-vision guidance. In Proceedings of the International Conference on Optoelectronic Science and Engineering, 778-790.

72. Elkins, R. T. and Hall, E. L. (1994, October). Three-dimensional line following using omnidirectional vision. In Photonics for Industrial Applications. International Society for Optics and Photonics, 130-144.

73. Matthews, B. O., Perdue, D. and Hall, E. L. (1995). Omnidirectional vision applications for line following. In Photonics East'95. International Society for Optics and Photonics, 438-449.

74. Burt, P. J. and Adelson, E. H. (1983). A multiresolution spline with application to image mosaics. ACM Transactions on Graphics, 2(4), 217-236.

75. Yasushi, Y. A. G. I. (1999). Omnidirectional sensing and its applications. IEICE transactions on information and systems, 82(3), 568-579.

76. Yagi, Y. and Kawato, S. (1990). Panorama scene analysis with conic projection. In Intelligent Robots and Systems' 90.'Towards a New Frontier of Applications', Proceedings. IROS'90.

IEEE International Workshop, 181-187.

77. Yagi, Y., Kawato, S. and Tsuji, S. (1994). Real-time omnidirectional image sensor (COPIS) for vision-guided navigation. IEEE Transactions on Robotics and Automation, 10(1), 11-22.

78. Hong, J. W., Tan, X., Pinette, B., Weiss, R. and Riseman, E. M. (1990). Image-based navigation using 360 views. In Proceedings of the Image Understanding Workshop, 782-791.

79. Hong, J., Tan, X., Pinette, B., Weiss, R., & Riseman, E. M. (1992). Image-based homing.

IEEE Control Systems, 12(1), 38-45.

80. Yamazawa, K., Yagi, Y. and Yachida, M. (1993). Omnidirectional imaging with hyperboloidal projection. In Intelligent Robots and Systems' 93. Proceedings of the 1993 IEEE/RSJ International Conference, 2, 1029-1034.

81. Yachida, M. (1998). Omnidirectional sensing and combined multiple sensing. In Computer Vision for Virtual Reality Based Human Communications, Proceedings 1998 IEEE and ATR Workshop, 20-27.

82. Peri, V. and Nayar, S. K. (1996). Omnidirectional video system. In Proc. US-Japan Graduate Student Forum in Robotics, 28-31.

83. Nayar, S. K. (1997). Catadioptric omnidirectional camera. In Computer Vision and Pattern Recognition, 1997. Proceedings 1997 IEEE Computer Society Conference, 482-488.

84. Riley, D. T., Harmann, W. M., Barrett, S. F. and Wright, C. H. G. (2008). Musca domestica inspired machine vision sensor with hyperacuity. Bioinspiration & biomimetics, 3(2), 026003.

85. Lee, L. P. and Szema, R. (2005). Inspirations from biological optics for advanced photonic systems. Science, 310(5751), 1148-1150.

86. Internet: Google street view: Capturing the world at street level, URL : http://www.webcitation.org/query?url=http%3A%2F%2Fstatic.googleusercontent.com%2F media%2Fresearch.google.com%2Fen%2F%2Fpubs%2Farchive%2F36899.pdf&date=2016-09-27 , Son Erişim Tarihi 27.09.2017.

87. Brown, M., & Lowe, D. G. (2007). Automatic panoramic image stitching using invariant features. International journal of computer vision, 74(1), 59-73.

88. Güzel, M., Unal, M. (2015). A Survey of Insect Eye Inspired Sensors. Proc. 9th International Conference on Electrical and Electronics Engineering, 139 - 142

ÖZGEÇMİŞ

Kişisel Bilgiler

Soyadı, adı : GÜZEL, Metehan

Uyruğu : T.C.

Doğum tarihi ve yeri : 04.08.1990, Malatya

Medeni hali : Bekar

Telefon : 0 (533) 456 67 80

E-mail : metehanguzel@gazi.edu.tr

Eğitim Lisans Gazi Üniversitesi /Bilgisayar Mühendisliği 2012

Lise Gazi Anadolu Lisesi 2008

İş Deneyimi

Güzel, M., Unal, M. (2015, Kasım). A Survey of Insect Eye Inspired Sensors. 9th International Conference on Electrical and Electronics Engineering

Hobiler

Kitap okuma, Sinema, Gezi

GAZİ GELECEKTİR...

Benzer Belgeler