• Sonuç bulunamadı

Şekil 4. RetinaNet mimarisi

RetinaNet modeli eğitilmesi aşamasında çeşitli zorluklar aşılmıştır. Bunlardan en önemli dikkat edilmesi gereken önemli nokta şudur: Çıktı katmanında, sınıflandırmanın gerçekleştiği bir sınıf alt ağı ve sınırlayıcı kutuların konumlarını tahmin eden bir kutu alt ağı vardır. Çalışmamızda veri kümemiz için yeniden eğitilecek olan sınıf alt ağları dışında her şeyi olduğu gibi koruyarak RetinaNet'ten öğrenmeyi sağladık. Öncelikle modeli tanımlayan bir yapılandırma dosyası kullanmamız gerekti. Ardından kayıtlı kontrol noktalarını kullanarak modeli başlatıldı. Bu sayede model mimarisi eğitilmiş ağırlıklardan ayrılmış oldu. Elimizdeki görüntüleri etiketlemek için colab_utils.annotate fonksiyonu kullandık. Az sayıda görüntü etiketlememiz gerektiği için bu yöntem yeterli oldu. Kontrol noktalarını şablonlanmış modele geri yükleme işlemi kodlama açısından biraz zorlayıcı oldu. İlk önce, sınırlayıcı kutular için kullanılıp atılan bir tahmin edici yaratılması gerekti. Bu tahmin edici son modelle karışmaması için “sahte”

olarak isimlendirildi. Bu sahte tahmin edici TensorFlow kontrol noktası örneği olarak kullanıldı. Modelin tekrar eğitilmesi aşamasına geçildiğinde: önceden eğitilmiş retina modelinin eğitim değişkenleri arasında, ince ayar yapması gereken bazı değişkenler ve önceden eğitilmiş ağırlıklarıyla olduğu gibi tutması gereken değişkenler vardır. Bu değişkenlerden

7 hangilerini kendi verilerimizle ince ayar yapmak istediğinizi seçtik ve bunları bir listede tuttuk.

Eğitimde kullanacağımız her resim için: ilk olarak önişlemeden geçirdik ardından sınıf ve sınırlayıcı kutular dahil olmak üzere bu görüntüler üzerinde tahminler yapmak için modeli kullandık. Arabaların etrafına çizdiğimiz sınırlayıcı kutularla beraber gerçek etiketlere kıyasla modelimizin ne kadar iyi performans gösterdiğini ölçmek için kaybı hesaplatıldı. İnce ayar yapmayı seçtiğimiz eğitilebilir ağırlıkların hangi yöne doğru güncelleneceği belirlemek için bu kayıplar üzerindeki gradyan hesaplatıldı. Son olarak ağırlıklar güncellenerek model eğitildi.

RetinaNet Sonuç :

Eğitimde 5 adet drone görüntüsü kullanıldı.

Şekil 5. Etiketlenmiş araba resimleri

Test verileri kullanılarak çeşitli denemeler yapıldı. Eğitim verisindeki araca benzer şekilde ve benzer açıda duran araçlar yüksek başarı oranıyla(%99) tespit edilirken. Aracın farklı açıyla görüldüğü verilerde düşük başarıyla tespit edildi veya hiç tespit edilemedi.

İleri aşamada eğitim verisi zenginleştirilerek diğer algoritmalara kıyasla daha az eğitim verisi ile başarılı nesne tespiti yapılabilir.

Bazıları çözdüğümüz ve bazıları projeye devam etmek için alternatif bir yol bularak ilerlediğimiz hatalarla karşılaştık. Birçok

Şekil 6. Eğitim verisine benzer bir nesne içeren görüntünün tahmin sonucu

Şekil 7- Tespit edilemeyen nesne

8 hatayla uğraşarak, genel olarak nasıl daha dikkatli olunacağını ve hatalardan nasıl kaçınılacağını anlaşıldı. Öncelikle paketlerin veya çerçevelerin sürümlerinin birbirleri ile uyumlu ve güncel olduğundan emin olmak çok önemlidir. İkinci olarak konfigürasyon dosyasının kendi içinde ve finetune checkpoint olarak verilen model ile uyumlu olması gerekmektedir.

Şekil 8. Çıkarım sonuçları

Şekil 9. Eğitim sonuçları

9 6. Kaynakça

1. Lin, T. Y., Goyal, P., Girshick, R., He, K., & Dollár, P. (2017). Focal loss for dense object detection. In Proceedings of the IEEE international conference on computer vision (pp.

2980-2988).

2. https://towardsdatascience.com/review-retinanet-focal-loss-object-detection-38fba6afabe4

3. Zoph, B., Cubuk, E. D., Ghiasi, G., Lin, T. Y., Shlens, J., & Le, Q. V. (2020, August). Learning data augmentation strategies for object detection. In European Conference on Computer Vision (pp. 566-583). Springer, Cham.

4. Redmon, J., Divvala, S., Girshick, R., & Farhadi, A. (2016). You only look once: Unified, real-time object detection. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 779-788).

5. Duan, K., Bai, S., Xie, L., Qi, H., Huang, Q., & Tian, Q. (2019). Centernet: Keypoint triplets for object detection. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 6569-6578).

6. https://cvgl.stanford.edu/projects/uav_data/, son ziyaret tarihi 29 Haziran 2021

7. https://captain-whu.github.io/DOTA/index.html, son ziyaret tarihi 29 Haziran 2021 [8]https://data.gov.uk/dataset/4921f8a1-d47e-458b-873b-2a489b1c8165/vertical-aerial-photography

8. https://github.com/VisDrone/VisDrone-Dataset, son ziyaret tarihi 29 Haziran 2021

9. Jia, Z., Wang, H., Caballero, R., Xiong, Z., Zhao, J., & Finn, A. (2010, March). Real-time content adaptive contrast enhancement for see-through fog and rain. In 2010 IEEE International Conference on Acoustics, Speech and Signal Processing (pp. 1378-1381).

IEEE.

10. https://paperswithcode.com/task/single-image-deraining/latest, son ziyaret tarihi 29 Haziran 2021

11. Xu, Y., Wen, J., Fei, L., & Zhang, Z. (2015). Review of video and image defogging algorithms and related studies on image restoration and enhancement. Ieee Access, 4, 165-188.

12. Liu, C., Lu, X., Ji, S., & Geng, W. (2014, May). A fog level detection method based on image HSV color histogram. In 2014 IEEE International Conference on Progress in Informatics and Computing (pp. 373-377). IEEE.

10 13. Bossu, J., Hautiere, N., & Tarel, J. P. (2011). Rain or snow detection in image sequences through use of a histogram of orientation of streaks. International journal of computer vision, 93(3), 348-367.

14. Cai, Z., Fan, Q., Feris, R. S., & Vasconcelos, N. (2016, October). A unified multi-scale deep convolutional neural network for fast object detection. In European conference on computer vision (pp. 354-370). Springer, Cham.

15. Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster r-cnn: Towards real-time object detection with region proposal networks. arXiv preprint arXiv:1506.01497.

16. https://arxiv.org/abs/1911.09070, son ziyaret tarihi 29 Haziran 2021

17. https://github.com/kiyoshiiriemon/yolov4_darknet, son ziyaret tarihi 29 Haziran 2021

18. https://towardsdatascience.com/on-object-detection-metrics-with-worked-example216f173ed31e, son ziyaret tarihi 29 Haziran 2021

19. http://www.cvlibs.net/datasets/kitti/

20. https://github.com/Ericsson/eva

Benzer Belgeler