RADAR VERİLERİNDEN DERİN ÖĞRENME İLE DRON, ARAÇ VE İNSANLARIN GERÇEK ZAMANLI TESPİTİ VE SINIFLANDIRILMASI REAL-TIME DETECTION AND CLASSIFICATION OF DRONES, VEHICLES AND HUMANS FROM RADAR DATA USING DEEP LEARNING AHMET GÜNEY ŞENOCAKLI PROF. DR. SENİHA ESEN YÜKSEL ERDEM Danışman Hacettepe Üniversitesi Lisansüstü Eğitim-Öğretim ve Sınav Yönetmeliğinin Elektrik ve Elektronik Mühendisliği Anabilim Dalı için Öngördüğü YÜKSEK LİSANS TEZİ olarak hazırlanmıştır. Haziran 2025 ÖZET RADAR VERİLERİNDEN DERİN ÖĞRENME İLE DRON, ARAÇ VE İNSANLARIN GERÇEK ZAMANLI TESPİTİ VE SINIFLANDIRILMASI Ahmet Güney Şenocaklı Yüksek Lisans, Elektrik ve Elektronik Mühendisliği Danışman: Prof. Dr. Seniha Esen YÜKSEL ERDEM Mayıs 2025, 113 sayfa Bu tez, RAD-DAR menzil-Doppler veri kümesinden türetilen radar görüntülerini kullanarak dron, araba ve insan hedeflerinin gerçek zamanlı tespitini ve sınıflandırılmasını amaçlamaktadır. İlk aşamada, mekânsal özellikleri çıkarmak üzere temel bir CNN mimarisi kurulmuş; ardından zamansal bağımlılıkları yakalamak için CNN-LSTM modeli tasarlanmış ve dikkat mekanizması ile desteklenmiştir. Üçüncü aşamada, radar ısı haritalarına uyarlanan YOLOv8 nesne tespit çerçevesi ile hem sınıflandırma hem de hassas konum belirleme gerçekleştirilmiştir. Son olarak, Transformer tabanlı RT-DETR modeli eğitilerek IoU-duyarlı sorgu seçimi ve verimli hibrit kodlayıcı yapıları sayesinde tüm sınıflarda en yüksek doğruluk ve hatasız dron tespiti elde edilmiştir. Gürültü, düşük çözünürlük ve sınıflar arası imza benzerliği gibi radar kaynaklı zorluklar; normalizasyon, sabit renk ölçekli ısı haritaları ve derin öğrenmenin otomatik özellik çıkarımıyla bastırılmıştır. Deneysel sonuçlar, %99’un üzerinde doğruluk ve kesinlik değerleriyle RT-DETR’in genel olarak en başarılı yöntem olduğunu; YOLOv8’in yüksek hız ve konumlama yetenekleriyle pratik uygulamalarda güçlü bir alternatif sunduğunu; CNN-LSTM’nin zamansal örüntülerde üstünlük sergilediğini; basit CNN yaklaşımının ise kaynak kısıtlı i senaryolarda uygulanabilirliğini koruduğunu ortaya koymuştur. Böylece derin öğrenme ve radar teknolojisinin birleşimiyle yüksek doğrulukta, gerçek zamanlı ve çok yönlü bir hedef tespit sistemi geliştirilebileceği gösterilmiştir. Anahtar Kelimeler: Radar Görüntüleme, Menzil-Doppler Analizi, Dron Tespiti, Evrişimli Sinir Ağları (CNN), Uzun Kısa Süreli Bellek (LSTM), YOLOv8, RT-DETR, Transformer, Nesne Tespiti, Zamansal Modelleme, Gerçek Zamanlı İzleme ii ABSTRACT REAL-TIME DETECTION AND CLASSIFICATION OF DRONES, VEHICLES AND HUMANS FROM RADAR DATA USING DEEP LEARNING Ahmet Güney Şenocaklı Master of Science, Department of Electrical and Electronics Engineering Supervisor: Prof. Dr. Seniha Esen YÜKSEL ERDEM Haziran 2025, 113 pages This thesis targets the real-time detection and classification of drones, cars, and humans in range–Doppler radar imagery derived from the RAD-DAR dataset. A four-stage deep-learning pipeline is proposed. First, a baseline CNN automatically extracts spatial features. Second, temporal dependencies are modelled with a CNN-LSTM architecture enhanced by an attention mechanism. Third, the YOLOv8 object-detection framework is adapted to radar heat-maps, enabling simultaneous classification and precise localisation. Finally, a Transformer-based RT-DETR detector is trained; thanks to its IoU-aware query selection and efficient hybrid encoder, it achieves the highest overall accuracy and flawless drone recognition. Radar-specific challenges such as noise, low resolution and inter-class signature overlap are mitigated through normalisation, fixed colormap heat-maps and the automatic feature-learning capability of deep networks. Experiments surpass 99% accuracy and precision, showing that RT-DETR is the best-performing model, while YOLOv8 offers superior speed and bounding-box quality, CNN-LSTM excels in temporal iii pattern exploitation, and the lightweight CNN remains attractive for resource-constrained deployments. Overall, the study demonstrates that combining radar sensing with modern deep learning yields a highly accurate, real-time and versatile target-detection system. Keywords: Radar Imaging, Range–Doppler Analysis, Drone Detection, Convolutional Neural Networks (CNN), Long Short-Term Memory (LSTM), YOLOv8, RT-DETR, Transformer, Object Detection, Temporal Modelling, Real-Time Surveillance iv TEŞEKKÜR Bu tez, önemli zorluklar ve başarılar ile dolu bir yolculuğun doruk noktasını temsil etmektedir. Bu süreç boyunca bana destek olan ve rehberlik eden herkese derin bir minnettarlık duyuyorum. Her şeyden önce, danışmanım Prof. Dr. Seniha Esen Yüksel Erdem’e, paha biçilmez rehberliği, desteği ve bilgi paylaşımı için içten teşekkürlerimi sunmak isterim. Kendisinin teşvik edici yaklaşımı ve yapıcı geri bildirimleri bu çalışmayı tamamlamamda çok önemli rol oynamıştır. Her zaman yanımda olan, sabırları, sevgileri ve desteğiyle en büyük motivasyon kaynağım olan ailem ve kız arkadaşım; babam Şener Şenocaklı, annem Reyhan Şenocaklı’ya, kardeşim Deniz Şenocaklı’ya ve sevgili kız arkadaşım Selen Akyol’a en derin şükranlarımı sunuyorum. Bana olan inançları, en zorlu anlarda dayanma gücü verdi. ASELSAN’daki ekip arkadaşlarıma da sürekli destekleri ve motivasyonları için teşekkür etmek isterim. Katkıları ve rehberliği için Ayşegül Güleryüz’e, Yıldız Ebru Çetin Yıldırım’a, Dr. Alaettin Zubaroğlu’na, Kerem Tütüncüoğlu’na, Mert Paşa Çukur’a, Okan Çalış’a, Duygu Dil’e, Elif Gaye Aytekin’e, Orhun Oktar’a, Burak Yücel’e, Emir Un’a ve Hüseyin Totan’a teşekkür ederim. Ayrıca, bu yolculuk boyunca yanımda olan, desteğini ve dostluğunu esirgemeyen kıymetli arkadaşlarıma da gönülden teşekkür ederim. Onur Parlak’a, Anıl Karaca’ya, Begüm Yelekin’e, Elif Sadıkoğlu’na, Azra Defne Eroğlu’na, Batu Torun’a, Bora Baş’a, Ali Özer’e, Boran Karaçalık’a teşekkür ediyorum. Haziran 2025 Ahmet Güney Şenocaklı v İÇİNDEKİLER Sayfa ÖZET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i ABSTRACT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii TEŞEKKÜR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v İÇİNDEKİLER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vi TABLOLAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix ŞEKİLLER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . x KISALTMALAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xii 1. GİRİŞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1. Dron Tespitinin Önemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2. Tezin Kapsamı . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3. Katkılar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4. Tezin Organizasyonu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2. TEMEL KAVRAMLAR ve VERİ KÜMESİ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.1. Radar Görüntüleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.1.1. Temel Kavramlar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.2. Radar Görüntü Türleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.3. Matematiksel Temsil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.1.4. Radar Görüntülerinin Yorumlanması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2. Radar Görüntüsü Oluşturma ve Sinyal İşleme Adımları . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2.1. Sinyal İletimi (FMCW) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.2. Sinyalin Alınması ve Karıştırma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.3. Analog-Dijital Dönüşüm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.4. Hızlı Zaman FFT ve Menzil Çıkartımı. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2.5. Yavaş Zaman FFT ve Hız Çıkartımı . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2.6. Işın Şekillendirme (Beamforming) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2.7. Tek Darbe İşleme (Monopulse Processing) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.2.8. Menzil ve Hız Tahmini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 vi 2.2.9. Menzil-Doppler Haritasının Oluşturulması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.2.10. Hedef Tespiti ve CFAR Algoritmaları Kullanılarak Çıkarım . . . . . . . . . . . . . . . . 18 2.3. Radar Görüntüsü Oluşturmak İçin Alternatif Yöntemler . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.3.1. Darbe-Doppler Radarı . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.3.2. Sentetik Açıklıklı Radar (SAR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.4. RAD-DAR Veri Kümesi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.4.1. Genel Bakış . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.4.2. Kayıt Ortamı ve Kurulum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.4.3. Dron Verilerinin Toplanması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.4.4. Veri Kümesi İstatistikleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.4.5. RAD-DAR Veri Kümesinin Güçlü Yönleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.4.6. RAD-DAR Veri Kümesinin Sınırlamaları . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.5. YOLO ve RT–DETR İçin RAD–DAR Veri Kümesinden Görüntü Üretimi . . . . . . 26 2.5.1. RAD–DAR Veri Kümesinde Yüksek ve Düşük SNR Örnekleri . . . . . . . . . . . . . 27 3. İLGİLİ ÇALIŞMALAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.1. Dron Tespiti, Tarihsel Bağlam ve Gelişim Süreci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2. Makine Öğrenmesi ile Dron Tespiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.3. Radar Görüntüleri ile Dron Tespiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4. YÖNTEMLER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 4.1. Evrişimli Sinir Ağı (CNN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.1.1. Veri Yükleme ve Ön İşleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.1.2. CNN Modelinin Mimarisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.1.3. Model Performans Ölçütleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.2. CNN ile LSTM ve Dikkat Mekanizması (Attention Mechanism). . . . . . . . . . . . . . . . . 44 4.2.1. LSTM Katmanlarının Entegrasyonu ve Ayrıntılı Analizi . . . . . . . . . . . . . . . . . . . . 46 4.2.2. Pozisyon Yanlı Dikkat Katmanı . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.3. Radar Görüntüleri için YOLO Nesne Tespiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.3.1. YOLO Algoritmasının Genel Özeti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.3.2. Uygulama Detayları. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.3.3. Radar Görüntülerinde YOLO ile Dron Tespiti Entegrasyonu . . . . . . . . . . . . . . . . 54 vii 4.4. RT-DETR ile Radar Görüntülerinde Nesne Tespiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.4.1. RT-DETR Mimarisi ve Temel Bileşenleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.4.2. RT-DETR Modelinin Uygulaması. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5. DENEYSEL SONUÇLAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.1. CNN Sonuçları ve Performans Analizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.1.1. Uyumsuz Eşleştirme Örnekleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 5.2. CNN-LSTM-Attention Modeli Sonuçları ve Performans Analizi. . . . . . . . . . . . . . . . . 63 5.2.1. Dikkat Mekanizmasının Öğrendiği Bilgiler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.2.2. Uyumsuz Eşleştirme Örnekleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.3. YOLOv8 Sonuçları ve Performans Analizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.3.1. Eğitim Metrikleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.3.2. Uyumsuz Eşleştirme Örnekleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 5.3.3. Test Sonuçları . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 5.4. RT–DETR Sonuçları ve Performans Analizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5.4.1. Eğitim Metrikleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5.4.2. Test Sonuçları . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 6. SONUÇLAR VE KARŞILAŞTIRMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 6.1. Geliştirilen Yöntemlerin Karşılaştırması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 6.1.1. Genel Karşılaştırma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 6.1.2. Gözlemler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 6.2. Yöntemlerimizin Diğer Çalışmalarla Karşılaştırılması . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 6.2.1. DopplerNet ile Performans Karşılaştırması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 6.2.2. YOLO–RD ile Karşılaştırma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 6.2.3. Radar Zamanlama ve Range–Doppler Spektral Hedef Tespiti ile Karşılaştırma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 6.2.4. Özet ve Genel Değerlendirme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 6.3. Sonuç ve Gelecek Çalışmalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 viii TABLOLAR Sayfa Tablo 1.1 İHA Tespit Yöntemleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Tablo 3.1 Literatürdeki Çalışmaların Veri Kümesi Özellikleri . . . . . . . . . . . . . . . . . . . . . 38 Tablo 5.1 Radar Veri Kümesi Üzerinde CNN Performans Ölçütleri . . . . . . . . . . . . . . . . 62 Tablo 5.2 Radar Veri Kümesi Üzerinde CNN–LSTM–Attention Performans Ölçütleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Tablo 5.3 Radar Görüntü Veri Kümesi Üzerinde YOLOv8 Performans Ölçütleri . 72 Tablo 5.4 Radar Görüntü Veri Kümesi Üzerinde RT–DETR Performans Ölçütleri 79 Tablo 6.1 Modellerin Radar Görüntülerindeki Nesne Sınıflandırma Performanslarının Karşılaştırılması . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Tablo 6.2 RT–DETR ve YOLO-RD Modellerinin RAD-DAR / Mini-RD Kümelerindeki Ana Tespit Ölçütleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 ix , ŞEKİLLER Sayfa Şekil 1.1 Geleneksel Döner Kanatlı Dron - DJI Phantom 3 . . . . . . . . . . . . . . . . . . . . . . . 2 Şekil 1.2 Gatwick Havaalanı Olayında Yer Alan Şüpheli Döner Kanatlı Dron [1] 3 Şekil 2.1 FMCW Radar için Sinyal İşleme ve Görüntü Oluşturma Adımları. . . . . 12 Şekil 2.2 Hızlı Zaman ve Yavaş Zaman FFT Süreçlerinin Temsili . . . . . . . . . . . . . . . . 15 Şekil 2.3 Ortalama Hücre Sabit Yanlış Alarm Oranı (CA-CFAR) Algoritması [2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Şekil 2.4 RAD-DAR Veri Kümesi için Yerdeki Güzergahlar [3] . . . . . . . . . . . . . . . . . . 21 Şekil 2.5 RAD-DAR Veri Kümesi için Saha Testi Kurulumu [3] . . . . . . . . . . . . . . . . . 22 Şekil 2.6 Radar Veri Görselleştirmelerinin Karşılaştırması, Menzil–Doppler Yoğunluk Desenlerindeki Farklılıklar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Şekil 3.1 Mikro-Doppler Veri Kümeleri: Farklı Dron Türleri ve Uçan Kuşlara Ait Zaman-Frekans (T-F) Grafikleri, Menzil Profilleri ve Menzil-Zaman Grafikleri [4]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Şekil 4.1 .csv Formatında İşlenmemiş Araç Verisinin İlk 11x9 Örneği . . . . . . . . . . . 39 Şekil 4.2 CNN Modelinin Mimarisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Şekil 4.3 CNN Modelinin Ara Çıktı Boyutları . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Şekil 4.4 CNN-LSTM-Dikkat Mimarisinin Blok Diyagramı. . . . . . . . . . . . . . . . . . . . . . 45 Şekil 4.5 CNN–LSTM–Dikkat Modeline Ait Ara Katman Boyutları . . . . . . . . . . . . . 46 Şekil 4.6 YOLOv8 Blok Diyagram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Şekil 4.7 RT-DETR Blok Diyagram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 Şekil 5.1 CNN Modeli İçin 50 Epok Boyunca Eğitim Kaybı ve Doğruluk Eğrisi 60 Şekil 5.2 CNN Modelinin Araçlar, Dronlar ve İnsanlar Sınıflarında Sınıflandırma Performansını Gösteren Karmaşıklık Matrisi . . . . . . . . . . . . 61 Şekil 5.3 CNN Uyumsuz Eşleştirme Örnekleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 Şekil 5.4 CNN-LSTM-Attention Modeli İçin 40 Epok Boyunca Eğitim Kaybı ve Doğruluk Eğrileri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 x Şekil 5.5 CNN-LSTM-Attention modelinin Araçlar, Dronlar ve İnsanlar Sınıflarında Sınıflandırma Performansını Gösteren Karmaşıklık Matrisi 65 Şekil 5.6 CNN-LSTM-Attention Modeli İçin Dikkat Ağırlıklarının Görselleştirilmesi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Şekil 5.7 CNN-LSTM-Attention Modeli Uyumsuz Eşleştirme Örnekleri . . . . . . . . 67 Şekil 5.8 YOLOv8 Modeli İçin Eğitim Kayıp metrikleri (Box Loss, Class Loss ve DFL Loss) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Şekil 5.9 YOLOv8 Modeli İçin mAP Metrikleri (mAP@50 ve mAP@50-95). . . 69 Şekil 5.10 YOLOv8 İçin Eğitim Sırasında Kesinlik ve Geri Çağırma Eğrileri . . . . 70 Şekil 5.11 YOLOv8 Uyumsuz Eşleştirme Örnekleri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Şekil 5.12 YOLOv8 İçin F1-Güven Skoru Eğrisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Şekil 5.13 YOLOv8 İçin Precision-Recall Eğrisi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Şekil 5.14 YOLOv8 için Karmaşıklık Matrisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 Şekil 5.15 RT–DETR İçin Epok Kayıp Eğrileri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Şekil 5.16 Epok Bazında Kesinlik ve Geri Çağırma Eğrileri . . . . . . . . . . . . . . . . . . . . . . . 76 Şekil 5.17 RT–DETR İçin Sınıf Bazlı Kesinlik–Geri Çağırma Eğrileri . . . . . . . . . . . . 77 Şekil 5.18 RT–DETR Modeli için F1–Güven Skoru Eğrisi . . . . . . . . . . . . . . . . . . . . . . . . 77 Şekil 5.19 RT–DETR Modeli Karmaşıklık Matrisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Şekil 6.1 DopplerNet Modeline Ait Karmaşıklık Matrisi. . . . . . . . . . . . . . . . . . . . . . . . . . 83 Şekil 6.2 Çalışmamızdaki RT–DETR Modeline Ait Karmaşıklık Matrisi . . . . . . . . 84 xi KISALTMALAR AP : Average Precision CNN : Convolutional Neural Network FMCW : Frequency-Modulated Continuous-Wave (radar) FPS : Frames Per Second F1 : Harmonik ortalamalı F1 skoru (kesinlik–geri çağırma) IoU : Intersection-over-Union LSTM : Long Short-Term Memory mAP : mean Average Precision RAD-DAR : Range–Doppler Radar veri kümesi RCS : Radar Cross-Section RT-DETR : Real-Time DEtection TRansformer SNR : Signal-to-Noise Ratio YOLO : You Only Look Once YOLOv8 : Sekizinci sürüm YOLO nesne dedektörü IoU : Intersection-over-Union (Kesişim/Birleşim Oranı) xii 1. GİRİŞ Bu bölümde, yetkisiz İHA faaliyetlerinin yarattığı güvenlik riskleri vurgulanarak döner kanatlı dron tespitinin neden kritik olduğu açıklanmıştır. Mevcut algılama teknolojilerinin (optik, RF, akustik vb.) kısıtları özetlenmiş ve radar tabanlı yaklaşımların öne çıkma gerekçesi tartışılmıştır. Ardından, radar menzil-Doppler verilerinin derin öğrenme ile işlenmesine yönelik literatürdeki boşluk tanımlanmıştır ve bu tezde önerilen CNN (Evrişimli Sinir Ağları), CNN-LSTM-Attention (Evrişimli Sinir Ağları-Uzun Kısa Süreli Bellek-Dikkat), YOLOv8 (You Only Look Once) ile RT-DETR (Gerçek Zamanlı Algılama Dönüştürücüsü) temelli bütüncül çerçevenin hedefleri sunulacaktır. Son olarak, çalışmanın temel katkıları ve tezin kalan bölümlerinin organizasyonuna kısaca değinilecektir. Bu kısımdan itibaren bahsi geçen dron, her zaman döner kanatlı dron olacaktır. 1.1. Dron Tespitinin Önemi İnsansız hava araçlarının (İHA), yaygın olarak bilinen adıyla dronların (döner kanatlı dron), hızla yaygınlaşması: Tarım, güvenlik, medya ve lojistik gibi çeşitli sektörleri dönüştürerek yeni fırsatlar sunmuştur. Ancak, bu yaygın kullanım aynı zamanda önemli güvenlik sorunlarını da beraberinde getirmiştir. Yetkisiz dron faaliyetleri, mahremiyet ihlallerinden casusluğa, hava trafiğiyle etkileşimden kaçakçılığa kadar çeşitli tehditler oluşturmaktadır [3, 5]. Bu ortaya çıkan tehditlere karşı, güvenilir dron tespit sistemleri kamu güvenliğini sağlamak ve kritik altyapıları korumak için hayati hale gelmiştir. Bahsedilen drona örnek olarak Şekil 1.1’de geleneksel bir dron olan DJI Phantom 3’e yer verilmiştir. 1 Şekil 1.1 Geleneksel Döner Kanatlı Dron - DJI Phantom 3 Dronlar, geleneksel güvenlik önlemlerini aşmak, yasaklı alanlara kaçak malzeme sokmak, izinsiz gözetim yapmak ve hatta silah taşımak gibi çeşitli kötü niyetli amaçlarla kullanılmaktadır [3]. Ayrıca, dronların ticari uçuşlarla ve havaalanı operasyonlarıyla etkileşime girdiği olaylar, havacılık güvenliği konusunda ciddi endişelere yol açmıştır [6]. Bu tür olaylar, etkin dron tespit ve önleme stratejilerinin aciliyetini vurgulamaktadır. Buna bir örnek verecek olursak, Gatwick Havalimanı’nda Aralık 2018’de yaşanan dron olayından bahsedebiliriz [1]. Bu olay havacılık güvenliği açısından önemli bir örnek teşkil etmektedir. Yetkisiz bir dronun hava sahasına girmesi nedeniyle 1000’den fazla uçuş iptal edilmiş ve yaklaşık 140.000 yolcu mağdur olmuştur. Olay, dronların havaalanları ve kritik altyapılar için oluşturabileceği riskleri gözler önüne sermiştir. Yetkililer, hava sahasını ihlal eden dronu tespit etmekte zorlanmış ve geniş çaplı bir güvenlik operasyonu yürütülmüştür. Şüpheli drona ait olduğu düşünülen bir görüntü, olay sırasında çekilen video kaydından alınmış olup, dronun kesin kimliği ve operatörüne dair kesin bir sonuca ulaşılamamıştır. Şekil 1.2’de şüpheli drona ait görsele yer verilmiştir. 2 Bu olay, döner kanatlı dron tespit sistemlerinin yetersizliğini göstererek radar tabanlı tespit yaklaşımlarının geliştirilmesine yönelik çalışmaları hızlandırmıştır. Şekil 1.2 Gatwick Havaalanı Olayında Yer Alan Şüpheli Döner Kanatlı Dron [1] Dron tespiti ve sınıflandırılması için çeşitli algılama cihazları kullanılmakta olup her biri kendine özgü avantajlar ve sınırlamalara sahiptir (bkz. Tablo 1.1). Kızılötesi kameralar uzun menzilli tespit için etkilidir ve olumsuz hava koşullarından daha az etkilenir, ancak düşük doğruluğa sahiptir. RF alıcıları dronların varlığını tespit edebilir ve operatörün yerini belirleyebilir, ancak otonom uçuşları tanımlamakta yetersiz kalmaktadır. Radar sistemleri, uzun menzilli algılama yetenekleri ve hava koşullarına karşı dayanıklılıkları sayesinde öne çıkmaktadır, ancak, maliyetli olup RF lisansları konusunda düzenleyici kısıtlamalara tabidir. Optik kameralar yüksek çözünürlükte kimlik belirleme sağlarken düşük maliyetlidir, ancak hava koşullarına oldukça duyarlıdır ve sınırlı algılama menziline sahiptir. Son olarak, akustik sensörler mini boyutlu ve RF tabanlı sensörlerle uyumlu olsa da, son derece düşük algılama menzili ve karmaşık sinyal işleme gereksinimleri nedeniyle kullanım alanları sınırlıdır. 3 Algılama Özelliği Algılama Cihazı Avantajlar Dezavantajlar Algılama Menzili Isı Kızılötesi kamera • Hava koşullarından daha az etkilenir • Uzun menzil • Düşük doğruluk 1 – 15 km RF Sinyali RF alıcısı • Engelsiz tespit • Dron operatörünü tespit edebilir • Otonom uçuşları tespit edemez 3 – 50 km Fiziksel Nesne Radar • Hava koşullarından daha az etkilenir • Uzun menzil • Yüksek maliyet • RF lisansları üzerindeki düzenleyici kısıtlamalar • Engellere karşı savunmasız 1 – 20 km Görünürlük Optik kamera • Düşük maliyet • Mini boyutlu • Yüksek çözünürlüklü tanımlama • Hava koşullarından oldukça etkilenir • Sınırlı menzil ve engellere karşı savunmasız 0.5 – 3 km Akustik Sinyal Akustik alıcı • RF tabanlı sensörlerle uyumlu • Mini boyutlu • Son derece düşük algılama menzili • Düşük doğruluk ve yüksek sinyal işleme karmaşıklığı < 0.2 km Tablo 1.1 İHA Tespit Yöntemleri Radar sistemleri, uzun menzil ve farklı çevresel koşullarda nesneleri algılama yetenekleri nedeniyle dron tespiti için önde gelen bir çözüm haline gelmiştir. Ancak, dronları kuşlar gibi diğer küçük nesnelerden ayırmak önemli bir zorluk oluşturmaktadır. Geleneksel radar sistemleri, tespit edilen nesnelerin yalnızca konumunu rapor etmekte, ancak küçük dronların doğru sınıflandırılması için yeterli bilgi sağlayamamaktadır [7]. Bu sınırlama, radar tabanlı dron tespit sistemlerinde derin öğrenmenin, özellikle menzil-Doppler görüntülerini analiz edip benzersiz Doppler imzalarını tanımlayan CNN entegrasyonunu teşvik etmiştir [8]. CNN’ler yardımıyla menzil-Doppler verileri üzerinde yapılan analizler, dron tespit 4 doğruluğunu önemli ölçüde artırmış, yanlış pozitifleri azaltmış ve gerçek zamanlı performansı geliştirmiştir. Bu gelişmeler, hedef türü ve konumu gibi üst düzey yorumların yapılmasını sağlamış ve güvenlik ile hava sahası izleme uygulamaları için kritik hale gelmiştir. Gelecekte radar, optik ve akustik sensörleri entegre eden çok modlu sistemlerin tespit performansını ve dayanıklılığını daha da artması beklenmektedir [5]. 1.2. Tezin Kapsamı İnsansız hava araçlarının, yaygın adıyla döner kanatlı dronların, gözetim, tarım ve lojistik gibi sektörlerde hızla benimsenmesi, yetkisiz uçuşların doğurduğu kamu güvenliği ve mahremiyet risklerini de beraberinde getirmiştir [3, 5]. Küçük gövde boyutu, değişken hız–yön profili ve karmaşık çalışma ortamları radar ve optik tabanlı klasik tespit yaklaşımlarının başarı oranını düşürmektedir [7]. Bu zorluklar, derin öğrenme yöntemlerinin radar verisiyle bütünleştirilmesini öneren araştırmaları hızlandırmıştır [9, 10]. Bu tez, gerçek menzil–Doppler kayıtlarını içeren RAD–DAR veri kümesi üzerinde döner kanatlı dron, araç ve insan hedeflerinin radar görüntülerinden yüksek doğrulukla tespitini amaçlayan uçtan-uca bir derin öğrenme çerçevesi geliştirmektedir. Öncelikle, gürültü azaltma, yeniden ölçekleme ve sabit renk haritası ile ısı haritası oluşturma adımları uygulanarak radar güç matrisleri YOLO-uyumlu görüntülere dönüştürülmüştür [3, 11]. Ardından dört mimari tasarlanıp eğitilmiştir: 1. CNN – Mekânsal özellikleri doğrudan menzil–Doppler matrisinden çıkaran hafif bir temel ağ. 2. CNN–LSTM–Attention – Radar imzalarındaki zamansal dinamiği LSTM katmanları ve konum yanlı dikkat ile modelleyerek sıralı iyileşme sağlayan hibrit yapı. 3. YOLOv8 – Dönüştürülmüş ısı haritalarında gerçek zamanlı bağlama kutusu tahmini ve sınıflandırma yapabilen evrimleşmiş YOLO çerçevesi. 5 4. RT–DETR – IoU (Birlik Üzerinden Kesişim)-duyarlı sorgu seçimi ve verimli hibrit kodlayıcı içeren Transformer tabanlı, uçtan-uca DETR yaklaşımının radar alanına ilk kez uyarlanmış sürümü [8]. Tüm modeller; doğruluk, kesinlik, geri çağırma, F1 skoru ve mAP@50 gibi standart ölçütlerle karşılaştırılmıştır. Deneysel sonuçlar, dron sınıfında RT–DETR modelinin %100 kesinlik ve %100 geri çağırma ile kusursuz tespit gerçekleştirdiğini, YOLOv8’in ise %100 kesinlik ve %99.33 geri çağırma ile onu çok yakından izlediğini göstermektedir. CNN tabanlı yöntemler, daha düşük hesaplama maliyeti karşılığında yaklaşık %93−94 aralığında F1 doğruluğu sunarken; CNN–LSTM–Attention modeli bu doğruluğu %95.08 seviyesine taşıyarak iyileştirme sağlamıştır. Transformer mimarisi kullanan RT–DETR’in, özellikle düşük radar kesit alanına sahip küçük hedeflerde gösterdiği sağlam tespit yeteneği, hava sahası güvenliği ve kritik altyapı koruması gibi uygulama alanlarında önemli bir ilerleme olarak öne çıkmaktadır [12]. Bu çalışma, radar tabanlı dron tespitinde derin öğrenmenin pratik üstünlüğünü nicel olarak gösterirken, hafifleştirilmiş Transformer tasarımları, çoklu sensör füzyonu ve senaryo çeşitliliği yüksek geniş veri kümeleri gibi gelecek araştırma yönlerine de sağlam bir temel sağlamaktadır. 1.3. Katkılar Bu tez, radar tabanlı dron tespitine yönelik literatürdeki eksik alanları doldurmak amacıyla hem zamansal–mekânsal modellemeyi hem de gerçek-zamanlı Transformer tabanlı tespiti içeren bütüncül bir çerçeve sunmaktadır. Başlıca katkılar aşağıda özetlenmiştir: • Zamansal Bağımlılıkların İlk Kez RAD-DAR’da İncelenmesi: RAD-DAR veri kümesinde ardışık menzil–Doppler kareleri kullanılarak LSTM ve konumsal önyargılı dikkat katmanlarıyla (position-biased attention mechanism) zenginleştirilmiş bir CNN-LSTM mimarisi tasarlanmış, böylece %95 üzeri doğrulukla zamansal korelasyonların sınıflandırma performansını nasıl yükselttiği gösterilmiştir. 6 • YOLOv8’in Radar Görüntülerine Uyarlanması: Isı-haritası temelli görselleştirme ve sabit renk ölçeği standardizasyonu ile YOLOv8 modeli ilk kez RAD–DAR veri kümesine başarıyla entegre edilmiştir. Güncel deneylerde model, %99.01 kesinlik, %97.56 geri çağırma ve %98.27 F1 skoru elde ederek hem sınıflandırma hem de konumlandırma görevlerinde güçlü bir performans sergilemiş, tek-aşamalı mimarisi sayesinde gerçek-zamanlı (>30 FPS) radar hedef tespiti gerçekleştirebilmiştir. • RT-DETR’in Radara Taşınması: Bu çalışma, Real-Time Detection Transformer (RT-DETR) modelini radar verisi üzerinde uygulayan ilk çalışmadır. Verimli hibrit kodlayıcı ve IoU-duyarlı sorgu mekanizması sayesinde, dron sınıfında %100 F1 skoru elde edilmiş; genel olarak ise %99.05 F1 skoru yakalanarak mevcut Transformer tabanlı radar yaklaşımlarının hem doğruluk hem de işlevsellik bakımından önüne geçilmiştir. • Açık ve Tekrarlanabilir Karşılaştırmalı Referans: CNN, CNN-LSTM, YOLOv8 ve RT-DETR mimarilerinin ayrıntılı eğitim/test betikleri, veri hazırlama kodları ve etiket setleriyle birlikte Kaggle ortamında paylaşılmıştır. Böylece RAD-DAR üzerine gelecek araştırmalar için sağlam bir kıyas hattı ve yeniden üretilebilir bir referans noktası sunulmuştur. Bu katkılar, radar sinyal işlemedeki klasik yaklaşımlar ile modern derin öğrenme metodolojilerini birleştirerek dayanıklı, hassas ve gerçek-zamanlı dron tespit sistemleri geliştirilmesine yönelik önemli bir adım oluşturmaktadır. 1.4. Tezin Organizasyonu Tezin organizasyonu şu şekildedir: Bölüm 1, tezin motivasyonunu, katkılarını ve kapsamını sunmaktadır. Bölüm 2, radar görü”ntüleme prensipleri, RAD-DAR veri kümesi açıklaması ve sinyal işleme teknikleri ile ilgili kapsamlı bir arka plan sunmaktadır. Matematiksel temsiller ve görüntü oluşturma adımları detaylandırılmaktadır. 7 Bölüm 3, ilgili çalışmaları detaylıca incelemekte, radar tabanlı dron tespiti için mevcut yöntemlere ve nesne sınıflandırmasında derin öğrenme modellerinin entegrasyonuna odaklanmaktadır. Bölüm 4, önerilen metodolojileri tanıtmakta, CNN, dikkat mekanizmalı CNN-LSTM, YOLOv8 ve RT-DETR mimarilerini RAD-DAR veri kümesi üzerindeki veri ön işleme ve eğitim stratejileriyle birlikte açıklamaktadır. Bölüm 5, önerilen modellerin deneysel sonuçlarını ve performans analizlerini sunmaktadır. Doğruluk, kesinlik, geri çağırma ve F1 skoru gibi değerlendirme metrikleri ve karşılaştırmalı analizler yapılmaktadır. Bölüm 6, tezin bulgularını özetleyerek, önceki çalışmalarla karşılaştırmalı sonuçları ve gelecekteki araştırma yönlerini tartışmaktadır. 2. TEMEL KAVRAMLAR ve VERİ KÜMESİ Bu bölüm, radar tabanlı derin öğrenme yaklaşımımızı kavramsal ve teknik açıdan temellendirmek için gerekli arka planı sunar. Önce radar menzil-Doppler görüntülerinin fiziksel prensipleri, matematiksel temsili ve sinyal işleme adımları ayrıntılandırılır; ardından RAD-DAR veri kümesinin kayıt düzeni, güçlü yönleri ve kısıtları tartışılır. Son olarak, bu ham verilerin YOLOv8 ile RT–DETR modellerine uygun ısı-haritası biçimine dönüştürülme süreci ve bu modellerin değerlendirme metrikleri ele alınır. 2.1. Radar Görüntüleri Radar görüntüleri, radar sistemleri tarafından yakalanan verileri görselleştirmek için önemli bir yöntemdir. Bu görüntüler genellikle iki boyutlu (2D) veya üç boyutlu (3D) matrisler olarak gösterilir ve her bir eleman belirli bir mesafe (menzil) ve göreli hız (Doppler frekansı) ile ilişkilidir. Bu görüntülerdeki renk veya yoğunluk, çevredeki belirli bir noktadan alınan radar sinyalinin gücünü gösterir [7]. 8 2.1.1. Temel Kavramlar • Radar Prensibi: Radar sistemleri, elektromanyetik dalgalar yayarak bu dalgaların nesnelere çarpıp radara geri dönmesi ilkesine dayanır. Bu geri dönen sinyallerin analiz edilmesiyle nesnenin menzili, hızı ve konumu hakkında bilgi edinilir [7]. • Menzil Ölçümü: Hedefe olan mesafe, radar darbesinin gönderilmesi ile yankısının alınması arasındaki zaman gecikmesi (∆t) ölçülerek hesaplanır. Sürekli dalga (CW) radarında, menzil bilgisi frekans modülasyonu ile kodlanır [13]. • Hız Ölçümü: Alınan sinyaldeki frekans kaymasını ifade eden Doppler etkisi, hedefin göreli hızını hesaplamak için kullanılır [14]. 2.1.2. Radar Görüntü Türleri • Menzil Profilleri: Alınan sinyalin çeşitli mesafeler üzerindeki gücünü gösteren tek boyutlu grafiklerdir ve tespit edilen nesnelerin basit bir görünümünü sağlar [7]. • Menzil-Doppler Haritaları: Bu iki boyutlu görüntüler, menzil ve hız bilgilerini birlikte gösterir ve her hücre belirli bir menzil ve hızdaki sinyal yoğunluğunu temsil eder [13]. • Sentetik Açıklıklı Radar (SAR) Görüntüleri: Yüksek çözünürlüklü bu iki boyutlu görüntüler, radar platformunun hareketi sırasında toplanan verilerin işlenmesiyle oluşturulur ve sahnenin ayrıntılı bir analizini sağlar [15]. 2.1.3. Matematiksel Temsil • Alınan Sinyal: Radar tarafından alınan sinyal s(t), hem menzil hem de hız bilgilerini içerir: s(t) = Aej(2πfct+ϕ(t)+ϕD) 9 Burada: – s(t): Radardan alınan kompleks zaman-alanı sinyali, – t: Sinyalin gözlemlendiği zaman değişkeni, – A: Alınan sinyalin genliği, – fc: Taşıyıcı frekans, – ϕ(t): Menzile bağlı faz değişimi, – ϕD = 2πfDt: Doppler kaymasına bağlı faz değişimidir. Bu denklem, radar sistemlerinin mesafe ve hız ölçümleri için faz ve frekans değişikliklerini nasıl kullandığını göstermektedir [7], [13]. • Sinyal Gücü: Hedeften R mesafesinde alınan sinyal gücü P aşağıdaki denklemle ifade edilir: P = PtGtGrλ 2σ (4π)3R4L Burada: – Pt: Gönderilen güç, – Gt ve Gr: Gönderici ve alıcı anten kazançları, – λ: Radar sinyalinin dalga boyu, – σ: Hedefin radar kesit alanı, – L: Sistem kayıplarını ifade eder. Bu denklem, gönderilen güç, mesafe ve diğer faktörlerin alınan sinyal gücünü nasıl etkilediğini göstermektedir [7]. 10 2.1.4. Radar Görüntülerinin Yorumlanması • Yoğunluk: Bir radar görüntüsündeki yoğunluk, nesnelerden yansıyan gücün miktarını gösterir. Daha yüksek yoğunluk, genellikle daha büyük veya daha yansıtıcı hedefleri ifade eder [7]. • Menzil Ekseni: Bu eksen, radardan algılanan nesnelere olan mesafeyi gösterir. Bu eksendeki her hücre, belirli bir mesafe aralığına karşılık gelir [13]. • Doppler Ekseni: Doppler ekseni, algılanan nesnelerin göreli hızını gösterir. Pozitif ve negatif kaymalar, nesnelerin radara doğru mu yoksa radardan uzağa mı hareket ettiğini gösterir [14]. 2.2. Radar Görüntüsü Oluşturma ve Sinyal İşleme Adımları Frekans Modülasyonlu Sürekli Dalga (FMCW) radarlar kullanılarak radar görüntüsü oluşturma işlemi, sinyal üretiminden gelişmiş işlem tekniklerine kadar uzanan bir dizi iyi tanımlanmış adımdan oluşur. RAD-DAR veri kümesi gibi veri kümeleri için bu yöntem, doğru hedef tespiti sağlamak açısından önemlidir [16]. İşlem, düşükten yükseğe doğru frekans taraması yapan bir frekans modüleli sinyalin üretilmesi ve iletilmesiyle başlar. Sinyal bir hedefe çarptığında, hedefin menzil ve hızına ilişkin bilgileri taşıyan bir yansıma sinyali geri döner. Şekil 2.1, bu işlemi ayrıntılı olarak göstermekte ve radar sinyal işleme sırasında kullanılan anahtar adımları vurgulamaktadır. Bu adımlar, sonraki bölümlerde detaylandırıldığı gibi hızlı zaman ve yavaş zaman Fourier dönüşümleri, Doppler ve tek darbe işleme, menzil-Doppler haritası oluşturma ve nihayetinde nesne algılama görevleri için uygun hale getirilen verilerin işlenmesini kapsamaktadır. 11 Şekil 2.1 FMCW Radar için Sinyal İşleme ve Görüntü Oluşturma Adımları 2.2.1. Sinyal İletimi (FMCW) Gönderilen sinyalin matematiksel ifadesi şu şekildedir: stx(t) = Atx cos ( 2πfct+ πµt2 ) Burada: • t: Sinyalin gözlemlendiği zaman değişkeni, • Atx: Sinyalin genliği, • fc: Başlangıç frekansı, • µ = ∆f Tm : Chirp oranı, frekansın zamanla ne kadar hızlı değiştiğini gösterir. Bu yaklaşım, hem mesafe hem de hız ölçümlerinin hassas bir şekilde yapılmasına olanak tanır [17]. 2.2.2. Sinyalin Alınması ve Karıştırma Gönderilen FMCW sinyali bir hedeften yansıdığında, mesafeye bağlı olarak hafif bir gecikmeyle (τ = 2R c ) radara geri döner. Alınan sinyal şu şekilde ifade edilir: srx(t) = Arx cos ( 2πfc(t− τ) + πµ(t− τ)2 ) 12 Yararlı bilgileri çıkarmak için, bu sinyal gönderilen sinyalle karıştırılır ve ara frekans (IF) sinyali elde edilir: sIF(t) = stx(t) · srx(t) Bu işlemin sonucunda oluşan vuruş frekansı (fb), hedefin menzili ile doğrudan ilişkilidir: fb = µτ = 2µR c Burada: • fb: Gönderilen ve alınan sinyaller arasındaki frekans farkını temsil eden vuruş frekansı, • µ: Chirp oranı, • τ : Sinyalin hedefe gidip dönmesi için geçen süre, • R: Hedefin menzili, • c: Işığın boşluktaki hızı. Bu işlem, radarın hedefin mesafesini belirlemesine olanak tanır [16]. 2.2.3. Analog-Dijital Dönüşüm Analog ara frekans (IF) sinyali, Analog-Dijital Dönüşüm (ADC) sırasında dijital formata dönüştürülür. Bu adım, sürekli analog sinyalin dijital bir temsil haline getirilmesini sağlayarak, Fourier dönüşümleri, Doppler işleme ve menzil-Doppler haritası oluşturma gibi dijital sinyal işleme operasyonlarının temelini oluşturur [13]. 13 2.2.4. Hızlı Zaman FFT ve Menzil Çıkartımı Radar sinyal işleme, örneklenmiş ara frekans (IF) sinyalinin Hızlı Zamanlı Hızlı Fourier Dönüşümü (FFT)’ne tabi tutulmasıyla başlar. Bu işlem, her bir chirp için sinyali zaman alanından frekans alanına dönüştürür. Hızlı Zaman FFT çıktısı, frekans spektrumu üretir ve her frekans hücresi belirli bir menzil ile ilişkilidir. Menzil, R, aşağıdaki denklemle hesaplanır: R = fbc 2µ (1) Burada: • fb: FFT çıktısından çıkarılan vuruş frekansı, • c: Işığın boşluktaki hızı, • µ: Chirp oranı (µ = ∆f Tm ) olup, ∆f frekans süpürmesini ve Tm chirp süresini ifade eder. Hızlı Zaman FFT, radar sinyalinin çeşitli mesafelerdeki yoğunluğunu gösteren tek boyutlu bir menzil profili sağlar. Şekil 2.2, Hızlı Zaman ve Yavaş Zaman FFT süreçlerini temsil etmektedir. Hızlı Zaman FFT, tek bir chirp içindeki sinyali analiz ederek menzil profili çıkarırken, Yavaş Zaman FFT, Doppler kaymalarını çıkarmak için bu verileri birden fazla chirp boyunca işler ve algılanan nesnelerin hızını belirler. 2.2.5. Yavaş Zaman FFT ve Hız Çıkartımı Menzil bilgisi elde edildikten sonra, birden fazla chirp üzerinde Yavaş Zamanlı Hızlı Fourier Dönüşümü (FFT) uygulanır. Yavaş Zaman FFT, zaman içindeki faz ve frekans 14 Şekil 2.2 Hızlı Zaman ve Yavaş Zaman FFT Süreçlerinin Temsili değişikliklerini analiz ederek Doppler frekansı kaymalarını (fD) tespit eder ve hedefin göreli hızını belirler. Radyal hız v, şu denklemle hesaplanır: v = fDλ 2 (2) Burada: • fD: Yavaş Zaman FFT çıktısından elde edilen Doppler frekans kayması, • λ: Radar sinyalinin dalga boyudur. Hızlı Zaman FFT (menzil) ve Yavaş Zaman FFT (hız) çıktılarının birleşimi, menzil-Doppler haritasını oluşturarak, yansıyan sinyalin yoğunluğunu hem menzil hem de hız fonksiyonu olarak gösteren iki boyutlu bir temsil sağlar. 2.2.6. Işın Şekillendirme (Beamforming) Işın şekillendirme, radarın belirli yönlere odaklanma yeteneğini artıran gelişmiş bir sinyal işleme tekniğidir. Bu işlem, bir anten dizisinden alınan sinyallerin fazını ve genliğini ayarlayarak radar ışınının istenen hedefe yönlendirilmesini sağlar. Her bir anten elemanına uygulanan faz kayması şu şekilde ifade edilir: ϕn = −2π λ n∆x sin θ (3) 15 Burada: • ϕn: n-inci anten elemanına uygulanan faz kayması, • λ: Radar sinyalinin dalga boyu, • n: Anten dizisindeki eleman indeksini temsil eder, • ∆x: Anten elemanları arasındaki mesafe, • θ: Işının yönlendirilmek istendiği açı. Işın şekillendirme, radarın uzaysal çözünürlüğünü ve doğruluğunu artırarak iletilen ve alınan enerjinin hedefin yönüne odaklanmasını sağlar ve diğer yönlerden gelen parazitleri en aza indirir. 2.2.7. Tek Darbe İşleme (Monopulse Processing) Hedefin açısının daha doğru ölçülmesi için tek darbe işleme (monopulse processing) kullanılır. Bu yöntem, toplam ve fark kanallarından gelen sinyalleri karşılaştırarak açısal tahmini iyileştirir [18]. Tek darbe hata oranı şu şekilde tanımlanır: e(θ) = ∆(θ) Σ(θ) Burada: • e(θ): Hedefin merkezinden sapmayı gösteren tek darbe hata oranı, • ∆(θ): Fark sinyali, iki anten setinden alınan sinyallerin farkı ile hesaplanır, • Σ(θ): Tüm anten elemanlarından alınan sinyallerin toplamını ifade eder. Bu hesaplama, toplam ve fark sinyallerinin göreceli güçlerini değerlendirerek hedefin kesin yönünü belirlemeye yardımcı olur. 16 2.2.8. Menzil ve Hız Tahmini Radar sistemlerinde menzil ve hız, hedeflerin tespit edilmesi ve izlenmesi için kullanılan iki temel parametredir: • Menzil (Range): Menzil, radar ile hedef arasındaki mesafeyi ifade eder. Bu mesafe, gönderilen ve alınan radar darbeleri arasındaki zaman gecikmesi ölçülerek hesaplanır. Menzil R, şu denklemle hesaplanabilir: R = c · t 2 Burada c ışık hızı, t ise radar sinyalinin hedefe gidip dönmesi için geçen süreyi temsil eder. • Hız (Velocity): Hız, hedefin radara göre hareket hızını ifade eder. Bu hız, alınan sinyaldeki Doppler frekans kayması gözlemlenerek ölçülür. Pozitif Doppler kayması hedefin radara doğru hareket ettiğini, negatif kayma ise uzaklaştığını gösterir. Hız v şu denklemle hesaplanabilir: v = ∆f · λ 2 Burada ∆f Doppler kayması, λ ise radar sinyalinin dalga boyudur. 2.2.9. Menzil-Doppler Haritasının Oluşturulması Radar, menzil ve Doppler frekansı verilerini topladıktan sonra, iki boyutlu bir menzil-Doppler haritası oluşturulur. Menzil-Doppler haritası, farklı menzil ve Doppler frekanslarındaki yansıyan sinyal yoğunluğunu gösterir ve çevrenin kapsamlı bir görünümünü sağlar [7]. Bu haritanın her noktası, belirli bir menzil ve Doppler frekansına (hedefin göreli hızına bağlı) karşılık gelir ve yoğunluk, yansıyan sinyalin gücünü temsil eder. Bu harita, birden fazla 17 hedefin hem mesafesini hem de radyal hızını aynı anda görselleştirmeyi sağlar ve doğru hedef tespiti ve izleme için gereklidir. 2.2.10. Hedef Tespiti ve CFAR Algoritmaları Kullanılarak Çıkarım Potansiyel hedefleri belirlemek için radar, Sabit Yanlış Alarm Oranı (CFAR) algoritması uygular. Bu adaptif teknik, çevredeki gürültü seviyesine bağlı olarak tespit eşiğini ayarlayarak hedef tespitinin güvenilirliğini artırır [19]. CFAR algoritmaları, farklı gürültü ve karmaşık senaryolara uyum sağlamak için radar sinyal işleme alanında çok önemlidir. En yaygın kullanılan CFAR türleri arasında Ortalama Hücre CFAR (CA-CFAR), Sıralama İstatistiği CFAR (OS-CFAR) ve En Büyük CFAR (GO-CFAR) bulunur. Bu yöntemler sayesinde, düşük SNR değerlerine sahip zorlu sahnelerde bile yanlış alarm olasılığı kabul edilebilir sınırlar içinde tutulabilir. Ortalama Hücre CFAR (CA-CFAR): CA-CFAR dedektörü, çevredeki gürültü seviyesine dayalı olarak adaptif bir eşik oluşturup sinyal gücünü karşılaştırarak radar tespitlerini gerçekleştirir. Bu işlem, her tespiti bir radar noktasına dönüştürerek, menzil, hız, azimut, sinyal gücü ve zaman gibi bilgileri içeren bir hedef listesi oluşturur. CFAR algoritması Şekil 2.3’te gösterilmektedir. İlk tespitler yapıldıktan sonra veriler, hedeflerin bulunma olasılığının yüksek olduğu alanlara odaklanmak için menzil-Doppler matrislerini kırpılarak rafine edilir. Bu matrisler, araçlar, dronlar veya insanlar gibi belirli hedef türleriyle ilişkili daha küçük alt matrislere bölünür. Bu tezde kullanılan RAD-DAR veri kümesi benzer bir yapıyı takip eder. Veri kümesi, bu hedef kategorilerini ve mesafe-Doppler uzayındaki ayırt edici özelliklerini 400 ms aralıklarla kaydedilen verilerle düzenlemektedir. Bu yapı, fiziksel boyut, radar kesit alanı (RCS) ve insanlarda uzuv hareketi gibi hareketlerden kaynaklanan benzersiz Doppler desenleri gibi özelliklere dayalı hedef sınıflandırma görevlerini desteklemektedir [3]. Böylece, sınıflandırma ağlarına yalnızca bilgi bakımından zengin bölgeler sunularak hem eğitim süresinin kısaltılması hem de modelin genel doğruluğunun artırılması sağlanmaktadır. 18 Şekil 2.3 Ortalama Hücre Sabit Yanlış Alarm Oranı (CA-CFAR) Algoritması [2] Derin Öğrenme Kullanılarak Radar Tespitindeki Gelişmeler: Son yıllarda CNN’ler, geleneksel CFAR yöntemlerine ek veya alternatif olarak radar hedef tespiti görevlerinde uygulanmıştır. Bu derin öğrenme tabanlı yöntemler, özellikle geleneksel CFAR tekniklerinin zorlandığı karmaşık ortamlarda potansiyel göstermektedir. Örneğin, Yavuz ve Kalfa [2], CNN modellerinin zorlu koşullar altında tespit doğruluğunu artırabileceğini göstermiştir. Bu çalışmalar, derin öğrenmenin radar tabanlı tespit görevlerinde güçlü bir araç olabileceğini, uyum kabiliyeti ve dayanıklılığı artırarak klasik CFAR yaklaşımlarına üstünlük sağladığını ortaya koymaktadır. 2.3. Radar Görüntüsü Oluşturmak İçin Alternatif Yöntemler Bu alt bölümde, menzil-Doppler ısı haritalarına alternatif olarak kullanılan başlıca radar görüntüleme yaklaşımlarına değinilecektir. Darbe-Doppler radarı ve SAR gibi tekniklerin temelleri ve nasıl çalıştıkları özetlenecektir. 19 2.3.1. Darbe-Doppler Radarı Darbe-Doppler radar, kısa elektromanyetik dalga darbeleri göndererek ve geri dönen yankıları analiz ederek mesafe ve hız ölçümü yapar. Bu radar tipi, sürekli dalga (CW) radarlara benzer şekilde Doppler kaymalarını ölçer ancak farklı bir işlem yöntemi kullanır [7], [13]. 2.3.2. Sentetik Açıklıklı Radar (SAR) Sentetik Açıklıklı Radar (SAR), hedef bölgenin detaylı görüntülerini oluşturmak için radar platformunun hareketini kullanır. Farklı açılardan veri toplayarak büyük bir anten açıklığı sentezler ve yüksek çözünürlüklü görüntüler üretir. Bu yöntem, arazi haritalama ve sabit nesne gözlemi için yaygın olarak kullanılmaktadır [15], [20]. 2.4. RAD-DAR Veri Kümesi 2.4.1. Genel Bakış RAD-DAR veri kümesi, dronlar, insanlar ve araçları sınıflandırmak için güvenilir etiketli veriler toplamak amacıyla gerçekleştirilen kontrollü bir deneme kampanyasıyla oluşturulmuştur [3]. Bu veri kümesi, Kaggle platformunda CC BY 4.0 lisansı altında herkese açıktır ve radar tabanlı algoritmaların test edilmesi ve değerlendirilmesi için serbestçe kullanılabilir. RAD-DAR veri kümesi, her biri radar hücrelerindeki güç değerlerini (dBm cinsinden) içeren 11 × 61 matrislerden oluşan binlerce CSV dosyasını içermektedir. Veriler, kök dizin hedef sınıfını (örneğin, dron, araç veya insan) belirten ve alt dizinler deney verilerini içeren bir dizin yapısına sahiptir. Yazarların bilgisine göre, bu veri kümesi gerçek bir saha ortamında kaydedilen gerçek verilere dayalı ilk kamuya açık menzil-Doppler radar veri kümesidir [3]. 20 2.4.2. Kayıt Ortamı ve Kurulum Şekil 2.4 RAD-DAR Veri Kümesi için Yerdeki Güzergahlar [3] Kayıt alanı, İspanya’nın Riocabado, Avila kasabasında, maksimum 5 km’ye kadar açık görüş hattına sahip bir çiftliktir. Şekil 2.5’de gösterilen radar sistemi kurulumu, çeşitli koşullarda gerçekleştirilen etkinlikleri kaydederek veri çeşitliliğini sağlamıştır. Veri kümesinin çeşitliliğini artırmak için çeşitli kayıt egzersizleri gerçekleştirilmiş, her hedef farklı mesafe, hız ve yönelimlerde kaydedilmiştir. Kayıt için en uygun yolları belirlemek amacıyla bir görünürlük haritası oluşturulmuştur. Bu çalışma sonucunda iki ana güzergah belirlenmiştir: • Güzergah A: Şekil 2.4’te mavi renkle belirtilen bu güzergah, 2.7 km uzunluğunda olup radardan maksimum 2.5 km uzaklığa ulaşır. Hedefler başlangıçta doğrusal olarak hareket eder, ardından radyal olarak ilerleyerek farklı yönelimlere sahip olur. • Güzergah B: Şekil 2.4’te kırmızı renkle belirtilen bu güzergah, 1.7 km uzunluğunda olup maksimum 1.5 km uzaklığa ulaşır. Bu güzergahın eğimi, kaydedilen verilere çeşitli hedef yönelimleri ekleyerek veri çeşitliliğini artırır. 21 Şekil 2.5 RAD-DAR Veri Kümesi için Saha Testi Kurulumu [3] Her güzergah farklı hızlarda tekrarlanarak, farklı Doppler hücrelerine yayılan güç ölçümlerinin elde edilmesi sağlanmıştır. 2.4.3. Dron Verilerinin Toplanması Dron verilerinin toplanması, DJI Phantom 3 adlı ticari mikro-dron kullanılarak gerçekleştirilen çeşitli uçuş egzersizlerini içermektedir. Tüm uçuşlar, yakınlardaki köyden 22 uzak durmak amacıyla radarın doğusunda gerçekleştirilmiştir. Üç farklı uçuş modeli kaydedilmiştir: 1. Radyal Uçuşlar: Maksimum 3.1 km mesafeye kadar uzanan radyal uçuşlar gerçekleştirilmiştir. 2. Dairesel Uçuşlar: 800 m mesafede merkezlenmiş ve 200 m yarıçapa sahip dairesel uçuşlar kaydedilmiştir. 3. Serbest Uçuşlar: Hız ve irtifa manuel olarak ayarlanarak farklı yönelim ve hızlarla serbest uçuşlar gerçekleştirilmiştir. 2.4.4. Veri Kümesi İstatistikleri Son RAD-DAR veri kümesi, üç sınıfta toplam 17.485 örnek içermekte olup dengeli bir dağılıma sahiptir: • Dronlar: 5.065 örnek (% 28,97) • İnsanlar: 6.700 örnek (% 38,32) • Araçlar: 5.720 örnek (% 32,71) Bu dengeli veri kümesi, sinir ağlarının ve diğer sınıflandırma algoritmalarının eğitimi ve testi için uygundur. 2.4.5. RAD-DAR Veri Kümesinin Güçlü Yönleri RAD-DAR veri kümesinin güçlü yönlerini vurgulamak, bir modelin neden ve hangi koşullarda iyi performans gösterdiğini anlamak için önemlidir. Veri kümesinin çeşitliliği, kontrollü ortamı, dengeli sınıf dağılımı ve detaylı kayıt düzeni gibi faktörler, 23 makine öğrenimi modellerinin sağlamlık ve genelleme yeteneklerine doğrudan katkıda bulunmaktadır. RAD-DAR veri kümesinin en önemli avantajlarından biri, çeşitli gerçek dünya senaryolarını içermesidir. Veri kümesi, farklı mesafelerde, hızlarda ve yönelimlerde kaydedilen dron, insan ve araç radar kayıtlarını içermektedir. Bu çeşitlilik, veri kümesi üzerinde eğitilen makine öğrenimi modellerinin daha geniş bir sınıflandırma zorlukları kümesini ele almasına olanak tanır ve modellerin daha önce görülmemiş verilere karşı genelleme yeteneğini artırır. Gerçek dünya karmaşıklıklarını simüle ederek veri kümesi, farklı ortamlarda etkili bir şekilde çalışabilen radar tabanlı algılama sistemlerinin geliştirilmesi için sağlam bir temel sağlar. Veri kümesinin bir diğer önemli avantajı, verilerin kaydedildiği kontrollü ve gerçekçi ortamdır. Veri, İspanya’nın Riocabado, Avila kasabasındaki bir çiftlikte dikkatlice yönetilen koşullarda kaydedilmiştir. Bu ortam, maksimum 5 km’ye kadar açık görüş hattı sağlayarak veri kalitesini artırmış ve parazitleri en aza indirmiştir. Gerçekçi fakat kontrollü bir ortam, verilerin pratik uygulamalara uygunluğunu korurken, kontrolsüz değişkenlerden kaynaklanan potansiyel tutarsızlıkları önler. Bu nitelikler, RAD-DAR veri kümesini radar tabanlı nesne algılama algoritmalarının kıyaslanması ve geliştirilmesi için ideal bir seçim haline getirmektedir. RAD-DAR veri kümesinin kamuya açık olması, değerini daha da artırmaktadır. Veri kümesi, Kaggle platformunda CC BY 4.0 lisansı altında yayınlanmış olup, araştırmacılar ve geliştiricilerin veriye serbestçe erişmesini, veriyi değiştirmesini ve paylaşmasını sağlamaktadır. Bu düzeyde açıklık, araştırma topluluğu arasında işbirliğini teşvik etmekte, sonuçların tekrarlanabilirliğini artırmakta ve radar tabanlı sınıflandırma tekniklerinin kıyaslanmasını kolaylaştırmaktadır. Ek olarak, veri kümesinin dengeli sınıf dağılımı da dikkat çekici bir avantajdır. Veri kümesi, üç hedef sınıf arasında dengeli bir şekilde dağıtılmış toplam 17.485 örnek içermektedir. Dengeli veri kümesi, makine öğrenimi modellerinin adil bir şekilde eğitilmesini sağlar ve belirli sınıflara yönelik yanlılığı azaltır, böylece algoritmaların genelleme yeteneğini artırır. 24 2.4.6. RAD-DAR Veri Kümesinin Sınırlamaları Her ne kadar RAD-DAR veri Kümesi radar tabanlı nesne sınıflandırma araştırmalarında önemli bir kaynak sağlasa da, bazı sınırlamaları genel kullanılabilirliği ve genelleme yeteneğini etkileyebilir. Bu sınırlamalardan biri, veri kümesinin kapsamının sınırlı olmasıdır. Veri kümesi yalnızca üç hedef sınıfa (dronlar, insanlar ve araçlar) odaklanmaktadır. Bu sınıflar radar tabanlı uygulamalar açısından önemli olsa da, bisikletler, hayvanlar veya büyük araçlar gibi ek hedef türlerinin olmaması, veri kümesinin daha kapsamlı sınıflandırma görevleri için kullanımını kısıtlayabilir. Daha fazla sınıfın eklenmesi, veri kümesinin çok yönlülüğünü ve daha geniş uygulamalara olan uygunluğunu artıracaktır. Bir diğer önemli sınırlama, veri kümesinin sabit matris boyutudur. Her örnek, radar hücrelerinde güç değerlerini içeren 11×61 boyutunda bir matris olarak yapılandırılmıştır. Bu yapı, tutarlı işlemeyi kolaylaştırırken, aynı zamanda veri kümesi üzerinde eğitilen modellerin esnekliğini de sınırlayabilir. Farklı boyut veya konfigürasyonlara sahip veri kümelerine genelleme yapmakta zorlanabilirler. Son olarak, tüm veriler tek bir kayıt alanında (Riocabado, Avila, İspanya) kaydedildiği için çevresel çeşitlilik eksikliği göze çarpmaktadır. Farklı hava ve arazi koşullarının veri kümesinde temsil edilmemesi, radar verilerinin gerçek dünyadaki karmaşıklıklarını tam olarak yansıtmayabilir. Bu durum, RAD-DAR veri kümesi üzerinde eğitilen modellerin, çok yollu yansımaların meydana geldiği kentsel alanlar veya yoğun bitki örtüsüne sahip bölgeler gibi farklı ortamlarda sınırlı performans göstermesine neden olabilir. Farklı kayıt ortamlarının dahil edilmesi, veri kümesinin değerini büyük ölçüde artıracak ve eğitilen modellerin genelleme ve dayanıklılık yeteneklerini iyileştirecektir. Özetle, RAD-DAR veri kümesi, radar tabanlı nesne sınıflandırma araştırmalarında değerli bir temel sağlamakla birlikte, sınıf kapsamının sınırlı olması, sabit matris boyutu, tek kayıt konumu ve çevresel çeşitlilik eksikliği gibi bazı sınırlamaları bulunmaktadır. Bu 25 sınırlamaların ele alınması, veri kümesinin genellenebilirliğini artıracak ve daha geniş radar araştırma ve gerçek dünya uygulamaları için uygun hale getirecektir. 2.5. YOLO ve RT–DETR İçin RAD–DAR Veri Kümesinden Görüntü Üretimi Hem YOLOv8 hem de RT–DETR, giriş olarak RGB kanallı görüntüler beklediğinden, RAD–DAR’daki ham güç matrislerinin ısı haritası biçimine dönüştürülmesi gerekmiştir. Bu bölüm, 11× 61 ölçülerindeki menzil–Doppler güç tablolarının renk-kodlu görsellere çevrilip bağlama kutularıyla etiketlenerek iki dedektörün eğitiminde nasıl kullanıldığını özetler: • Matristen Görsele Dönüşüm : Her radar örneği, menzile karşılık satır, Doppler frekansına karşılık sütun içeren bir güç matrisi olarak başlar. Bu değerler, pikselleri temsil eden uint8 aralığa ölçeklenip sahte renkli bir görüntü oluşturmaktadır. • Renk Haritası Seçimi : Yoğunluk farklarını vurgulamak için jet paleti kullanılmıştır (mavi → düşük, kırmızı → yüksek). – −140 dBm dolayındaki zayıf yansımalar mavi-yeşil tonlara, – −70 dBm’e yaklaşan güçlü yansımalar sarı-kırmızı tonlara dönüştürülerek hem YOLOv8 hem de RT–DETR’in küçük güç farklarını görsel desenler olarak öğrenmesi sağlanmıştır. • Sabit Ölçekli Normalizasyon : Tüm matrisler, −140–−70 dBm bandına min–max yöntemiyle normalize edilerek renk yoğunluklarının veri kümesi genelinde tutarlı kalması sağlanmıştır. Böylece her piksel rengi, hem YOLOv8’de hem de RT–DETR’de aynı fiziksel gücü temsil eder ve ağların genelleme kabiliyeti artar. • Etiketleme ve Dizin Yapısı : Üretilen her ısı haritası, dron, araç, insan ve background sınıflarını içerecek şekilde LabelImg aracıyla bağlama kutuları (xmin, ymin, xmax, ymax) eklenerek etiketlenmiştir. Aynı data.yaml dosya yapısı 26 hem ultralytics.YOLO çağrısında hem de ultralytics.RTDETR çağrısında kullanılmıştır; böylece iki model de radar çıkışlarını standart görüntü dosyaları gibi okunmuş ortak anotasyon biçimiyle eğitilebilmiştir. Bu ön-işleme hattı, radar menzil–Doppler uzayını görsel sinyallere haritalayarak YOLOv8’in tek-geçişli evrişimsel dedektör mimarisiyle ve RT–DETR’in sorgu-tabanlı Transformer mimarisiyle uyumlu bir arayüz oluşturmuştur. Sonuçta her iki model de, ham güç değerleri yerine renk desenlerini öğrenerek %99’a varan doğru tespit performansına ulaşmıştır. 2.5.1. RAD–DAR Veri Kümesinde Yüksek ve Düşük SNR Örnekleri Isı–haritası üretim süreci, RAD–DAR veri kümesindeki yüksek SNR/SCR (signal–to–noise / signal–to–clutter ratio) kareleri ile düşük SNR/SCR karelerini yan yana incelemeye imkân tanır (Şekil 2.6). Kırmızı–sarı tonlarda yoğunlaşan hedef piksel kümelerinin mavi–yeşil arka plan gürültüsünden keskin spektral kontrastla ayrıldığı kareler “yüksek SNR/SCR”, hedef–zemin kontrastının renk skalasında bastırıldığı ve kontur belirsizliğinin ortaya çıktığı kareler ise “düşük SNR/SCR” kategorisine atanmıştır. Gözlem tamamen nitel spektral kontrast analiziyle gerçekleştirilmiştir. Yüksek ve düşük SNR/SCR senaryolarındaki ayrım, hem YOLOv8 hem de RT–DETR’nin güçlü ve zayıf yönlerini somut olarak ortaya koyar: • Yüksek SNR/SCR kareleri hedef imzasının zemin yansımalarına göre baskın, yoğunluk gradyanlarının net olduğu durumlardır. Her iki dedektörde de ≥ 99% doğruluğa katkı sağlamıştır. • Düşük SNR/SCR kareleri speckle gürültüsünün yüksek, hedef enerjisinin zayıf ya da zeminle çakıştığı durumlardır. RT–DETR’de geri-çağırma kaybına, YOLOv8’de ise sınırlı sayıda araç → arkaplan ve araç → dron hatasına yol açmıştır. Araç–dron spektral çakışması. Düşük SNR durumlarında, seyrek yansıma üreten yavaş ya da durağan araçlar büyük radar kesit alanına (RCS) rağmen enerjiyi geniş alana yayarak 27 dron benzeri bir menzil–Doppler örüntüsü oluşturmuştur. Bu durum her iki modelde de araç → dron / arkaplan karışmasının başlıca nedenidir. İnsan–araç örtüşmesi. Benzer biçimde, statik duruşlu veya metal aksesuarlı yayalar RCS’yi artırarak kompakt ve güçlü bir enerji çakışması üretmiş, araç benzeri görünüm sergilemiştir. Bu çakışma, düşük SNR karelerinde insan → araç hatalarını tetiklemiştir. Özetle, yüksek SNR/SCR kareleri, modelleri besleyen kritik “temiz” örnekleri sağlarken; düşük SNR/SCR kareleri hâlen iyileştirilmesi gereken zorlayıcı radar senaryolarını temsil etmektedir. 28 Şekil 2.6 Radar Veri Görselleştirmelerinin Karşılaştırması, Menzil–Doppler Yoğunluk Desenlerindeki Farklılıklar 29 3. İLGİLİ ÇALIŞMALAR Bu bölüm, radar tabanlı dron tespitine dair literatürdeki gelişimi kronolojik olarak inceleyerek alanın evrimini ortaya koymaktadır. Önce küçük İHA’ların algılanmasında yaşanan erken dönem zorluklar ve mikro-Doppler temelli klasik yaklaşımlar özetlenmektedir; ardından makine öğrenmesi ile derin öğrenmenin radar verilerine entegrasyonu sonucu elde edilen başarımlar tartışılmaktadır. Son olarak, çok-lu modalite sistemleri, hafif tespit ağları (YOLO-RD) ve zamansal modellemeye dayalı ConvLSTM gibi güncel yöntemler ele alınarak gelecekteki araştırma eğilimleri değerlendirilmektedir. 3.1. Dron Tespiti, Tarihsel Bağlam ve Gelişim Süreci İnsansız hava araçlarının (İHA), yaygın adıyla dronların, son birkaç on yılda hızla yaygınlaşması, etkili tespit ve izleme sistemlerine olan ihtiyacı artırmıştır. Erken dönem dron tespit yöntemleri, genellikle büyük uçaklar için tasarlanmış geleneksel radar sistemlerine dayanmış, ancak bu sistemler dronların küçük radar kesit alanı (RCS) ve alçak irtifa uçuş desenleri nedeniyle yetersiz kalmıştır [21]. Bu zorluklara yanıt olarak, araştırmacılar küçük İHA’ları tespit edebilecek özel radar teknikleri geliştirmeye başlamıştır. Örneğin, Molchanov ve arkadaşları [22], dronları diğer hava nesnelerinden ayırt etmek için mikro-Doppler imzalarını kullanmayı önermiştir. Mikro-Doppler özelliklerinin, dron pervanelerinin benzersiz hareket karakteristiklerini yakalayarak tespit için ayırt edici imzalar sağladığını ortaya koymuştur [22]. Alan ilerledikçe, tespit yeteneklerini artırmak amacıyla radar sistemlerine makine öğrenmesi algoritmaları entegre edilmiştir. Kim ve Moon [6], mikro-Doppler imzalarına dayalı olarak İHA’ları sınıflandırmak için destek vektör makineleri (SVM) kullanmış ve geleneksel yöntemlere göre doğruluğun arttığını göstermiştir. Derin öğrenmenin ortaya çıkışıyla birlikte, CNN mimarilerinin radar görüntülerinden otomatik olarak özellikler çıkarması tespit performansında önemli ilerlemeler sağlamıştır [3]. 30 Daha sonra, birden fazla sensör modalitesinin entegrasyonu sayesinde yeni gelişmeler kaydedilmiştir. Rahman ve arkadaşları [23], karmaşık ortamlarda tespiti iyileştirmek için radar ve optik sensörlerin birleşimini araştırmıştır. Ayrıca, sentetik açıklıklı radar (SAR) tekniklerini kullanan yaklaşımlar, mekânsal çözünürlüğü artırmak ve hedef kimliğini belirlemek amacıyla incelenmiştir [24]. Son araştırmalar, gelişmiş sinyal işleme ve derin öğrenme teknikleri kullanılarak dronların gerçek zamanlı tespiti ile sınıflandırılmasına odaklanmaktadır. Zhang ve arkadaşları [25], frekans modülasyonlu sürekli dalga (FMCW) radarı ile CNN’leri kullanarak farklı çevresel koşullarda yüksek tespit oranları elde eden gerçek zamanlı bir dron tespit sistemi geliştirmiştir. Ayrıca, Xing ve arkadaşları [26], mikro-Doppler imza çıkarımını iyileştirmek için bistatik radar konfigürasyonları kullanarak İHA tespiti için bir yöntem önermiştir. Özetle, radar görüntüleri yoluyla dron tespitinin evrimi, geleneksel radar yöntemlerinden makine öğrenimi ve derin öğrenme algoritmalarını içeren sofistike sistemlere doğru ilerlemiştir. Bu gelişmeler, dronların küçük boyutu ile karmaşık uçuş desenleri gibi zorlukların üstesinden gelerek tespit ve sınıflandırma yeteneklerini önemli ölçüde artırmıştır. Devam eden araştırmalar, gerçek zamanlı işleme, çeşitli çevrelerde dayanıklılık ve diğer sensör modaliteleriyle entegrasyon gibi konulara odaklanmaktadır. 3.2. Makine Öğrenmesi ile Dron Tespiti Makine öğrenmesi tekniklerinin dron tespitine uygulanması, gözetleme ve savunma sistemlerinin yeteneklerini önemli ölçüde artırmıştır. Geleneksel radar tabanlı yöntemler, dronların küçük boyutları, düşük irtifa uçuşları ve değişken hareket desenleri karşısında genellikle yetersiz kalmıştır. Makine öğrenmesi, verilerden otomatik olarak özellik öğrenme yeteneği sunarak tespit doğruluğunu ve yeni dron teknolojilerine adaptasyonu iyileştirmiştir. Erken dönem makine öğrenmesi yaklaşımları, radar sinyallerinden özellikler çıkarma ve bunları destek vektör makineleri (SVM) gibi algoritmalarla sınıflandırma üzerine odaklanmıştır [6]. Bu yöntemler geleneksel tekniklere göre iyileşme sağlasa da, büyük 31 ölçüde manuel özellik mühendisliğine bağımlıydı ve karmaşık ve dinamik ortamlarda sınırlı kalmıştır. Derin öğrenmenin ortaya çıkışı, yeni bir paradigma değişikliği getirmiştir. Radar spektrogramları ve mikro-Doppler imzalarını işlemek için CNN kullanılmaya başlanmıştır. CNN’ler ham verilerden hiyerarşik özellikler çıkararak sınıflandırma performansını artırmıştır [27]. Örneğin, Kim ve arkadaşları [27], Doppler ve mikro-Doppler spektrogramlarını birleştiren CNN modelleri kullanarak dron tespit doğruluğunu artırmıştır. Tekrarlayan sinir ağları (Recurrent Neural Network - RNN) ve LSTM, radar sinyallerindeki zamansal bağımlılıkları yakalamak için kullanılmış ve tespit yeteneklerini daha da geliştirmiştir [28]. Bu ağlar, radar dönüşlerinin zaman içindeki dizisini modelleyerek, benzersiz uçuş desenleri sayesinde dronları etkili bir şekilde ayırt etmiştir. Üretici Çekişmeli Ağlar (Generative Adversarial Networks - GAN), etiketlenmiş dron verilerinin azlığı sorununu ele almak için incelenmiştir [29]. GAN’ler, sentetik radar imzaları oluşturarak eğitim veri kümelerini artırmış ve tespit modellerinin dayanıklılığı ile genelleme yeteneğini iyileştirmiştir. Transfer öğrenme, geniş veri kümeleri üzerinde önceden eğitilmiş modelleri kullanarak dronlara özgü veri ihtiyacını azaltmak için uygulanmıştır [30]. Bu yaklaşım, mevcut modellerin ince ayar yapılarak dron tespiti görevlerine uyarlanmasını hızlandırmış ve sistemlerin geliştirme sürecini hızlandırmıştır. Radar, optik kameralar ve akustik sensörlerden gelen verilerin entegre edildiği çoklu modalite yaklaşımları, çeşitli çevre koşullarında tespit doğruluğunu artırmak için geliştirilmiştir [31]. Makine öğrenmesi algoritmaları, birden fazla sensörden gelen bilgileri işleyip birleştirerek daha kapsamlı bir tespit yeteneği sunmuştur. Gerçek zamanlı işleme, uç cihazlarda sinir ağlarının dağıtımı için optimizasyon çabalarının merkezinde yer almıştır [32]. Model sıkıştırma ve budama gibi teknikler, hesaplama gereksinimlerini azaltırken tespit performansını koruyarak sınırlı kaynaklara sahip donanımlarda verimli çalışma sağlamıştır. 32 Çekişmeli makine öğrenmesi de incelenmiş ve tespit sistemlerinin yanıltma ve diğer saldırılara karşı savunmasızlığı üzerine çalışmalar yapılmıştır [33]. Güvenilirlik ve güvenliği sağlamak için saldırıya dayanıklı modeller geliştirmek, dron tespit sistemleri için hayati önem taşımaktadır. Sonuç olarak, makine öğrenmesi, otomatik özellik çıkarma, sınıflandırma doğruluğunu artırma ve gerçek zamanlı işleme yetenekleri ile dron tespitinde devrim yaratmıştır. Süregelen araştırmalar, gelişmiş algoritmalar ve teknikleri keşfederek ortaya çıkan zorluklara yanıt vermekte ve dron tespit sistemlerinin etkinliğini artırmayı amaçlamaktadır. 3.3. Radar Görüntüleri ile Dron Tespiti Radar görüntüleme yöntemlerinin dron tespitine uygulanması, son on yılda önemli ölçüde ilerleme kaydetmiştir ve küçük insansız hava araçlarının (İHA) sunduğu benzersiz zorluklara yanıt vermiştir. İlk araştırmalar, mevcut radar sistemlerini bu küçük hedefleri tespit edecek şekilde uyarlamaya odaklanmıştır. 2012 yılında Koch ve Westphal [34], geleneksel radar sistemlerinin zemin yansıması (ground clutter) arasında küçük İHA’ları tespit etmedeki zorluklarını vurgulamıştır. Bu çalışma, yüksek çözünürlüklü radar ve gelişmiş sinyal işleme tekniklerinin tespit yeteneklerini iyileştirme ihtiyacına dikkat çekmiştir. 2014 yılına gelindiğinde, radar görüntülerinden çıkarılan mikro-Doppler imzalarının kullanımı üzerine odaklanılmaya başlanmıştır. Molchanov ve arkadaşları [22], dron pervanelerinin hızlı hareketlerinden kaynaklanan bu mikro-Doppler özelliklerinin küçük İHA’ları kuşlar ve diğer nesnelerden etkili bir şekilde ayırt edebileceğini göstermiştir. Bu çalışma, dron tespitinde mikro-Doppler analizinin temelini oluşturmuştur. 2016 yılında Rahman ve arkadaşları [35], düşük maliyetli koherent radar sistemi kullanarak küçük dronların tespitini araştırmıştır. Küçük hedef tespitine yönelik özel sinyal işleme algoritmaları geliştirmiş ve radar sistemlerinin pratik uygulamalarını iyileştirmiştir. Makine öğrenmesi tekniklerinin entegrasyonu, radar tabanlı dron tespitinde önemli bir dönüm noktası olmuştur. 2017 yılında Kim ve Moon [36], radar görüntülerinden elde edilen 33 mikro-Doppler imzalarına CNN’leri uygulayarak özellik çıkarma işlemini otomatikleştirmiş ve sınıflandırma doğruluğunu artırmıştır. Bu yaklaşım, derin öğrenmenin radar verilerini işleyerek dron tespiti için sunduğu potansiyeli göstermiştir. Ritchie ve arkadaşları [37], dronlar ve kuşların mikro-Doppler sınıflandırması için çoklu radar (multistatic radar) konfigürasyonlarını araştırmıştır. Birden fazla açıdan alınan radar görüntülerini analiz ederek tespit güvenilirliğini artırmış ve yanlış alarmları azaltmıştır, bu da monostatik radar sistemlerinin sınırlamalarını ele almıştır. 2018 yılında Park ve arkadaşları [38], ters sentetik açıklıklı radar (ISAR) görüntülemesini derin öğrenme ile birleştiren bir dron tespit sistemi tanıtmıştır. Gelişmiş sinyal işleme tekniklerini kullanarak radar görüntülerinden mikro-Doppler özelliklerini çıkarmış ve karmaşık ortamlarda tespit performansını artırmıştır. Daha ileri bir gelişme olarak, Jahangir ve Amin [39], radar görüntüleme verileri üzerinde tensor ayrıştırma yöntemleri kullanarak İHA tespiti ve sınıflandırması önermiştir. Bu yaklaşım, hedeflerin mekânsal ve hareket bilgilerini detaylı bir şekilde sağlayarak sınıflandırma doğruluğunu ve dayanıklılığını artırmıştır. 2020 yılında Rahman ve arkadaşları [40], üç boyutlu radar görüntüleme tekniğini dron tespiti için geliştirdi. Bu yöntem, dronların mekânsal özelliklerini yakalayarak diğer nesnelerden daha iyi ayrım sağladı ve karmaşık ortamlarda tespit yeteneklerini geliştirdi. Ek olarak, Chen ve arkadaşlarının [4] çalışması, döner kanatlı dronları uçan kuşlardan ayırt etmek için K-bant frekans modülasyonlu sürekli dalga (FMCW) radarını kullanan kapsamlı bir mikro-hareket sınıflandırma yöntemi sunmaktadır. Bu çalışma, mikro-Doppler özelliklerini, menzil profillerini ve zaman-frekans (T-F) grafiklerini sınıflandırma performansını artırmak için kullanmıştır. Chen ve arkadaşları, dört pervaneli (quadcopter), altı pervaneli (hexacopter) ve sabit kanatlı dronların yanı sıra martı ve biyonik kuş gibi uçan kuşların radar imzalarını içeren geniş bir veri kümesi oluşturmuştur. Yazarlar, T-F grafiğinin renk gösterim genliğini ayarlayarak ve menzil-zaman ile menzil-periyot 34 özelliklerini birleştirerek radar mikro-hareket özelliklerini geliştiren yenilikçi bir veri artırma tekniği önermiştir. Şekil 3.1, çeşitli döner kanatlı, sabit kanatlı dronlar ve uçan bir kuşun radar tabanlı mikro-Doppler imzalarını kapsamlı şekilde sunmaktadır. Zaman–frekans grafiklerinde, döner kanatlı dronlar için rotorların periyodik hareketine bağlı olarak belirgin harmonik bileşenler ortaya çıkarken, sabit kanatlı dron örneğinde daha sabit ve dar bantlı bir Doppler spektral dağılım gözlenmektedir. Biyonik kuş ve gerçek kuş grafiklerinde ise, düzensiz kanat çırpma hareketlerine bağlı olarak düşük frekansta dalgalı ve asimetrik Doppler imzaları dikkat çekmektedir. Menzil profillerinde döner kanatlı dronlar yüksek radar kesit alanına sahip sivri tepe noktaları oluştururken, kuş benzeri hedeflerde genişleyen ve düşük genlikli yankılar belirgin hâle gelmektedir. Menzil–zaman grafikleri analiz edildiğinde, dronlar düz ve kararlı hareket örüntüleri sergilerken, kuşların hareketi, aerodinamik dalgalanmaların etkisiyle düzensiz ve salınımlı bir yapı göstermektedir. Bu karakteristik farklılıklar, radar sistemleriyle kuş–dron ayrımı yapılabilmesi ve ileri seviye hedef sınıflandırma algoritmalarının eğitilmesi için temel bir veri kaynağı oluşturmaktadır. Şekil 3.1 Mikro-Doppler Veri Kümeleri: Farklı Dron Türleri ve Uçan Kuşlara Ait Zaman-Frekans (T-F) Grafikleri, Menzil Profilleri ve Menzil-Zaman Grafikleri [4]. 35 Chen ve arkadaşları, sınıflandırmayı daha da iyileştirmek için hem küresel hem de yerel m-D özelliklerini çıkaracak şekilde tasarlanmış, modifiye edilmiş çok ölçekli CNN kullanmıştır. Ağ, model karmaşıklığı ile özellik çıkarma yeteneği arasında denge kuran hibrit bir bağlantı yapısı içermektedir. Deneysel sonuçlar, AlexNet ve VGG16 gibi geleneksel CNN mimarilerine kıyasla üstün performans göstererek, çeşitli radar veri kümeslerinde daha yüksek sınıflandırma doğruluğu ve genelleme sağlamıştır. Bu çalışma, radar tabanlı dron ve kuş sınıflandırmasının zorluklarını ele almak için ileri düzey sinyal işleme, veri artırma ve derin öğrenme entegrasyonunu örneklendirmiştir. Zhou ve arkadaşları [8], özel olarak Menzil-Doppler radar görüntüleri için tasarlanmış hafif bir nesne tespit ağı olan YOLO-RD’yi tanıtmıştır. Sabit Yanlış Alarm Oranı (Constant False Alarm Rate - CFAR) gibi geleneksel radar tespit teknikleri, karmaşık ortamlarda düşük doğruluk göstermekte ve bu durum derin öğrenme tabanlı alternatiflerin geliştirilmesini zorunlu kılmaktadır. YOLO-RD, YOLOv3 ve DenseNet’ten ilham alarak hesaplama karmaşıklığını azaltırken yüksek tespit doğruluğunu korumaktadır. Model, mini-RD adlı özel bir veri kümesi üzerinde değerlendirilmiş ve Tiny-YOLOv3 ile karşılaştırıldığında üstün performans göstererek, radar tabanlı İHA tespiti için gerçek zamanlı uygulamalar için uygunluğunu kanıtlamıştır. Uzamsal-zamansal radar özellik analizi fikrine dayanan Jia ve arkadaşları [41], trafik sahnelerinde dron tespiti için dikkat tabanlı bir ConvLSTM modeli önermiştir. Statik görüntü tabanlı tespit yaklaşımlarından farklı olarak, bu yöntem Menzil-Doppler dizilerinin zamansal bağımlılıklarını kullanarak hareket desenlerini yakalamaktadır ve bu da İHA’ları diğer hareketli nesnelerden ayırt etmekte kritik önem taşımaktadır. Verimli Kanal Dikkati (Efficient Channel Attention - ECA) entegrasyonu sayesinde, modelleri karmaşık ortamlarda küçük nesne tespitini önemli ölçüde iyileştirmiştir. CARRADA ve RADDet veri kümesleri üzerinde yapılan kıyaslama değerlendirmeleri, sırasıyla %74,51 ve %75,62 mAP sonuçlarıyla mevcut radar tabanlı tespit yaklaşımlarını geride bırakmıştır. Bu çalışma, gerçek zamanlı İHA tespiti için zamansal modellemeyi derin öğrenme mimarileriyle birleştirmenin potansiyelini göstermektedir. 36 Karlsson ve arkadaşları [42], 77 GHz’lik mekanik taramalı bir FMCW radar (SAAB SIRS 1600) kullanarak Model-Aided Drone Classification yaklaşımını tanıtmıştır. Bu çalışma kapsamında kullanılan “Radar measurements on drones, birds and humans with a 77 GHz FMCW sensor” adlı radar verisi, Zenodo platformunda herkese açık olarak yayımlanmıştır [43]. Çalışmada, yalnızca 9 ms’lik bakış süresine sahip menzil–Doppler kesitlerinden beş katmanlı bir CNN ile dron, kuş, insan ve köşe reflektör sınıflandırması gerçekleştirilmiştir. Yazarlar, eğitime dâhil edilmeyen (dağılım dışı) dron tiplerinde düşen doğruluğu telafi etmek için matematiksel bir pervane modeliyle üretilmiş sentetik dron verisi eklemiş; böylece dağılım dışı dron doğruluğunu %78’den %86’ya yükseltirken, tüm dron tipleriyle eğitildiğinde ortalama sınıf doğruluğunu %90 düzeyine çıkarmıştır. Ayrıca, SNR normalizasyonu ve tek tarama tabanlı sınıflandırma senaryosuyla, düşük entegrasyon süresinde dahi güvenilir dron–kuş ayrımı yapılabileceğini göstermişlerdir. Ertekin ve arkadaşları [44], 77 GHz FMCW radardan elde edilen IQ verilerini kısa-zamanlı Fourier dönüşümü ile menzil–Doppler spektrogramlarına dönüştürmüş ve altı farklı dron, iki insan hareketi (yürüme–koşma) ile bir köşe reflektöründen oluşan dokuz hedef sınıfı için toplam ∼ 76 000 örnek içeren bir veri kümesi kullanmıştır [43]. Çalışmada, altı evrişim katmanlı özel bir CNN (tezde “ESA”) ile otomatik özellik çıkarımı yapılmış, bu özellikler doğrusal SVM’e (Support Vector Machine - Destek Vektör Makinesi) beslenerek kuş–dron ayrımını da kapsayan çok-sınıflı bir sınıflandırma gerçekleştirilmiştir. Önerilen hibrit yapı, dokuzlu senaryoda %98.04, yalnızca kuş–dron ikilisinde ise %99.4 doğruluk elde etmiştir. Ayrıca filtre boyutu (3 × 3–7 × 7) ve ağ derinliği üzerine yapılan kapsamlı sıkılaştırma (ablation) çalışmaları, daha derin (6-katman) konfigürasyonun küçük parametre artışına karşın belirgin performans kazancı sağladığını göstermiştir. Sonuçlar, yüksek frekanslı radarlardan türetilen mikro-Doppler imzalarının, hafif CNN–SVM hibritleriyle küçük İHA’ların güvenilir biçimde sınıflandırılabileceğini ortaya koymaktadır. Radar görüntüleme tekniklerinin dron tespiti için zaman içindeki kronolojik gelişimi, geleneksel radar yöntemlerinden makine öğrenimi ve gelişmiş sinyal işleme tekniklerini içeren sofistike sistemlere doğru bir kaymayı yansıtmaktadır. Bu gelişmeler, dronların tespiti, sınıflandırılması ve izlenmesi yeteneğini önemli ölçüde iyileştirmiş ve İHA 37 teknolojileri tarafından sunulan değişen zorluklara çözüm sunmuştur. Tablo 3.1, dron tespit çalışmalarında kullanılan radar veri kümelerinin bant dağılımını, hedef sınıf çeşitliliğini ve erişim durumunu özetlemektedir. Tablo 3.1 Literatürdeki Çalışmaların Veri Kümesi Özellikleri Çalışma Yıl Veri Kümesi / Kaynak Radar Bantı & Modu Hedef Sınıfları Açık Erişim Molchanov [22] 2014 Kuruma özel mikro-Doppler kayıt seti K-band (24 GHz) CW Dron, kuş Hayır Kim & Moon [6] 2016 Kuruma özel menzil–Doppler spektrogramları K-band (24 GHz) FMCW Dron, kuş Hayır Roldan [3] 2020 RAD-DAR veri kümesi K-band FMCW Dron, insan, araç Evet Rahman [23] 2019 Radar + optik saha denemeleri K / W-band FMCW Dron Hayır Kuschel [24] 2015 ISAR uçuş görüntü seti X-band (9.5 GHz) darbe Dron, kuş Hayır Ritchie [37] 2017 NetRAD çoklu-istasyon verisi S-band darbe Dron Hayır Xing [26] 2017 Bistatik mikro-Doppler kayıtları C-band darbe Dron Hayır Zhang [25] 2021 Arazi testi menzil–Doppler dizileri K-band FMCW Dron Hayır Zhou [8] 2023 mini-RD görüntü seti K-band RD görüntü Dron, gemi Hayır Chen [4] 2022 Mikro-hareket (dron/kuş) M-D kümesi K-band FMCW Dron, kuş Hayır Jia [41] 2023 CARRADA & RADDet W-band (77 GHz) MIMO FMCW Yaya, araç, dron Evet Karlsson [42] 2025 KTH 77 GHz FMCW (SAAB SIRS-1600) [43] W-band (77 GHz) FMCW Dron, kuş, insan, köşe reflektörü Evet 4. YÖNTEMLER Bu bölüm, RAD-DAR verilerini işleyerek hedefleri sınıflandırmak ve tespit etmek için izlenen tüm derin öğrenme sürecini ayrıntılarıyla açıklamıştır. İlk olarak ham menzil-Doppler güç matrislerinin ısı haritası üretimi, normalizasyon ve eğitim-test ayrımı 38 gibi ön-işleme adımları sunmuş, ardından sırasıyla klasik CNN mimarisi, zamansal bilgiyi yakalayan CNN-LSTM-Attention yapısı, YOLOv8 dedektörü ve gerçek-zamanlı Transformer tabanlı RT-DETR modeli tanıtmıştır. Her alt bölümde ilgili ağ mimarileri, eğitim konfigürasyonları ve performans ölçüm kriterleri verilerek, dört yaklaşımın nasıl kurulup karşılaştırıldığı bütüncül bir akış içinde ortaya konulmuştur. 4.1. Evrişimli Sinir Ağı (CNN) 4.1.1. Veri Yükleme ve Ön İşleme Bu bölümde, RAD-DAR veri kümesindeki radar tabanlı verilerin CNN sınıflandırması için hazırlanması açıklanmaktadır. Veri kümesi, radar kayıtlarından oluşmaktadır ve üç sınıfa ayrılmıştır: dronlar, insanlar ve araçlar. Her örnek, dBm cinsinden güç değerlerinden oluşan 11 × 61 boyutunda bir matrisle temsil edilmektedir. Şekil 4.1, işlenmemiş araç verisinin yukarıda anlatımı geçen 11x61’lik matrisin ilk 11x9’luk kısmını göstermektedir. Veri, çok sınıflı sınıflandırma için etiketlerin one-hot kodlamasıyla atanmasını sağlayan load data adlı Python fonksiyonu kullanılarak yüklenir. Bu fonksiyon, CSV dosyalarını Pandas DataFrame’lerine dönüştürür, daha sonra NumPy dizilerine çevirir [9]. Bu süreç, eğitim ve değerlendirme için yapılandırılmıştır ve verilerin verimli işlenmesini sağlamıştır. Şekil 4.1 .csv Formatında İşlenmemiş Araç Verisinin İlk 11x9 Örneği Model performansını optimize etmek için aşağıdaki ön işleme adımları uygulanmıştır: 39 • Mutlak Değer Dönüşümü (Absolute Value Transformation): Negatif olmayan girişler sağlar, bu da eğitimi stabilize eder ve özellik temsilini iyileştirir [9]. • Normalizasyon: Güç değerlerini -140 dBm ile -70 dBm arasında yeniden ölçekleyerek tutarlılığı artırır ve modelin daha iyi yakınsama sağlamasına yardımcı olur [45]. • Veri Bölme: Veri kümesi, modelin genelleme yeteneğini değerlendirmek için %80 eğitim ve %20 test verisi olarak bölünür [46]. Ayrıca, performansın daha sağlam ölçülmesini sağlamak amacıyla veri üzerinde 5 katlı çapraz doğrulama (5-fold cross-validation) yöntemi uygulanmıştır. • Yeniden Şekillendirme: Her radar matrisi, CNN giriş formatına uygun olarak 11 × 61× 1 boyutunda bir tensöre dönüştürülür [3, 47]. 4.1.2. CNN Modelinin Mimarisi CNN modeli, radar verilerinden hiyerarşik özellikler çıkaracak şekilde tasarlanmıştır ve verileri üç hedef sınıfa doğru bir şekilde sınıflandırmayı amaçlamaktadır. Mimari, her biri evrişim (convolutional) katmanları, yığın normalizasyonu, aktivasyon fonksiyonları, havuzlama (pooling) katmanları ve düzenleme (dropout) katmanları içeren birkaç bloktan oluşmaktadır [48, 49]. Şekil 4.2’de gösterilen CNN mimarisi, mekânsal çözünürlüğü azaltmak için 3×3 çekirdek boyutuna (kernel size) sahip birden fazla evrişim katmanı ve uzamsal boyutları düşürmek için max-pooling katmanları içermektedir. Bu katmanlar sırasıyla 64,128 ve 256’lık filtre boyutlarından oluşmaktadır. Düzenleme amacıyla sönümleme katmanları da eklenmiştir. Elde edilen özellikler, düzleştirilerek (flatten) tam bağlı (fully connected) katmanlara aktarılır ve nihayetinde radar görüntüleri dron, insan veya araç kategorilerine sınıflandırılır. 40 Şekil 4.2 CNN Modelinin Mimarisi Şekil 4.3, CNN mimarisindeki her katmanın filtre sayısını, çekirdek boyutunu ve havuzlama adımlarından sonra ortaya çıkan ara tensör boyutlarını çizgisel bir akışla özetlemektedir. Her bir blok için ’→’ işaretinden sonra verilen boyutlar verinin o anki boyutunu temsil etmektedir. Bu diyagram, uzamsal boyutların 11 × 61’den önce artırılıp sonra 1 × 3’ye kadar nasıl kademeli biçimde indirildiğini ve özellik derinliğinin 64 → 128 → 256 kanal şeklinde nasıl zenginleştirildiğini görsel olarak göstermektedir. Böylece modelin parametre dağılımı ile hesaplama yükü katman katman takip edilebilir, ağın toplam sıkıştırma oranı ve bilgi yoğunluğu daha anlaşılır hâle gelmektedir. 41 Şekil 4.3 CNN Modelinin Ara Çıktı Boyutları Model, TensorFlow ve Keras kütüphaneleri kullanılarak oluşturulmuş olup derin öğrenme modellerini oluşturmak ve eğitmek için güçlü bir çerçeve sağlamaktadır [50, 51]. Keras’ın Sequential API’si ile model, modüler ve açık bir şekilde tanımlanmıştır [50]. CNN modeli aşağıdaki bileşenlerden oluşmaktadır: • Giriş Katmanı: Model, 11 × 61 × 1 şekline sahip tensörleri kabul eden bir giriş katmanıyla başlar. • Birinci Evrişim Bloğu: – 64 filtreli ve 3 × 3 çekirdek boyutuna sahip iki Conv2D katmanı, ReLU aktivasyon fonksiyonu ve same padding kullanır. 42 – BatchNormalization katmanı, aktivasyonları normalleştirerek eğitimi stabilize eder ve hızlandırır [45]. – 2 × 2 boyutunda MaxPooling2D katmanı, mekânsal boyutları azaltarak temel özellikleri yakalar. – %25 oranında Sönümleme katmanı, aşırı öğrenmeyi (overfitting) önlemek için nöronların bir kısmını rastgele devre dışı bırakır [49]. • İkinci ve Üçüncü Evrişim Blokları: İkinci blokta 128 filtreli, üçüncü blokta ise 256 filtreli Conv2D katmanları bulunur. Bu bloklar daha derin özellikler çıkarır ve sönümleme oranları giderek artırılır (%40’a kadar). • Düzleştirme (Flattening) Katmanı: Evrişimli katmanların çok boyutlu çıktısını tek boyutlu bir vektöre dönüştürerek tam bağlı katmanlar için veriyi hazırlar [10]. Tam Bağlı (Fully Connected) Katmanlar: • Dense katmanı 512 nöron ve ReLU aktivasyonu içerir. • %50 oranında Dropout katmanı aşırı öğrenmeyi önler. • İkinci Dense katmanı 256 nöron ve ReLU aktivasyonu içerir. • Bir başka %50 oranında Dropout katmanı uygulanır. Çıkış Katmanı: Üç sınıf (dron, insan, araç) için 3 nörona sahip Yoğun (Dense) katmanı, sınıf olasılıklarını üretmek için softmax aktivasyon fonksiyonu kullanır [52]. CNN modeli, öğrenme oranını otomatik olarak uyarlayan Adam optimizasyon algoritması ile derlenir [53]. Çok sınıflı sınıflandırma görevleri için uygun olan kategorik çapraz-entropy (categorical cross-entropy) kayıp fonksiyonu kullanılır [54]. Modelin temel performans ölçütü olarak doğruluk (accuracy) izlenir [55]. 43 4.1.3. Model Performans Ölçütleri Model, 50 epoch boyunca 10’luk batch boyutu ile eğitilmiştir. Bu yapılandırma, hesaplama verimliliği ve yakınsama (convergence) kararlılığını dengeleyerek modelin etkili bir şekilde öğrenmesini sağlar. Eğitim sırasında model, kayıp fonksiyonunu minimize etmek için backpropagation ve gradyan inişi (gradient descent) tekniklerini kullanır [51]. Model performansı, test kümesi üzerinde doğruluk (accuracy) ile değerlendirilir ve doğru sınıflandırılan örneklerin toplam örnek sayısına oranı olarak hesaplanır [55]. Aşırı öğrenme potansiyelini değerlendirmek için modeldeki eğitilebilir parametrelerin sayısı rapor edilir [9]. Modelin toplam parametre sayısı 2.196.163 (8.38 MB) olup, bunların 2.195.267 (8.37 MB)’i eğitilebilir ve 896 (3.50 KB)’si eğitilemez parametrelerdir. Uygulama süreci, CNN modelini oluşturmak ve eğitmek için TensorFlow ve Keras kütüphanelerinden yararlanır [50, 51]. Pandas ve NumPy, büyük veri kümelerinin verimli işlenmesini sağlarken; Python ortamında sağlam bir ekosistem sunarak makine öğrenmesi ve veri işleme işlemlerini kolaylaştırır [51]. 4.2. CNN ile LSTM ve Dikkat Mekanizması (Attention Mechanism) Bu alt bölüm, CNN mimarisine LSTM birimlerinin entegrasyonuna odaklanır. Bu entegrasyon, radar veri dizilerindeki zamansal bağımlılıkları yakalayarak modelin hem mekânsal hem de zamansal özelliklere dayalı hedef sınıflandırma yeteneğini artırır [56]. Radar sistemleri, hedeflerin hareketinden ve çevreyle etkileşimlerinden kaynaklanan zamansal dinamikler içeren ardışık veriler yakalar. RAD-DAR veri kümesinde, ardışık radar kareleri, dron, insan ve araç gibi sınıfları ayırt etmek için kritik olan zamansal ilişkiler sergiler [57]. Örneğin, yürüyen bir insanın periyodik hareketi veya bir dronun tutarlı uçuş deseni, sınıflandırma için kullanılabilecek zamansal desenler oluşturur [58]. RAD-DAR veri kümesi, zamansal değişimlerin sınıflar arasında ayrım yapmak için büyük rol oynadığı radar kayıtlarını içerir. Dronlar, zamansal olarak ilişkilendirilebilecek 44 benzersiz uçuş desenleri ve hız değişiklikleri sergiler [54]. İnsanlar, yürüyüş biçimlerinden kaynaklanan periyodik hareketlerle karakterize edilen zamansal imzalar sunar [6]. Araçlar ise genellikle tahmin edilebilir yollar boyunca tutarlı hızlarda hareket ederek dronlar ve insanlardan farklı zamansal desenler oluşturur [59]. LSTM katmanı, bu zamansal bağımlılıkları yakalamak için özellikle uygundur ve RAD-DAR veri kümesindeki hedeflerin doğru şekilde sınıflandırılmasını sağlar [60]. Şekil 4.4, bu çalışmada radar tabanlı hedef sınıflandırma için kullanılan CNN-LSTM-Attention modeli mimarisinin genel blok diyagramını göstermektedir. Girdi olarak alınan radar görüntüleri (11×61), ardışık evrişimsel (CNN) bloklarla işlenerek sırasıyla 64, 128 ve 256 filtre ile uzamsal özellik vektörlerine dönüştürülmektedir. Ardından bu öznitelikler, iki aşamalı LSTM katmanında (256 ve 128 boyutlu gizil durumlar) zamansal olarak modellenmekte; son aşamada ise pozisyon yanlı dikkat mekanizması ile zamansal kareler arasındaki önem dereceleri hesaplanarak sınıflandırma başlığına aktarılmaktadır. Şekil 4.4 CNN-LSTM-Dikkat Mimarisinin Blok Diyagramı Şekil 4.5, önerilen CNN–LSTM–Dikkat mekanizmalı modelin her bir katmanında gerçekleşen boyut dönüşümlerini görsel olarak özetlemektedir. Girdi olarak alınan 11×61×1 boyutundaki radar görüntüsü, ardışık evrişim katmanları ve havuzlama işlemleriyle sırasıyla 5×30×64, 2×15×128 ve 1×7×256 gibi daha düşük mekânsal boyutlara ve daha yüksek kanal derinliğine dönüştürülmektedir. Daha sonra bu öznitelik haritası düzleştirilerek 1792 boyutunda bir vektöre çevrilmekte, ardından zamansal dizilere ayrılarak 7× 256 boyutunda bir sekansa dönüştürülmektedir. LSTM katmanları bu diziler üzerinde zamansal modelleme 45 uygulayarak sırasıyla 7 × 256 ve 7 × 128 boyutlu çıktı üretmektedir. Dikkat mekanizması ise bu çıktılardan 128 boyutlu bağlam vektörü (context vector) oluşturmakta ve sınıflandırma işlemi sırasıyla 512, 256 ve 3 nöron içeren tam bağlı katmanlarla tamamlanmaktadır. Şekil 4.5 CNN–LSTM–Dikkat Modeline Ait Ara Katman Boyutları 4.2.1. LSTM Katmanlarının Entegrasyonu ve Ayrıntılı Analizi Evrişimsel katmanların ardından gelen 3 × 2 × 2 havuzlama işlemi, radar görüntülerinin zamansal ekseninde T = 7 karelik bir ardışık diziyi ortaya çıkarmaktadır. Her bir kare, D = 256 boyutunda bir özellik vektörü ile temsil edilir. Bu T uzunluğundaki sekans, Düzleştirme(Flatten) ve Yeniden-boyutlama(Reshaping) işlemleriyle (B, T,D) biçiminde bir tensöre dönüştürülerek sırasıyla iki adet LSTM katmanına aktarılır (B: batch boyutu). 46 İlk LSTM katmanı, gizil boyutu H1 = 256 olacak şekilde yapılandırılmıştır. Böylece CNN’den gelen her 256-boyutlu uzamsal özelliğin zamansal evrimini doğrudan takip edebilir. Bu katmanda kullanılan kapı denklemleri aşağıdaki gibidir: it = σ(Wixt +Uiht−1 + bi), ft = σ(Wfxt +Ufht−1 + bf ), ot = σ(Woxt +Uoht−1 + bo), c̃t = tanh(Wcxt +Ucht−1 + bc), ct = ft ⊙ ct−1 + it ⊙ c̃t, ht = ot ⊙ tanh(ct), burada xt ∈ R256 giriş vektörü, ht ∈ R256 gizil durum, ct hücre durumu, σ sigmoid aktivasyon fonksiyonu, ⊙ eleman bazlı çarpma, Wi,Wf ,Wo,Wc ∈ R256×256 girdi ağırlıkları ve U∗ ∈ R256×256 gizil ağırlıklardır. Bu katmanın toplam parametre sayısı 525,312’dir. İkinci LSTM katmanı, zamansal bilgiyi daha kompakt temsil etmek amacıyla gizil boyutu H2 = 128 olacak şekilde tanımlanmıştır. Bu katman, birinci LSTM katmanından gelen 256 boyutlu dizileri alır ve her zaman adımı için 128 boyutlu yeni bir özellik dizisi üretir. Parametre sayısı 197,120 olup, toplam LSTM bloğu parametre yükü 722,432’dir. Tek katmanlı bir LSTM yapılandırması, özellikle T = 7 gibi kısa sekanslarda bile 256 boyutlu büyük gizil vektör nedeniyle modelin fazla parametrik hale gelmesine ve genelleme kabiliyetinin azalmasına neden olabilir. Bu nedenle iki katmanlı yapı tercih edilmiştir. İlk katman, uzun vadeli bağıntıları yakalayarak ayrıntılı geçici temsiller üretirken; ikinci katman, daha düşük boyutta sıkıştırma uygulayarak dikkat katmanının ayıklayıcı yapısıyla daha verimli entegrasyon sağlar. 47 4.2.2. Pozisyon Yanlı Dikkat Katmanı RAD–DAR verisi, CNN havuzlaması sonrasında T =7 adet ardışık radar karesini (zamansal dilim) içeren bir tensöre X ∈ RB×T×D indirgenmektedir. Burada B bir batch’teki örnek sayısını, T zaman adımı sayısını (bu çalışmada 7), ve D her karedeki özellik boyutunu (D = 128) temsil etmektedir. Her örnekteki zaman serisi xt ∈ RD ile gösterilen özellik vektörlerinden oluşmaktadır. Bu dizide bilgi yoğunluğu, hedef yankılarının çoğunlukla orta karelere kümelendiği gözlenmiştir. Bu nedenle, LSTM birimlerinin ardından, yüksek enerjili ve güvenilir zamansal dilimleri öncelikli olarak vurgulamak amacıyla pozisyon yanlı dikkat (attention) katmanı uygulanmıştır. Bu özel dikkat mekanizması, hem giriş özelliklerinden içerik tabanlı önem skorları hesaplamakta hem de her kareye önceden tanımlanmış konumsal bir öncelik (prior) uygulamaktadır. Dikkat skorları üç temel bileşenden oluşmaktadır: öğrenilebilir ağırlıklar, içerik önyargısı ve sabit pozisyon önyargısı. İlk olarak her zaman adımı için dikkat skoru et aşağıdaki gibi tanımlanır: et = tanh ( x⊤t W + bt ) Burada W ∈ RD×1 ağırlık matrisi olup, kanallar arası (channel-wise) ortak skor üretir; bt ∈ R ise her zaman adımı için ayrı ayrı öğrenilen içerik önyargısıdır. Bu yapı sayesinde m