Du seuillage classique au Deep Learning
Les méthodes classiques (seuillage, ratio) présentent des limitations : le choix du seuil est manuel, sensible au speckle résiduel, et difficile à généraliser. Les approches par Deep Learning permettent d’automatiser et d’améliorer significativement la détection de changement.
Référence de base : Hamdi et al., Computer Optics, 2021 — DOI: 10.18287/2412-6179-CO-814
Notre pipeline en 4 étapes
Etape 1 : Pré-traitement par CNN Despeckling
Réduction du speckle par réseau de neurones convolutif avant toute analyse DL.
- Référence : Hamdi et al., IEEE Morgeo 2020 — DOI: 10.1109/Morgeo49228.2020.9121890
- Architecture : réseau convolutif 17 couches, noyaux 3×3
- Cette approche surpasse les filtres classiques pour la préservation des détails fins
Etape 2 : Segmentation par Mask R-CNN
Mask R-CNN (He et al., 2017) combine détection d’objets et segmentation d’instances pour délimiter précisément les régions changées et non-changées.
- Architecture : backbone CNN + Regional Proposal Network (RPN) + RoI Align + 3 branches (classification, box regression, mask prediction)
- Application : segmentation pixel-level des zones inondées
Etape 3 : Augmentation de données
Dataset initial : 100 patches de 224×224×3 pixels, augmenté à 1104 images par :
- Translations aléatoires (±20 pixels)
- Rotations (0°, 90°, 180°, 270°)
- Flips horizontaux et verticaux
- Redimensionnement léger (±10%)
La taille 224×224 correspond à la couche d’entrée standard de ResNet-18.
Etape 4 : Transfer Learning avec ResNet-18
ResNet-18 est pré-entraîné sur ImageNet (>1 million d’images, 1000 classes). Les trois dernières couches sont remplacées par :
- Nouvelle couche Fully Connected (FC)
- Nouvelle couche Softmax
- Nouvelle couche de Classification : 2 classes (changé / non-changé)
Entraînement : 810 itérations, 10 epochs, batch size 10, split 70%/30% train/test.
Optimiseur : SGD avec momentum 0.9, learning rate 0.001.
Fonction de perte : Cross-Entropy.
Tableau comparatif des résultats
| Méthode | Dataset | FCM (Q%) | DCNet (Q%) | Notre méthode (Q%) | Notre méthode (F1%) |
|---|---|---|---|---|---|
| Résultats | Eddahbi SAR | 81.2 | 88.5 | 94.84 | 93.1 |
Résultat clé : Précision globale de 94.84% sur le dataset El Mansour Eddahbi, surpassant FCM (+13.6%) et DCNet (+6.3%).
Architecture ResNet-18 : résidus et skip connections
L’innovation de ResNet repose sur les connexions résiduelles (skip connections) :
H(x) = F(x) + x
- F(x) : transformation apprise par les couches convolutives
- x : identité (skip connection) — évite le problème de vanishing gradient
- 18 couches pondérées : 8 blocs résiduels + FC + Softmax
Références publiées
- Hamdi et al. (2021) — Change Detection in SAR Images using Deep Learning — Computer Optics, Vol. 45, No. 2 — DOI: 10.18287/2412-6179-CO-814
- Hamdi et al. (2020) — CNN-Based SAR Image Despeckling — IEEE Morgeo 2020 — DOI: 10.1109/Morgeo49228.2020.9121890
Points clés à retenir
- Le pipeline CNN + Mask R-CNN + ResNet-18 atteint 94.84% de précision sur les inondations SAR
- Le Transfer Learning permet d’obtenir de bonnes performances avec peu de données (<1000 images)
- L’augmentation de données est indispensable pour les datasets SAR de petite taille
- Les skip connections de ResNet résolvent le problème de vanishing gradient pour les réseaux profonds
