Drones, données et réponse aux catastrophes : une alliance parfaite 🌍
Les catastrophes naturelles et les crises humanitaires augmentent en fréquence et en intensité. Qu'il s'agisse d'inondations, de feux de forêt, de tremblements de terre ou de déplacements massifs de population, ces événements sèment le chaos et suscitent un besoin urgent de connaissance de la situation en temps réel.
Traditionnellement, les intervenants s'appuyaient sur des études de terrain ou des données satellitaires. Mais ces approches sont souvent les suivantes :
- Trop lent
- Trop large
- Ou inaccessible en temps réel
C'est là drones entrez. Légers, portables et capables de naviguer sur des terrains accidentés ou bloqués, les drones peuvent fournir des images aériennes haute résolution en quelques minutes. Et avec une annotation appropriée, cette imagerie devient un terrain d'entraînement pour Modèles d'IA que :
- Détectez les survivants dans les débris ou dans l'eau
- Évaluer l'intégrité des bâtiments et les niveaux d'inondation
- Identifiez les routes bloquées et les voies d'accès ouvertes
- Analyser les mouvements de population dans les camps de réfugiés
Des organisations comme UNOSAT, Médecins Sans Frontières (MSF), et le Croix-Rouge ont déjà intégré des drones à leurs boîtes à outils de crise. Mais pour que les drones soient vraiment intelligents, ils ont besoin d'une chose : des données annotées.
Contexte de l'affaire : Quand l'IA répond à l'urgence humanitaire 🚨
Cette étude de cas est le fruit d'une collaboration entre un laboratoire d'IA axé sur l'humanitaire et une organisation à but non lucratif de cartographie par drones travaillant dans les régions sujettes aux typhons d'Asie du Sud-Est. Le projet avait un objectif clair :
Utilisez des images de drones annotées avec des classes précises et spécifiques à la crise pour former des modèles d'IA capables de prendre en charge prise de décision automatisée lors de catastrophes.
Cas d'utilisation couverts :
- Cartographie des inondations après le cyclone et recherche et sauvetage
- Classification des dommages causés par les séismes dans les villages isolés
- Détection d'obstacles routiers pour l'acheminement de l'aide sur le dernier kilomètre
- Recherche thermique de survivants la nuit
- Suivi de la mise en place et de l'extension des abris d'urgence dans les camps
Avec des milliers d'images de drones collectées en temps réel, le plus gros goulot d'étranglement est devenu : comment transformer rapidement ces données en renseignements ?
Portée de l'ensemble de données : Aerial Eyes on the Ground 🛰️
Les images prises par drone ont couvert 17 zones sinistrées en un an, notamment :
- Zones inondables après le typhon au Myanmar et aux Philippines
- Villages touchés par le tremblement de terre au Népal
- Camps pour personnes déplacées dans le nord de la Syrie
- Zones de feux de forêt en Grèce et au Chili
Spécifications du drone et formats de capture :
- Résolution : images fixes 4K et images vidéo 1080p
- Altitude de vol : 20 à 100 mètres
- Modalités : RGB, thermique et proche infrarouge (NIR)
- Sélection des images : échantillonnage intelligent à 1 à 3 images par seconde pendant les missions en direct
Au total, plus de 120 000 images ont été sélectionnés pour être annotés, capturant différents environnements, conditions météorologiques et d'éclairage, qu'il s'agisse de décombres baignés de soleil ou de camps de réfugiés inondés de pluie.
Défis uniques liés à l'annotation des images prises par drone dans les zones de crise ⚠️
Annoter des images de drones à des fins humanitaires est différent de l'étiquetage du trafic urbain ou des produits de commerce électronique. Les enjeux sont élevés, les images sont chaotiques et les informations requises sont nuancées. Parmi les principaux défis auxquels nous avons été confrontés, citons les suivants :
1. Complexité visuelle élevée
Les scènes de catastrophe sont intrinsèquement désordonnées : débris qui se chevauchent, toits effondrés, eaux de crue boueuses, arbres tombés, biens éparpillés et mouvements flous. Les objets d'intérêt (par exemple, une personne qui fait signe de la main ou une voiture submergée) apparaissent souvent partiellement visibles ou fortement camouflés.
2. Modalités multiples
L'imagerie thermique nécessite une interprétation spécialisée. Par exemple, une signature thermique humaine peut être confondue avec une surface fumante. Les annotateurs ont dû être formés pour les différencier dans des contextes de sauvetage nocturne.
3. Ambiguité de classe
Est-ce une personne debout ou une perche en bois ? Un abri détruit ou un mur effondré ? Dans les zones sinistrées, les frontières entre les classes sont floues. Des directives claires et des exemples de référence concrets sont devenus essentiels.
4. Pressions temporelles
Certaines zones nécessitaient des données annotées 48 heures pour le déploiement dans les systèmes d'IA utilisés par les ONG. Nous avons dû trouver un équilibre rapidité, précision et assurance qualité — tout cela en dessous de la montre.
5. Compréhension culturelle et contextuelle
Reconnaître l'aménagement d'un camp de réfugiés syriens ou les matériaux de toiture traditionnels d'un village népalais a ajouté une autre complexité. Le contexte géographique et architectural a été intégré dans les guides de formation.
Flux de travail d'annotation : du chaos à la clarté
Malgré les difficultés, nous avons mis en place un pipeline d'annotations rationalisé qui a permis d'obtenir des résultats de haute qualité à grande Scale AI.
Configuration des pré-annotations
- Nettoyage et déduplication des données (suppression des cadres flous et superposés)
- Intégration de métadonnées de géolocalisation pour le contexte spatial
- Superposition de cartes de référence pour relier les vues aériennes à des zones géographiques connues
Définitions des classes (présentation simplifiée)
Nous avons défini 25 cours personnalisés, y compris :
- Personne visible (debout, allongée, faisant signe de la main)
- Structure effondrée
- Route bloquée
- Débris flottants
- Zone de largage des secours (zones ouvertes nettoyées)
- Abri d'urgence (tente, bâche, maison de fortune)
- Panache de feu ou de fumée
- Véhicule (ambulance, civil, marqué par une ONG)
Processus d'annotation
- Boîtes de délimitation et masques de segmentation utilisé pour les classes clés
- Boucles de feedback des annotateurs en temps réel
- Aides contextuelles (par exemple, panneaux de comparaison infrarouge-RGB)
- Questions-réponses consensuelles avec au moins deux relecteurs par image
Métriques de vitesse et de précision
- Temps moyen d'annotation par image : 64 secondes
- Précision (révisée par le QA) : 95,1 % d'accord entre les annotateurs
- Délai de livraison (lot) : < 72 heures entre l'image et le jeu de données compatible avec l'IA
Entraîner l'IA : donner un sens à la crise grâce à des modèles 🤖
Avec des ensembles de données annotés en main, la phase suivante a consisté à former des modèles de détection et de segmentation d'objets capables d'inférer des inférences en temps réel sur le terrain.
Modèles utilisés :
- YoloV8 (pour la détection d'objets)
- Segment Anything (SAM) pour affiner la segmentation
- CNN personnalisés formés à la classification des signaux thermiques
Métriques de performance des modèles
- Détection de personnes en RGB : 93,7 % MPa
- Détection de personnes en mode thermique : 86,9 % MPa
- Identification de la structure effondrée : Précision de 81,2 %
- Détection des zones de largage de l'aide : Précision de 94,3 %
Des modèles d'IA formés à partir de ces données de drones annotées ont ensuite été déployés par des ONG partenaires sur des appareils portables de pointe et des ordinateurs portables prêts à être utilisés sur le terrain pour aider à cartographie en direct et prise de décisions.
L'impact humain : de vrais résultats sur le terrain 💡
L'IA n'est pas qu'une question de métriques, c'est aussi une question d'impact. Voici comment les données annotées des drones ont permis de sauver des vies :
✔️ Localisation plus rapide des survivants
La détection thermique a permis d'identifier 14 survivants piégés dans des maisons effondrées au Népal en quelques heures, lors de la réponse au tremblement de terre de 2024.
✔️ Des gouttes d'aide plus intelligentes
Les équipes d'ONG au Myanmar ont utilisé des cartes annotées basées sur l'IA pour identifier les zones de largage plates et sèches, réduisant ainsi les échecs de livraisons de 40 % pendant les crues de mousson.
✔️ Navigation plus sûre
En Syrie, la détection automatique des blocages routiers a permis aux convois humanitaires de se rediriger en temps réel, évitant ainsi les zones dangereuses et économisant jusqu'à 3 heures par itinéraire.
✔️ Meilleure planification des camps
En Grèce, l'analyse de l'aménagement des camps à partir de vues aériennes a permis aux agences des Nations Unies d'optimiser la distribution des tentes et d'améliorer l'accès à l'eau pour plus de 2 000 personnes déplacées.
Ces résultats mettent en lumière une vérité puissante : chaque étiquette compte quand des vies sont en jeu.
Leçons pour l'avenir : développer ce qui fonctionne
Après avoir annoté plus de 100 000 images à travers les continents et les crises, voici ce que nous avons appris :
- L'intégration de l'humain est essentielle: Même avec des modèles robustes, la supervision humaine garantit la précision contextuelle.
- Le géo-contexte, c'est de l'or: Lier les annotations au SIG et aux coordonnées du monde réel ajoute une couche essentielle d'utilisabilité.
- Les données thermiques doivent être traitées différemment: Les annotateurs ont besoin d'une formation spécifique au domaine pour les modalités non visuelles.
- Le délai d'étiquetage est important: La création de pipelines d'intervention rapide est tout aussi importante que la précision des scénarios humanitaires.
Nous développons actuellement des modèles de pré-étiquetage automatisés et des pipelines participatifs pour accélérer l'annotation d'urgence sans sacrifier la précision.
Ce que permettent les données annotées dans les zones sinistrées 🌐
Une annotation de haute qualité transforme les données du drone en :
- Cartographies de crise pour les centres de coordination
- Voies de navigation autonomes pour drones et convois
- Évaluation de la gravité des dommages pour le financement et la reconstruction
- Détection des zones à risque avant la prochaine tempête
Lorsque l'annotation est correctement effectuée, elle devient le infrastructure invisible à l'origine d'actions qui sauvent des vies.
Créons une IA humanitaire qui fonctionne là où cela compte le plus 🤝
À DataVLab, nous pensons que les données peuvent inciter à l'action, en particulier lorsque chaque seconde compte. Si vous développez des outils d'IA pour la réponse humanitaire, nous sommes là pour vous aider à annoter les données de votre drone avec précision, rapidité et en tenant compte de l'impact réel.
Nous avons soutenu des projets d'annotation dans des zones de crise sur les cinq continents et nous comprenons l'équilibre entre urgence, qualité et empathie.
👉 Contactez-nous et copilotons votre prochaine mission humanitaire avec des données efficaces.








