Die weitreichenden Auswirkungen des vom Menschen verursachten Klimawandels haben sich in Form einer Zunahme der Häufigkeit und Intensität von Extremereignissen wie Überschwemmungen, Tornados, Hurrikans und Tsunamis gezeigt. Trotz des wachsenden Klimarisikos hat sich die globale Anpassungsfähigkeit an Katastrophen nicht entsprechend entwickelt, obwohl die Ziele für nachhaltige Entwicklung einen weltweiten Ansatz fordern. Eines der Hauptprobleme für dieses Anpassungsdefizit ist der Mangel an rechtzeitigen, umfassenden und genauen Daten zur Verfolgung von Schäden auf feinkörniger geografischer Ebene. Herkömmliche Schadensbewertungen mittels Feldumfragen sind ressourcenintensiv und zeitaufwändig, was die flächendeckende Abdeckung sowie die schnelle Bereitstellung humanitärer Hilfe behindert. Feldumfragen können auch unter kognitiven Verzerrungen leiden. Die Verwendung von Satellitenbildern hoher räumlicher Auflösung in Verbindung mit maschinellem Lernen hat zu Fortschritten bei der Schätzung von Katastrophenfolgen auf Pixel- oder Ereignisebene geführt. Diese Ansätze sind auf das Vorhandensein feinkörniger, komplexer Schadenslabels in von Katastrophen betroffenen Regionen angewiesen.
Diese Arbeit präsentiert ein leichtgewichtiges Schadenserkennungsmodell basierend auf maschinellem Lernen und Satellitenbildern hoher räumlicher Auflösung. Unsere Ground-Truth-Daten sind weniger granular als die von bestehenden Segmentierungsmodellen verwendeten Daten. Dies ist ein Vorteil für Entwicklungsländer, denen oft die statistische Kapazität und Ressourcen zur Erstellung von qualitativ hochwertigen lokalen Schadensdaten fehlen. Bei der Evaluierung unseres Modells im Zeitraum von 2011 bis 2019 erreichte es eine Leistung von 90% bei der Erkennung von Naturkatastrophen und eine akzeptable Leistung von 80% in Regionen, die nicht während des Trainings beobachtet wurden. Der Modellansatz wurde anhand lokaler Zerstörungen untersucht, die durch den Hurrikan Iota im Jahr 2021 auf der Insel Providencia verursacht wurden.
Durch die Verwendung von Satellitenbildern konnten wichtige Unterschiede in beschädigten Bereichen festgestellt werden. Das Modell konnte verschiedene Merkmale wie Trümmer von Gebäuden und fehlende Bäume in den post-disaster Bildern erfolgreich identifizieren. Erfolgsfälle zeigten eine präzise Erkennung von Schäden, während Misserfolgsfälle auf begrenzte temporale Auflösung und fehlerhafte menschliche Kennzeichnungen zurückzuführen waren. Eine qualitative Analyse bestätigte die Fähigkeit des Modells, Schäden zu identifizieren. Eine auf Vor- und Nachbildern beruhende Fehldetektion entstand durch bewegte Objekte im Bild, und ein Fehlernichterkennungresultierte aus mangelnder zeitlicher Auflösung und fehlenden Gebäudefeatures.
Im Fokus der Auswertung stand auch die allgemeine Leistung des Modells bei verschiedenen Ereignissen und die Vergleichbarkeit des Modells in- und außerhalb des Trainingskontextes. Unsere Ergebnisse zeigten eine hohe Genauigkeit und eine leistungsstarke Fähigkeit zur Schadensidentifikation in verschiedenen Szenarien. Schließlich bieten zukünftige Arbeiten Potenzial zur Integration weiterer Datenquellen in das Modell sowie zur Erweiterung der Schadenserkennung auf andere Katastrophentypen und Regionen.
Hinterlasse eine Antwort