Nach Katastrophen z. B. nach Erdbeben, Tsunamis oder Hurrikans müssen Hilfsgüter unter immensem Zeitdruck im Krisengebiet verteilt werden, um notleidende Menschen rechtzeitig zu erreichen. Hilfsorganisationen sind meist binnen weniger Stunden vor Ort. Sie treffen jedoch auf eine höchst unübersichtliche Lage: zerstörte Straßen und Siedlungen oder Menschen die auf der Flucht sind. Um das Ausmaß der Katastrophe, die Anzahl der Hilfsbedürftigen und mögliche Rettungswege einzuschätzen, nutzen Notfallkoordinatoren derzeit Satellitenbilder. Bis diese jedoch von der betroffenen Region verfügbar und ausgewertet sind, vergeht wertvolle Zeit.
Das World Food Programme der Vereinten Nationen (WFP) setzt daher unbemannte Drohnen ein, die Luftbilder vom Krisengebiet erstellen. Die Einsatzkräfte müssen sich anschließend anhand hunderter Einzelbilder einen Überblick verschaffen. Dies ist zeit- und personalaufwendig und kann deshalb nur stichprobenartig, lückenhaft und nach »Bauchgefühl« durchgeführt werden. Dies hat z. B. zur Folge, dass Hilfsgüter mitunter versehentlich in fast unbewohnte Regionen geschickt werden, während an anderen Orten Menschen vergeblich auf die lebensrettende Hilfe warten.
Eine KI (Künstliche Intelligenz)-getriebene Software, die die Bilder automatisiert und in Echtzeit zusammensetzt und auswertet und zugleich ohne Internetanschluss funktioniert, würde die Verteilung der Hilfsgüter beschleunigen und zugleich sicherstellen, dass sie an der richtigen Stelle ankommen.
Mit einer Software, die Drohnenbilder in Echtzeit auswertet, könnten Einsatzteams von Hilfsorganisationen Regionen für prioritäre Interventionen identifizieren, verlässliche Routen im Katastrophengebiet für LKW-Konvois bestimmen und schneller mit der Verteilung von Hilfsgütern beginnen. Weniger Transporte würden ins Leere laufen und dringend benötigte Hilfe käme schneller zur notleidenden Bevölkerung. Die Auswertung der Bilddaten könnte auch für den Wiederaufbau der zerstörten Infrastruktur genutzt werden.
Grundlage für die vollautomatische und schnelle Analyse von Drohnenbildern ist die Kombination von Bildverarbeitungs- und Deep Learning-Algorithmen, die die Forschenden am Fraunhofer ITWM entwickeln. Deep Learning bezeichnet eine Disziplin des Machine Learning, die für die Auswertung großer Datenmengen künstliche neuronale Netze nutzt. Als Vorbild dienen dafür die biologischen neuronalen Netze wie das menschliche Gehirn.
Damit die Künstliche Intelligenz (KI) den selbstständigen Lernprozess aufnimmt, müssen die Forschenden die Software mit Daten »anfüttern«. Dafür verwenden sie Satellitenaufnahmen aus vergangenen Einsätzen des World Food Programm der Vereinten Nationen (WFP), versehen sie sie mit Informationen zu z. B. Gebäuden oder Straßen. Dieser Prozess wird als Annotation und Modellierung bezeichnet. Nach diesen Vorarbeiten werden diese Rohdaten in das neuronale Netz der Software eingespeist.
Mit diesen aufbereiteten Daten kann das Training des neuronalen Netzes starten. Das findet dort statt, wo die Software am dringendsten gebraucht wird: in Krisen- und Katastrophengebieten. Auf Basis der annotierten Daten und Deep Learning-Algorithmen beginnt die Software neuaufgenommene Bilddaten selbstständig zu erfassen und zu analysieren. Durch die vielen Schichten (sog. Layer) und das wiederholte Verknüpfen von Inhalten können Daten von Deep-Learning Systemen selbst erlernt werden. Im Gegensatz zu klassischen Machine Learning-Verfahren entfällt hierbei das aufwendige und zeitintensive händische Modellieren von Daten.
Im gesamten Entwicklungsprozess spielt die Kooperation mit dem World Food Programme der Vereinten Nationen (WFP) eine zentrale Rolle. Häufig sind große Datensätze, die für den Einsatz von Deep Learning nötig sind, nicht verfügbar. Im Projekt EDDA können Forschende auf echte Realdaten zurückgreifen, die das WFP bei Einsätzen sammelt. Auch beim Training des neuronalen Netzes, das direkt in Krisengebieten stattfindet, ist die Kooperation mit dem World Food Programme der Vereinten Nationen (WFP) entscheidend. Sie schafft maximalen Praxisbezug, denn Einsatzkräfte können die Software in Katastrophengebieten testen. Durch diese Praxistests kann die Software möglichst anwenderfreundlich entwickelt und gleichzeitig das neuronale Netz trainiert werden.
Damit humanitäre Hilfe schneller ans Ziel kommt, müssen Luftaufnahmen möglichst schnell und zuverlässig ausgewertet werden können. Die Bilderkennungs-Software des Fraunhofer ITWM soll mehrere zehntausend Drohnenbilder innerhalb von maximal drei Stunden analysieren und mit einer Sicherheit von mindestens 80 Prozent die Anzahl und den Zustand von Gebäuden bestimmen und nutzbare Routen für den Transport der Hilfsgüter identifizieren. Sie kann auf handelsüblichen Notebooks verwendet werden und funktioniert ohne Internetanschluss, da in Katastrophengebieten häufig die Infrastruktur zerstört ist. Die Bilderkennungs-Software des Fraunhofer ITWM wird für die nicht-kommerzielle Verwendung an Hilfsorganisationen lizenz- und kostenfrei vergeben.
Extreme Wetterphänomene sind eine große Gefahr für die Menschheit, weil sie regelmäßig Naturkatastrophen verursachen. Jährlich verhungern oder sterben zehntausende Menschen, weil Hilfsgüter wie Medikamente oder Nahrung, im Katastrophenfall nicht bei ihnen ankommen. Die Fraunhofer-Zukunftsstiftung fördert die Entwicklung der Deep-Learning-getriebenen Bilderkennungs-Software EDDA, um Notfallkoordinatoren eine fundierte Entscheidungshilfe in Krisenregionen zu bieten. Mit den Analyseergebnissen können Leben gerettet und der anschließende Wiederaufbau stabiler Infrastrukturen beschleunigt werden.