Fliegender Roboter kann sich durch Katastrophen-Trümmern navigieren, Rettungseinsätze unterstützen

Fliegender Roboter kann sich durch Katastrophen-Trümmern navigieren, Rettungseinsätze unterstützen

Forscher haben ein innovatives System für die autonome Erkundung von Luftrobotern und die Koordination von Multi-Robotern in verlassenen Strukturen entwickelt. Das neuartige Konzept, das von einem Team des Robotics Institute (RI) der Carnegie Mellon University erstellt wurde, könnte Ersthelfern dabei helfen, Daten zu sammeln und intelligentere Entscheidungen nach einer Katastrophe zu treffen. Die Forschung konzentrierte sich darauf, redundante Erkundungsbemühungen zu minimieren, Ressourcen zu optimieren und die Effizienz des Entdeckungsprozesses zu verbessern. Seungchan Kim, ein Doktorand am RI, erklärte: “Da es sich um Multiroboter-Erkundung handelt, ist Koordination und Kommunikation zwischen den Robotern entscheidend. Wir haben dieses System so konzipiert, dass jeder Roboter verschiedene Räume erkundet und so die Räume maximiert, die eine festgelegte Anzahl von Drohnen erkunden könnte.”

In dieser neuen Methode priorisieren Drohnen jedes Jahr ungefähr 100 Erdbeben weltweit Schäden, darunter eingestürzte Gebäude und heruntergerissene Stromleitungen. Für Ersthelfer ist die Bewertung der Szene und die Priorisierung von Rettungsbemühungen sowohl kritisch als auch gefährlich. In dieser neuen Methode priorisieren Drohnen das schnelle Erkennen von Türen, da sich wichtige Ziele wie Personen wahrscheinlicher in Räumen als in Korridoren befinden. Um diese entscheidenden Eingänge zu identifizieren, nutzen die Roboter einen Onboard-Lidar-Sensor, um die geometrischen Eigenschaften ihrer Umgebung zu analysieren. Die Drohnen schweben etwa sechs Fuß über dem Boden und wandeln 3D-Lidar-Punktwolkendaten in eine 2D-Transformationskarte um. Diese Karte zeigt das Layout des Raums als Bild aus Zellen oder Pixeln, die die Drohnen dann auf strukturelle Merkmale überprüfen, die auf Türen und Räume hinweisen. Wände werden als belegte Pixel dargestellt, während eine geöffnete Tür oder Durchgang als leere Pixel erscheint. Die Forscher modellierten Türen als Sattelpunkte in den Daten, wodurch die Drohnen Durchgänge erkennen und schnell durch sie hindurch navigieren können. Nach dem Betreten eines Raums wird die Position des Roboters als Kreis auf der Karte visualisiert. Laut dem Team ermöglicht der Ansatz den Drohnen, effizient Räume zu finden und zu betreten, was ihre Fähigkeit zur Suche und Unterstützung von Rettungsaktionen verbessert.

Es gibt zwei Hauptgründe, warum die Forscher einen Lidar-Sensor anstelle einer Kamera gewählt haben. Erstens benötigt ein Sensor weniger Rechenleistung als eine Kamera. Zweitens würde eine Standard-Kamera Schwierigkeiten haben, in staubigen oder rauchigen Umgebungen zu sehen, die häufig in eingestürzten Gebäuden oder an den Schauplätzen von Naturkatastrophen zu finden sind. Die Roboter werden nicht von einer einzigen Basisstation gesteuert. Stattdessen kommuniziert jeder Roboter mit den anderen Robotern und nutzt sein Wissen über die Umgebung, um Entscheidungen zu treffen und die besten Wege zu wählen. Die Liste der Türen und Räume, die von den Luftrobotern untersucht wurden, wird untereinander geteilt, und sie verwenden diese Informationen, um zuvor besuchte Orte zu vermeiden. Tests haben gezeigt, dass die Pipeline des Teams Aufgaben effizient unter den Robotern verteilt und methodische Raumerkundungen unterstützt. Laut den Forschern haben Leistungsbewertungen mit bis zu drei Luftrobotern gezeigt, dass ihre Methode in Simulationen um 33,4 Prozent und in realen Experimenten um 26,4 Prozent besser abschneidet als der Basiswert. Aufgrund der 2D-Transformation von 3D-Voxeln ist der Ansatz auf einstöckige Gebäude beschränkt und verfügt über implizite statt expliziter Kollisionsvermeidung. Zukünftige Arbeiten zielen darauf ab, ihn auf mehrstöckige Gebäude auszudehnen, heterogene Multi-Roboter-Systeme zu erkunden und diese Systeme mit fortgeschrittenen Visionen und Lernmodulen zu verbessern. Die Details der Forschung des Teams wurden im Journal IEEE Robotics and Automation Letters veröffentlicht.