Deutsche Wissenschaftler verleihen Robotern ein menschliches Gefühl mit KI und Sensoren

Deutsche Wissenschaftler verleihen Robotern ein menschliches Gefühl mit KI und Sensoren

Forscher haben eine Methode entwickelt, um Robotern ein angeborenes Gespür für Berührung zu verleihen, indem sie ihre internen Kraft-Drehmoment-Sensoren mit maschinellem Lernen integrieren. Das Team des Deutschen Zentrums für Luft- und Raumfahrt (DLR) ermöglicht Robotern mit dieser Methode das Erfassen und Interpretieren menschlicher Berührung, ohne teure synthetische biomimetische Haut oder zusätzliche Sensoren zur Abdeckung ihrer Oberfläche zu benötigen. Durch den Einsatz hochauflösender interner Sensoren und Deep Learning erhielt ein Roboterarm ein umfassendes Berührungsempfinden und konnte Kraftdetails genau erkennen. Diese intrinsische Art der Berührung wurde vorgeschlagen, um eine fortgeschrittene Kategorie der physischen Mensch-Roboter-Interaktion zu ermöglichen, die bisher nicht möglich war.

Die Forscher am Institut für Robotik und Mechatronik (RMC) des DLR verwendeten integrierte Sensoren, um einen Roboter mit eingebauten taktilen Fähigkeiten auszustatten. Sie überwanden Schwierigkeiten, indem sie die bereits im Safe Autonomous Robotic Assistant (SARA) -System enthaltenen Sensoren verwendeten. Dieses System ist ein Roboterarm mit Kraft-Drehmoment-Sensoren in seinen Gelenken und der Basis, die die Position erkennen und die Bewegung steuern. Dies ermöglicht dem Roboter, physische Interaktionen zu erkennen und darauf zu reagieren, ohne externe Berührungssensoren zu benötigen. Der Roboter kann erkennen, wo und in welcher Reihenfolge verschiedene Kräfte auf seine Oberfläche ausgeübt wurden. Die Forscher kombinierten diese Fähigkeit mit Deep-Learning-Algorithmen, um die angewandte Berührung zu interpretieren. Sie zeigten, dass der Roboter Zahlen oder Buchstaben erkennen konnte, die auf seiner Oberfläche nachgezeichnet wurden, indem neuronale Netzwerke verwendet wurden, um jedes Zeichen vorherzusagen. Das Team erweiterte diesen Mechanismus auch um virtuelle “Tasten” oder Schieberegler auf den Oberflächen des Roboters, die verwendet werden konnten, um spezifische Befehle oder Bewegungen auszulösen. Dieser Ansatz stattet das System mit einem intuitiven und präzisen Berührungssinn aus und erhöht die Bandbreite möglicher physischer Mensch-Roboter-Interaktionen.