Das vergangene Jahrzehnt hat den signifikanten Einfluss von Computer Vision und Robotik auf realistische Produkte gezeigt. Traditionelle Probleme der Computer Vision wie Tracking, 3D-Rekonstruktion, Detektion, Erkennung, Odometrie, Navigation und andere wurden nun mit deutlich höherer Genauigkeit mithilfe von Machine Learning gelöst. Dennoch konzentrieren sich die meisten dieser Ergebnisse auf eingeschränkte Anwendungsszenarien, die keine Einbindung von Rückmeldungen des Benutzers beinhalten. Diese Anwendungen berücksichtigen nicht die Absichten und Ziele des Benutzers und sind daher von begrenztem Nutzen, wenn es darum geht, den Menschen zu unterstützen.
Mit den weitreichenden Erfolgen von Computer Vision und Robotik und dem Aufkommen von Industrie 4.0 ist es entscheidend geworden, Systeme zu entwerfen, die Menschen tatsächlich unterstützen und ihre Fähigkeiten zur Bewältigung physischer und intellektueller Aufgaben erweitern. Diese Systeme werden allgemein als “assistive Technologien” bezeichnet. Beispiele für solche Technologien sind Ansätze, um blinden Menschen zu helfen, sich in der Welt zu orientieren und wahrzunehmen, tragbare Geräte, die künstliche Intelligenz nutzen, Mixed und Augmented Reality zur Verbesserung der Wahrnehmung und Bereitstellung von Rechenleistung direkt beim Benutzer, sowie Systeme zur Unterstützung industrieller Prozesse und zur Verbesserung der Sicherheit von Arbeitnehmern. Diese Technologien müssen ein Arbeitsparadigma berücksichtigen, in dem der Benutzer im Zentrum steht und das System beeinflussen und selbst beeinflusst werden kann.
Das Hauptziel dieses Forschungsthemas bestand darin, Beiträge aus den vielfältigen Bereichen des Ingenieurwesens und der Informatik im Zusammenhang mit Technologien, die Computer Vision und Robotik für Echtzeitunterstützung von Menschen bei der Durchführung jeder Aufgabe einsetzen, zu sammeln. Nach einem doppelten Peer-Review-Prozess wurden vier Beiträge akzeptiert.
Der erste Beitrag befasst sich mit der Bereitstellung von visuellen Inhalten für sehbehinderte Personen mittels taktiler Bilder. Der zweite Beitrag untersucht die semantische Segmentierung von Hirnarterien in Echtzeit mithilfe von Deep Learning, während der dritte Beitrag sich mit der Umgebungsklassifizierung für robotische Beinprothesen und Exoskelette unter Verwendung von Deep Convolutional Neural Networks befasst. Der vierte Beitrag beschäftigt sich mit der Erkennung und Klassifizierung von Schiffsabbildungen. Es wird ein Multi-Scale paralleling CNN-Modell vorgeschlagen, um Merkmale von Schiffen unterschiedlicher Größenordnungen zu extrahieren.
Hinterlasse eine Antwort