Eine wissensgesteuerte gemeinsame Autonomie Mensch-Roboter-Schnittstelle für Tablet-Computer

Eine wissensgesteuerte gemeinsame Autonomie Mensch-Roboter-Schnittstelle für Tablet-Computer
In naher Zukunft werden Serviceroboter in verschiedenen Szenarien, bei der Katastrophenhilfe und in der Raumfahrt zum Einsatz kommen. Mit mehreren Manipulatoren und ausgeklügelten Sensorsystemen werden die Fähigkeiten solcher Roboter die Fähigkeiten heutiger Serviceroboter, wie z.B. Staubsaugerroboter, bei weitem übertreffen. Da diese neuen Fähigkeiten eine höhere Komplexität mit sich bringen, wird die Steuerung von Robotern immer schwieriger, so dass der Bedarf an autonom agierenden Robotern steigt. Es ist jedoch eine schwierige Aufgabe, alle Arten von Serviceaufgaben in unstrukturierten und sich verändernden Umgebungen ohne menschliches Eingreifen völlig autonom zu lösen. Eine mögliche Lösung zur Umgehung dieses Problems ist die überwachte Autonomie, bei der ein Bediener den Roboter auf einer hohen Abstraktionsebene fernsteuert.
 
Wir wählen eine objektzentrierte hohe Abstraktionsebene, um einen Roboter zu steuern. Die symbolischen und geometrischen Überlegungen werden dadurch vom Bediener auf den Roboter verlagert, so dass sich der Bediener auf die Aufgabe und nicht auf die roboterspezifischen Fähigkeiten konzentrieren kann. Durch die Bewertung der möglichen Aktionen im Voraus können wir das Frontend für den Bediener vereinfachen, indem wir nur mögliche Aktionen zur Steuerung des Roboters bereitstellen. Indem wir die Videos des Roboters direkt anzeigen, erhalten wir eine egozentrische Perspektive, die wir mit Informationen über den internen Zustand des Roboters ergänzen. Wir bieten einen Mechanismus, mit dem der Bediener direkt mit den angezeigten Informationen interagieren kann, indem er ein Point-and-Click-Paradigma anwendet. Auf diese Weise wird die Steuerung von Manipulationsaufgaben auf die intuitive Auswahl der zu manipulierenden Objekte reduziert, was der realen Erfahrung des Bedieners entspricht.
Länge: 00:03:02