Interaktion

Ausgangssituation und Zielsetzung

Im Teilprojekt 4 liegt der Fokus auf der Verbesserung der Mensch-Roboter-Interaktion. Ziel des Teilprojekts ist es, die Akzeptanz des Roboters durch beidseitiges Verständnis und einfache Benutzerschnittstellen zu erhöhen. Dazu sollen verschiedene Benutzerschnittstellen sowohl zur Eingabe durch den Menschen als auch der Darstellung des Zustands des Robotersystems untersucht, evaluiert und implementiert werden. Neben den fehlenden Benutzerschnittstellen, leidet die Akzeptanz von Robotersystemen unter den fehlenden kognitiven Fähigkeiten, die eine Interaktion erschweren. Daher ist ein weiteres Ziel, dem Roboter eine gewisse Anpassungsfähigkeit an den Menschen zu geben.

Vorgehensweise

Im ersten Arbeitspaket wird der Informationsfluss vom Menschen zum Roboter behandelt. Intuitive Benutzerschnittstellen, wie beispielsweise Gestensteuerung oder Programmierung durch Vormachen werden hier evaluiert und implementiert.

Das zweite Arbeitspaket behandelt den Informationsfluss vom Robotersystem zum Menschen. Um dem Nutzer die Interaktion mit dem Roboter zu vereinfachen, werden Methoden und Technologien untersucht, mit denen der Systemzustand des Roboters dargestellt werden kann. Durch Projektionen beispielsweise können dem Menschen Bereiche angezeigt werden, in denen er sich aufhalten kann. Dies soll dem Nutzer ein besseres Verständnis verschaffen und die Interaktion somit erleichtern.

Die aus den vorigen Arbeitspaketen gewonnenen Erkenntnisse sollen in diesem dritten Arbeitspaket vereint werden und den Dialog zwischen Mensch und Robotersystem ermöglichen. Durch direktes Feedback des Systems auf eine Eingabe des Menschen, kann der Mensch Reaktionen schnell erfassen und entsprechend darauf reagieren können. Als Beispiel kann hier haptisches Feedback angegeben werden, das auf eine Kollision eines Systems hindeuten könnte.

Im vierten Arbeitspaket sollen die Fähigkeiten des Robotersystems dahingehend erweitert werden, dass Intentionen des Menschen aus den Bewegungen interpretiert werden können, um damit die nächsten Schritte des Roboters einleiten zu können. Soll der Roboter einem Werker ein Bauteil übergeben, so muss aus dem Zustand des Menschen und seinen Bewegungen interpretiert werden, wann er bereit ist, das Bauteil entgegen zu nehmen. Damit soll erreicht werden, dass der Mensch in seiner Arbeit nicht vom Robotersystem gestört wird und somit die Akzeptanz erhöht wird.

Zusammenfassung der Ergebnisse

Das Teilprojekt 4 stellte sich der Herausforderung, Möglichkeiten zur Kommunikation zwischen Mensch und Roboter zur Verfügung zu stellen, sodass eine Mensch-Roboter-Interaktion ermöglicht wird. So wurden unterschiedliche Modalitäten zur Eingabe von Informationen, wie z.B. über Gesten, Sprache oder einem Display, untersucht und teilweise implementiert. Zur Ausgabe von Informationen wurde die Anzeige auf dem Boden mit Hilfe eines Projektors entwickelt und um mehr Informationen darstellen zu können, die Anzeige über ein Display. Über die verschiedenen Modalitäten kann der Mensch eine ad-hoc Anfrage zu dem Robotersystem stellen. Des Weiteren wurde an einem Programmiersystem gearbeitet, mit Hilfe dessen das Roboterprogramm aufgenommen werden kann, beispielsweise für den Fall, dass nicht genügend Informationen zur automatischen Generierung zur Verfügung stehen. Für mögliche Haverie-Szenarien der Plattform wurde außerden die Eignung einer Augmented Virtuality Teleoperation untersucht. Dabei wird ein Teleoperator eingebunden, der das System mit Hilfe eines Controllers fernsteuern und damit dem System beispielsweise bei Fehlschlagen eines Greifvorgangs aus dieser Situation helfen kann. Das Robotersystem verfügte zu Beginn des Projekts über keine Fähigkeiten, die es ihm erlauben, zu identifizieren, ob ein Mensch in der Umgebung ist und welche Tätigkeiten dieser durchführt. Da jedoch in einem Regallager ein Mensch den Roboter nicht bemerken oder aber im Weg stehen könnte, wurden Methoden zur Erfassung des Menschen und dessen aktueller Tätigkeit erarbeitet. Damit wird der Mensch zunächst grob erfasst und kamerabasiert werden seine Bewegungen analysiert.

Ansprechpartner

M.Sc.
Julia Berg
Fraunhofer-Gesellschaft
Einrichtung für Gießerei-, Composite- und Verarbeitungstechnik IGCV
Provinostr. 52, 86153 Augsburg, Deutschland
Tel.: +49 (0)821-90678-153
Fax: +49 (0)821-90678-40
Julia.Berg(at)igcv.fraunhofer.de
www.igcv.fraunhofer.de