Flexible 3D-Modellierung als Schlüsseltechnologie für den Durchbruch der Robotik

Erweiterte Zusammenfassung meines Plenarvortrags auf dem 8. Internationalen Symposium für Mechatronik "Automatización y Tecnología 6," am Instituto Tecnológico y de Estudios Superiores de Monterrey, Monterrey, Nuevo León, México. April 14-17, 2010.

Forschende sind bestrebt, die unmittelbare Leistungsverbesserung in ihrem jeweiligen Fachgebiet zu maximieren. Mit diesem Paradigma der maximalen Effizienz lassen sich in kurzer Zeit erhebliche Verbesserungen erzielen, die zu Spitzentechnologien und hochspezialisierten Geräten führen. Ehrgeizige technologische Ziele, wie z.B. solche, die bahnbrechende neue Industrien wie die Servicerobotik ermöglichen, erfordern jedoch immer eine breite Palette von Technologien, die sich oft gegenseitig einschränken. Darüber hinaus können diese höheren Ziele grundlegende Einschränkungen wie geringere Kosten, geringere Größe oder geringeres Gewicht mit sich bringen. Diese wurden bei der Entwicklung der erforderlichen Technologien nach dem Paradigma der maximalen Effizienz oft nicht einmal in Betracht gezogen.

Im Gegensatz zur Effizienz liegt der Schwerpunkt der Effektivität auf der Leistung als solcher, z.B. auf einem klaren soziotechnischen oder industriellen Ziel. Effektive Forschung erfordert Weitsicht, möglicherweise auf Kosten der anfänglichen Leistung oder mit der Folge einer langwierigen Entwicklung. In diesem Vortrag behaupten wir, dass das Erreichen ehrgeiziger Ziele, wie z.B. das Erreichen einer kritischen Masse in der Servicerobotikindustrie, einen Ansatz der maximalen Effektivität erfordert. Wir nennen dies das Paradigma der maximalen Effektivität. Wir konzentrieren uns auf die visuelle Wahrnehmung für die Servicerobotik, insbesondere auf die Realisierung von Wahrnehmungssystemen, die dem Paradigma der maximalen Effektivität entsprechen.

Die visuelle Wahrnehmung ist der Prozess, durch den visuelle Sinnesinformationen über die Umgebung empfangen und interpretiert werden, und sie ist der Schlüssel zu wirklich autonomen Robotern. Die visuelle Wahrnehmung liefert nicht notwendigerweise ein geometrisches 3D-Modell der Szene. Man geht jedoch davon aus, dass die Bildung von 3D-Modellen unerlässlich ist, um eine beträchtliche Anzahl der verbleibenden Herausforderungen bei der visuellen Wahrnehmung zu lösen. Viele Jahre lang haben Spezialisten die Qualität der 3D-Modellierung nach dem Paradigma der maximalen Effizienz vorangetrieben, was sich in vielen Bereichen als vorteilhaft erwiesen hat. Dies hat jedoch die Robotiker dazu verleitet, die gleichen Sensoren zu verwenden. So haben viele Robotiklabors auf der ganzen Welt in Armeen von winzigen Servicerobotern investiert, die massive Laser-Range-Scanner oder externe (oder extern referenzierte) 3D-Sensoren mit sich herumtragen. Diese können zwar genaue, robuste Daten liefern, sind aber eindeutig nicht die Art von Sensoren (und sensorischen Informationen), die der Servicerobotik letztendlich zum übergreifenden Erfolg verhelfen werden. Außerdem haben diese Ansätze nachweislich die Forschungsbemühungen von vorausschauenderen Ansätzen abgelenkt. Die in den letzten Jahren durchgeführten Forschungen zur visuellen, simultanen Lokalisierung und Kartierung in Echtzeit (visuelles SLAM) mit nur einer Kamera sind ein lang erwarteter Durchbruch gegenüber früheren Ansätzen - trotz anfänglicher Einbußen bei der Genauigkeit. Der letztgenannte Ansatz, der monokulares Sehen verwendet, entspricht dem Paradigma der maximalen Effektivität.

Unserer Ansicht nach wird die Servicerobotikindustrie nur dann eine kritische Masse erreichen und sich verbreiten, wenn die Wahrnehmungssysteme nach dem Paradigma der maximalen Effektivität realisiert werden. Die folgenden Richtlinien:

  • ganzheitliches Design (mehrere Arten von Daten, Bereichen oder Sensoren)
  • hohe Informationsmenge
  • Vermeidung von beweglichen Teilen
  • passiver Betrieb in Bezug auf die Umgebung
  • Modularität / Betriebsautonomie / Flexibilität
  • geringe Größe
  • leicht
  • kostensparsam
  • niedriger Verbrauch
  • hohe Datenrate
  • weniger Bedenken hinsichtlich der Rechenanforderungen ("Softwarisierung" der Hardware)

Um auf das letzte Beispiel zu SLAM zurückzukommen: Der ältere Einsatz von Laser-Range-Scannern erfüllte keines dieser Kriterien, außer das letzte teilweise. Heute ist die Verwendung von Digitalkameras anstelle von Scannern eine attraktive Option, da sie alle diese Kriterien erfüllt.

Der endgültige Erfolg der Servicerobotik hängt noch von allgemeineren Bedingungen ab: gemeinsame Nutzung/Standardisierung von Software, langfristiges Engagement, Austausch von Ideen (Veröffentlichungen) und angemessene Finanzierung (öffentlich/privat).

Genauer gesagt, werde ich in diesem Vortrag Konzepte, Sensorsysteme und Algorithmen vorstellen, die für die Entwicklung dieser Art von Wahrnehmungssystemen erforderlich sind:

  • Multisensorik ermöglicht eine ganzheitliche Erfassung und reduziert die Kosten.
  • Bei der exakten Modellierung von Sensoren geht es darum, vollständige, nicht-redundante Sensormodelle zu finden.
  • Präzise Parametrisierung: gemeinsame Kalibrierung von Kameras und weiteren Sensoren.
  • Robuster Betrieb von Sensoren: Software als die andere Hälfte der Sensoren.
  • Genaue, bildbasierte (passive) Schätzung der Eigenbewegung als flexibelste Option für die Datenregistrierung.

Gleichzeitig und als Beispiel für die Realisierung eines solchen Systems wird das an unserem Institut entwickelte multisensorische Wahrnehmungssystem DLR 3D Modeler im Detail erläutert. Aufgrund seiner Flexibilität wurde der DLR 3D Modeler bereits in vielen Anwendungen eingesetzt:

  • Handgeführtes 3D-Modelliergerät
  • Roboter Arbeitszelle autonome Erkundung
  • Wahrnehmungssystem des humanoiden Roboters Justin
  • Gefahrenerkennungssystem (HazCam) für den ExoMars-Rover der Europäischen Weltraumorganisation
  • Sensoreinheit für die automatische Montage von Autorädern (Konzepte und Algorithmen)
  • 3D-Modellierung aus Luftbildern (Konzepte und Algorithmen)
  • Unterstützendes System für die kinematische Kalibrierung von Robotern

Der Hauptteil dieser Arbeit wurde auf der 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2009) als bester Beitrag ausgezeichnet.