Künstliche Intelligenz verstehen

SKIAS

Symbolbild, Quelle: DLR, Institut für KI-Sicherheit

Künstliche Intelligenz verstehen

Vorschläge zur Nutzung Künstlicher Intelligenz und autonomer Systeme haben in den letzten Jahren richtungsweisende Fortschritte erzielt und dringen immer weiter in sicherheitskritische Anwendungen vor, etwa für Verkehrssysteme, in der Raumfahrt oder der Robotik. Möglichkeiten zu deren Zertifizierung fehlen allerdings meist, da viele tiefe Lernmethoden immer noch eine unverstandene Black Box darstellen. Im Projekt SKIAS - Sichere KI für Autonome Systeme arbeitet das Institut für KI-Sicherheit an grundlegenden Methoden, um Systeme der Künstlichen Intelligenz besser zu verstehen und sicherer zu machen. Das Ziel, die Prädiktion von KI-Modellen auch in kritischen Umgebungen verlässlicher zu machen und Qualitätsmetriken zu etablieren, verfolgen wir seit November 2021 gemeinsam mit Partnern aus den Instituten für Datenwissenschaften, Flugsystemtechnik, Optische Sensorsysteme, den Schutz terrestrischer Infrastrukturen, Robotik und Mechatronik und Verkehrssystemtechnik. Das KI-Institut ist vor allem an der Konzeptionierung sensornaher KI beteiligt.

Sichere KI durch Nachvollziehbarkeit ihrer Ergebnisse

Das Ziel, Künstliche Intelligenz verlässlich zu nutzen, wird mit Abschluss des Projekts nicht durch eine Dissemination der Vorgänge innerhalb z.B. des tiefen Neuronalen Netzes geschehen, vielmehr steht die Robustheit des Ergebnisses im Mittelpunkt. Damit ermöglichen wir die methodenunabhängige Definition von Zulassungskriterien für eine breite Auswahl autonomer Systeme und intelligenter Komponenten und schlussendlich den Einsatz in sicherheitsrelevanten Infrastrukturen.

Erklärbares und verlässliches Maschinelles Lernen im Rahmen des SKIAS-Konzepts setzt sich aus drei Teilaspekten zusammen:

  • Prädiktion
  • sensornahe Verarbeitung
  • Qualitätsabschätzung

Das Projektteam konzentriert sich dabei auf Aufgabenstellungen der Bildanalyse, insbesondere Objekt- und Umgebungserkennung und Lageeinschätzung. Das Team für verlässliche Prädiktion erstellt, basierend auf Unsicherheiten in Daten und Modell, einen Ansatz zur Risikoeinschätzung und der Entscheidungsunterstützung für Operateure in Extremsituationen außerhalb der Operational Design Domain des Algorithmus.

Beitrag Institut KI-Sicherheit

Das Institut für KI-Sicherheit ist im Aufgabengebiet der sensornahen KI im Projekt involviert. Durch die Implementierung von KI-Methoden direkt am Sensor sollen vor Ort vorhandene, aber nicht direkt auslesbare oder nicht gespeicherte Daten für erste Vorverarbeitungsschritte und Verlässlichkeitseinschätzungen der Trainings- bzw. Operationsdaten eingesetzt werden. Dies sind etwa Lageinformationen des Sensors, Informationen zum Trägersystem oder die Rohdaten direkt von den Sensorkomponenten. Kombiniert wird dies mit der Implementierung von physikalischem Wissen über die Sensorarchitektur im Rahmen hybrider KI-Modelle. Dies ermöglicht, dem Sensor zusätzlich zu den Messwerten nicht nur direkte Einschätzungen über die zu erwartende Datenqualität zu generieren – etwa bei schlechten Witterungsbedingungen –, sondern kann auch zur Ausgabe einer breiteren Informationsfülle genutzt werden, beispielsweise für automatische Tiefenschätzungen oder optische Flüsse bei optischen Sensoren.

Der dritte Teil des Projekts umfasst schließlich die Bewertung von KI-Modellen im Rahmen definierter Situationen und der Ableitung von Metriken für die Güte der erstellten Modelle. Genutzt werden dafür Umgebungen, von denen bereits eine genaue Beschreibung als Vergleich verfügbar ist – etwa im Rahmen eines digitalen Zwillings – und synthetische Daten, die eine direkte Kontrolle der Situation ermöglichen und den Einsatz realer Daten reduzieren.

Demonstriert werden die Konzepte aus SKIAS an zwei Multisensorträgern in operativen Umgebungen. Wir implementieren KI gemeinsam mit dem Institut für Optische Sensorsysteme auf dem Sensorträger eines Messsystems für den Zustand von Gleisen – montiert auf einer Rangierlokomotive –, um das Zusammenspiel aller Sensoren gemeinsam zu optimieren. Unsere Partner arbeiten zudem mit einem unbemannten Flugfahrzeug (UAV) als Testträger: Innerhalb einer bereits vermessenen Umgebung wird ein Umgebungsmodell aus den Sensordaten des UAV generiert. Durch den Vergleich mit einem existierenden digitalen Zwilling können die Qualität des Modells evaluiert und Metriken für diesen Vergleich abgeleitet werden.

Kontakt

Dr. Arne Raulf

Abteilungsleitung
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für KI-Sicherheit
Algorithmen & Hybride Lösungen
Rathausallee 12, 53757 Sankt Augustin

Karoline Bischof

Referentin Öffentlichkeitsarbeit
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für KI-Sicherheit
Geschäftsfeldentwicklung & Strategie
Rathausallee 12, 53757 Sankt Augustin