Algorithmen & Hybride Lösungen

Alle ins Boot holen - Entwicklung von KI-Methoden und -Technologien, die im Sinne von Safety und Security nachweisbar sicher sind und sich in dezentrale Daten- und Dienste-Ökosysteme einbetten. Gesellschaftliche, menschliche und technologische KI-Forschung und Weiterentwicklung in Synergie.

Dieses Themengebiet umfasst die Forschung zur umfänglichen Nachweisbarkeit sicherer KI und dabei insbesondere ihrer Betriebs- und Angriffssicherheit. Dabei suchen wir nach einem gemeinsamen Weg von wissenschaftlichem und technischem Fortschritt, der auch gesellschaftliche Herausforderungen bis hin zu Gefahren der Künstliche Intelligenz berücksichtigt. Konkret entwickeln wir Methoden und Technologien der Künstlichen Intelligenz systematisch weiter, um sie entweder für sicherheitsbezogene Nachweismethoden zugänglich zu machen, oder um sie nachweissicher zu synthetisieren. Es geht hier also um den formellen Nachweis der Korrektheit von KI-Algorithmen sowie die Vorhersagbarkeit und Erklärbarkeit ihrer Komponenten: Wie kommt der Algorithmus auf diese Lösung, warum schlägt er diese Lösung vor? Bei der Absicherung starker KI bekommen diese Fragen eine besondere Komplexität und ihre Antworten einen besonderen Stellenwert. Unser Ziel ist, die AI Community, sowie ihre Unterstützer und Kritiker ins Boot zu holen.

Hybride Lösungen zeichnen sich dadurch aus, dass Sie nicht nur auf Basis großer Datenmengen Schlüsse ziehen, sondern gleichzeitig menschliche Beobachtungen und Erfahrungen einbeziehen. Datenwissen und Expertise ergänzen sich. Hybride Lösungen kombinieren aber nicht nur Mensch und KI, sondern verbinden auch subsymbolische (nicht oder schwer interpretierbar) und symbolische (sehr gut interpretierbar) KI-Methoden und Technologien.

Safety and Security by-design ist für uns bei der Entwicklung von Algorithmen ein prägendes Konzept. Das bedeutet, Angriffs- und Betriebssicherheit von Beginn an und über den kompletten Prozess als essentielle Kernqualität mitzudenken - insbesondere da wir im DLR vorrangig für ambitionierte Anwendungsklassen forschen. Entsprechend muss die KI den besonders sicherheitskritischen Anforderungen standhalten, wie sie in Luftfahrt, Raumfahrt, Energie und Verkehr an der Tagesordnung sind. Ein konkretes Beispiel unserer Arbeit sind Projekte zur Flugsicherung und Steuerung von Flugzeugteilen. Diese haben zum Ziel, KI als verlässlichen und robusten Bestandteil innerhalb der vorliegende Prozesskette zu verankern und gleichzeitig menschliche und technologische Weiterentwicklung in Einklang zu bringen.

Projekte der Abteilung Algorithmen und Hybride Lösungen

Kontakt

Dr. Arne Raulf

Abteilungsleitung
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für KI-Sicherheit
Algorithmen & Hybride Lösungen
Rathausallee 12, 53757 Sankt Augustin

Karoline Bischof

Referentin Öffentlichkeitsarbeit
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für KI-Sicherheit
Geschäftsfeldentwicklung & Strategie
Rathausallee 12, 53757 Sankt Augustin