Abteilung: Systemtheorie und -design

Die Abteilung Systemtheorie und -design (THD) erforscht Methoden, Verfahren und Werkzeuge der Systemtechnik zur Anforderungsanalyse von automatisierten und autonomen Systemen. Diese neuen Systeme bedürfen außerdem einer Vereinheitlichung ihrer funktionalen Eigenschaften und Einschränkungen hinsichtlich ihrer Qualität und Wirtschaftlichkeit. Dazu gehören deren Integrität, Verantwortlichkeit und Zertifizierbarkeit.

Es werden hierbei Konzepte für Vertrauen und Selbstreflexion formalisiert. Auf diesen Anforderungen an neue Systeme basierend werden bei der Softwareentwicklung Architekturmuster entworfen. Diese ermöglichen die Verankerung von Integrität, Selbstreflexion und Zertifizierbarkeit in Systemarchitekturen auf verschiedenen Abstraktionsebenen. Die Architekturmuster werden um Analyse- und Optimierungsmethoden für die resultierenden Architekturen ergänzt, auf deren Basis die Verifizierung und eine frühzeitige Validierung geschieht. Umfassende Forschungsarbeiten hierzu werden die bereits etablierten Forschungsansätze, einschließlich Testmethoden für die virtuelle Integration, vertrauenswürdige Bautechniken, Selbst-X- und ausfallsichere Mechanismen sowie Modellierungen für die Mensch-Maschine-Kooperation, erweitern. Die zuvor beschriebenen Inhalte werden in Richtung Systemkonfiguration und Variantenbehandlung vorangetrieben. Für die Verifizierungsphase werden Verifizierungs- und Validierungsmethoden und -werkzeuge für automatisierte und autonome Systeme entwickelt. Simulationsbasierte, statistische Methoden werden ebenso behandelt wie formale Verifizierungsmethoden. Diese Methoden werden die Grundlage für die virtuelle und physische Zertifizierung der neuen Systeme den jeweiligen Testfeldern bilden, die ebenfalls von dieser Abteilung entwickelt werden.

Gruppe: System Concepts and Design Methods

Die Gruppe „System Concepts and Design Methods“ entwickelt Methoden, Werkzeuge und Prozesse zur Realisierung vertrauenswürdiger Systeme. Unser Schwerpunkt liegt auf der Erforschung neuartiger Ansätze für umfassende Gefahren- und Risikoanalysen automatisierter und autonomer Systeme. Dazu werden Ansätze aus verschiedenen Forschungsbereichen, beispielsweise Kausalmodellierung, Ontologien und Echtzeitanalysen, kombiniert und weiterentwickelt, um die potenziellen Gefährdungen zu identifizieren und ihre wechselseitigen Abhängigkeiten zu untersuchen. Szenariobeschreibungssprachen ermöglichen eine effiziente Abdeckung der komplexen und oft unstrukturierten Umgebung automatisierter Systeme und bilden damit eine Basis, auf der Sicherheitsnachweise aufgesetzt werden können. Des Weiteren werden Architekturmuster und Sicherheitsmechanismen erforscht, welche eine Gestaltung von Systemen ermöglichen, die selbst bei Fehlern und unerwarteten Ereignissen jederzeit sicher agieren können.

Gruppe: Human-Centered Engineering

Die Forschung der Gruppe „Human-Centered Engineering“ fokussiert die Frage, wie Systeme entwickelt werden können, die der Mensch versteht und mit denen er intuitiv interagieren kann. Zu diesem Zweck werden insbesondere unterschiedliche Methoden und Techniken der Menschmodellierung erforscht. Menschmodelle erlauben es, Erkenntnisse über die Art der Interaktion von Menschen mit Maschinen nachweisbar im Entwicklungsprozess zu berücksichtigen. Eine wichtige Rolle spielen hierbei Modelle, die als „virtuelle Tester“ von Systementwürfen oder als „virtuelle Assistenten“ dienen können.

Gruppe: Evidence for Trustworthiness

Die Gruppe „Evidence for Trustworthiness” widmet sich den Forschungsfragen hinsichtlich des Nachweises technischer Aspekte der Vertrauenswürdigkeit von Systemen, insbesondere mit Hinblick auf ihre Safety- und Security-Eigenschaften. Hierbei soll unter anderem erforscht werden, auf welche Art extrem seltene Ereignisse effizient simuliert und wie Analysen bezüglich der Wirkung von Fehlern und Angriffen in Systemen automatisiert durchgeführt werden können. Kernthema ist darüber hinaus der Nachweis der Validität von bei den Analysen verwendeten Modellen und Simulationen, um eine durchgängige Argumentationskette aufzubauen.

Kontakt

Dr. André Bolles

Abteilungsleitung
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut Systems Engineering für zukünftige Mobilität
Escherweg 2, 26121 Oldenburg