Online Bahnplanung und Pfadfolgeregelung
Das Konzept des Instituts für die Planung der Bewegungsanforderung und die Generierung von Steuergrößen für die Bewegungsregelung des Fahrzeugs basiert auf einem zweistufigen Ansatz. Im ersten Schritt wird ein glatter Pfad für hohen Fahrkomfort geplant. Die echtzeitfähige OPP basiert auf einem effizient lösbaren Optimierungsproblem, welches die Krümmung des Pfades, dargestellt durch Splines, innerhalb vorgegebener Straßengrenzen minimiert (siehe Abbildung unten). Darüber hinaus ermöglicht es der gleitende Horizont des OPP der Optimierung Umweltveränderungen zu berücksichtigen. Das Energieeinsparungspotenzial durch die OPP für das Befahren eines vorgegebenen Pfades mit einem Elektrofahrzeug wurde experimentell quantifiziert.
Im zweiten Schritt wird eine Optimierung des Geschwindigkeitsprofils über dem geplanten Pfad durchgeführt, um einen Kompromiss zwischen Zeit- und Energieoptimalität zu finden. Dieser Kompromiss kann direkt vom Fahrer gewählt werden. Mit Hilfe von dynamischer Programmierung wird das globale Optimum des komplexen Optimierungsproblems mit nichtlinearen Beschränkungen, welche aus den physikalischen Grenzen des Fahrzeugs resultieren, gefunden. Dabei kann die Optimierung des Geschwindigkeitsprofils Änderungen in der Umgebung berücksichtigen. Anschließend wird der geplante Pfad zusammen mit dem Geschwindigkeitsprofil als Eingabe für die PFC bereitgestellt. Eine nichtlineare modellbasierte PFC kombiniert hierbei eine geometrische, das heißt zeitunabhängige Formulierung mit einer Überwachung der Sollwertvorgaben. Basierend auf einem geometrischen Fahrzeugmodell begrenzt die Überwachung bei Bedarf die Sollwertvorgaben, um die Lösbarkeit des Pfadfolgeproblems sicherzustellen. Der Algorithmus ermöglicht es vordefinierten Pfaden mit hoher Genauigkeit zu folgen und gewährleistet die Fahrzeugstabilität in allen relevanten Fahrzeugzuständen. Das Framework wurde ausführlich getestet und in realen Fahrversuchen mit dem automatisierten ROboMObil validiert. Darüber hinaus wurde innerhalb des Instituts wurde ein Framework für alternative lernbasierte Regelungsansätze entwickelt. Die verwendete Methode basiert auf modellfreiem bestärkendem Lernen (reinforcement learning - RL), welche das Regelgesetz aus Interaktion mit dem zu regelndem System identifiziert. Der Trainingsprozess verwendet multiphysikalische Modelle, z.B. ein in Modelica implementiertes hochgenaues Fahrzeugmodell (siehe Abbildung unten). Um die Systemdynamik in das Python-basierte RL-Framework einzubinden, wird das multiphysikalische Modell als FMU integriert.