19. November 2024

KI Biennale 2024

Paneldiskussion: „Technischer Fortschritt und gesellschaftliche Folgen – Wie erreichen wir eine vertrauenswürdige KI?“
v.l.: Dr. Jan Hofmann (Telekom), Dr. Arne Raulf (DLR), Julia Eisentraut (MdL, Grüne), Dr. Cedric Janowicz (DLR Projektträger), Prof. Frank Köster (DLR)

Wissenschaftsgeleitete KI-Entwicklung: Der Schlüssel zu vertrauenswürdigen Systemen

Künstliche Intelligenz (KI) ist längst mehr als ein Zukunftsthema – sie durchdringt bereits nahezu alle Lebensbereiche. Auf dem KI Summit der KI Biennale 2024 diskutierten hochrangige Vertreter aus Politik, Wirtschaft und Forschung darüber, wie wir KI-Systeme nicht nur leistungsfähig, sondern auch vertrauenswürdig gestalten können.

Europa setzt auf wissenschaftliche Qualität

Die Podiumsdiskussion, moderiert von Prof. Frank Köster, Gründungsdirektor des DLR Instituts für KI-Sicherheit, zeigte: Europa verfolgt beim KI-Fortschritt einen besonderen Ansatz. Während andere Regionen primär auf schnelles Wachstum setzen, konzentriert sich Europa auf solide mathematische Systeme und integriert Sicherheitsaspekte von Anfang an.
Julia Eisentraut, Sprecherin für Wissenschaft, Digitalisierung und Datenschutz, betonte die Stärken des europäischen Weges: Die hohe Forschungsdichte und der konsequente Fokus auf Qualität – insbesondere bei der Vermeidung von Verzerrungen – sind entscheidende Vorteile.

Transparenz und ethische Dimensionen

Dr. Arne Raulf vom Institut für KI-Sicherheit unterstrich die Führungsrolle Europas bei der Schaffung transparenter und fairer Datenökosysteme.
Dr. Jan Hofmann von der Deutschen Telekom hob hervor, dass der Erfolg in der intelligenten Kombination von Mensch und Maschine liegt.
Dr. Cedric Janowicz vom DLR Projektträger beleuchtete die gesellschaftliche Dimension: Angesichts der tiefgreifenden Auswirkungen von KI auf unser Demokratieverständnis sei eine intensive Auseinandersetzung mit ethischen Implikationen unerlässlich.

Der Weg zu vertrauenswürdiger KI

Ein Konsens wurde deutlich: Der Umgang mit KI muss wissenschaftsgeleitet sein und sich kontinuierlich an die rasante technologische Entwicklung anpassen. Nur durch ein konsequentes "Human Oversight" können wir sicherstellen, dass unsere Wertemodelle in KI-Systeme einfließen.