see. think. act.
Interview_KI Interview_KI

Wie können wir Künstlicher Intelligenz im Auto vertrauen?

Interview mit Dr. Georg Schneider & Dr. Arndt von Twickel

Künstliche Intelligenz im Auto einzusetzen, stellt hohe Ansprüche an die Sicherheit der KI. Im Projekt „AIMobilityAudit“ entwickeln ZF und weitere Partner entsprechende Anforderungen, Prüfmethoden und Prüfwerkzeuge. Zwei Beteiligte berichten.

Spätestens mit dem Chatbot ChatGPT ist KI im Alltag angekommen. In der Automobilindustrie ist sie aber schon länger im Einsatz. Was sind typische Anwendungsfälle?
GS: Beim automatisierten Fahren kommt der KI eine Schlüsselfunktion zu. Typische Anwendungsfälle sind einerseits die Wahrnehmung über die Fahrzeugsensoren. Hier ist beispielsweise die Kamera mit Hilfe der künstlichen Intelligenz in der Lage, komplexe Objekte wie Fußgänger, Radfahrer oder andere Verkehrsteilnehmer in unterschiedlichsten Situationen zuverlässig zu erkennen. Aber auch bei weitergehenden Schritten wie der Bewegungsplanung der Längs-, Quer- oder Vertikaldynamik eines Fahrzeugs spielt KI eine wichtige Rolle.
Dr. Georg Schneider ist KI-Experte bei ZF. Hier leitet er seit dem Jahr 2019 das ZF AI Lab in Saarbrücken und verantwortet er auf Konzernebene Forschung, Entwicklung und Implementierung von KI in den Bereichen Automatisiertes Fahren und Industrie 4.0.

Inwiefern?

GS: Ein Beispiel ist das Einfädeln auf eine andere Fahrspur. Das kann auf der Autobahn ein komplexes Szenario sein, wenn der virtuelle Fahrer vor einer Abfahrt entscheiden muss, ob er eine Lücke weiter vorn verwenden kann oder abbremsen und sich hinter einem anderen Fahrzeug einreihen soll.

Ist höher automatisiertes Fahren oder autonomes Fahren ohne KI überhaupt denkbar?
GS: Nein. Ohne KI ist es nicht möglich, die vor uns liegenden Herausforderungen des automatisierten Fahrens zur Gänze zu meistern.
"Ohne KI ist es nicht möglich, die vor uns liegenden Herausforderungen des automatisierten Fahrens zur Gänze zu meistern."
Dr. Georg Schneider, KI-Experte bei ZF

Aber der Einsatz von KI birgt auch Risiken. Welche sind das?

AvT: KI-Systeme funktionieren nicht wie klassische Computersysteme. Bei KI legt kein Programmierer fest, was in welcher Situation zu tun ist. Stattdessen werden KI-Systeme mit Daten trainiert. Darin liegt eine große Chance, denn KI kann komplexe Verkehrsszenarien lernen, indem man sie mit Daten füttert. Das Problem ist aber: Alle Fehler, die in diesen Datensätzen drinstecken, wirken sich hinterher aus.

Haben Sie ein Beispiel?
AvT: Ein in Deutschland trainiertes KI-System kannte keine Hydranten, wie sie in den USA vorkommen. Dort nahm es die Hydranten als Kinder wahr, worauf der virtuelle Fahrer abbremste. Solche Fehler sind oft sehr schwer zu erkennen. Leider gibt es für diese Fälle keine einfachen Prüfmechanismen. Stattdessen müssen wir sehr viele Dinge testen und unzählige Datensätze durchgehen, um herauszufinden, ob das System so funktioniert, wie es das soll.
Dr. Arndt von Twickel leitet seit dem Jahr 2023 das Referat „Cyber-Sicherheit für intelligente Transportsysteme und Industrie 4.0“ im Bundesamt für Sicherheit in der Informationstechnik (BSI) in Bonn.

Was wäre die Lösung?

AvT: Wir brauchen neue Methoden und neue Ansätze, um KI zu interpretieren und zu prüfen, weil das nicht nur durch das Verständnis des Menschen passieren kann.

Was sind die nächsten Schritte im Projekt?

AvT: Wir beim BSI wollen, dass man KI vertrauen kann. Das bedeutet einerseits, dass sie in Sachen Cybersicherheit unseren Anforderungen entspricht. Andererseits müssen aber auch die Verbraucher dieses System akzeptieren. Nur, wie kann man diese Systeme absichern und vertrauenswürdig machen? Welche Methoden aus Forschung und Entwicklung kann man schon übertragen und reichen diese aus? In unserem Projekt mit der TÜV Informationstechnik und ZF prüfen wir das systematisch.

Wie merzen Sie Schwachstellen aus?

AvT: Da gibt es noch viele offene Fragen: Wie geht man beispielsweise mit sogenannten adversarialen Angriffen um? Das sind Angriffe, die über die Sensorik erfolgen. Schon kleine Veränderungen wie ein Aufkleber auf einem Verkehrsschildsein können schwere Folgen haben: Die Wahrnehmung des Menschen ist dadurch vielleicht nicht beeinträchtigt, aber das KI-System könnte das Erkannte als ein komplett anderes Verkehrsschild interpretieren. Solche Fälle schauen wir uns an und entwickeln Methoden, um sie zu prüfen und Vorschläge zu machen, wie man die Systeme robuster machen kann.

Wissenswertes zu den Partnern von ZF

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) ist die Cyber-Sicherheitsbehörde des Bundes. Mit verbindlichen Mindestanforderungen an die IT-Sicherheit verbessert es vor allem den Schutz der kritischen Infrastrukturen, deren Ausfall oder Beeinträchtigung dramatische Folgen für Staat und Wirtschaft hätte. Das Prüfunternehmen TÜV Informationstechnik GmbH (TÜVIT) prüft unabhängig digitale Produkte und Services von Unternehmen und berät beim Datenschutz. Im Projekt „AIMobilityAudit“ entwickelt ZF mit beiden Partnern KI-spezifische Anforderungen, Prüfmethoden und Prüfwerkzeuge als Grundlage für eine Absicherung von KI-Systemen im Bereich Automotive.

Wie trägt das Projekt dazu bei, solche Angriffe zu verhindern?

GS: Um die Angriffe abzuschwächen oder sie für den Angreifer aufwändiger zu machen, gibt es das adversariale Training: Bei dieser Methode führen die Entwickler ähnliche Szenarien schon durch, während sie das System trainieren und bereiten es so vor. Genau darum geht es in unserem Projekt. Wir möchten herausfinden, welche Methoden sich gut eignen, um das KI-System gegen Angriffe immun zu machen und es effektiv testen. Wir konzentrieren uns also auf KI-spezifische, qualitativ neue Eigenschaften wie adversariale Angriffe.

Die drei Projektpartner BSI, ZF und TÜV IT sind deutsche Organisationen. Werden die Ergebnisse auch international relevant sein?

AvT: Wir brauchen einen internationalen Ansatz. Unser Ziel ist es, eine technische Richtlinie zu verfassen, in der wir unsere Erkenntnisse mit Empfehlungscharakter zusammenzufassen. Das hat dann noch keinen normativen Charakter, es ist also kein Hersteller gezwungen, die Empfehlung umzusetzen. Aber wir möchten die Erkenntnisse nutzen, um sie in die internationale Standardisierung, Normierung und Regulierung einzubringen. Und so sind wir als BSI zusammen mit anderen Behörden in der United Nations Economic Commission for Europe (UNECE) aktiv, um auch dort das Thema KI voranzutreiben.