
Inwiefern?
GS: Ein Beispiel ist das Einfädeln auf eine andere Fahrspur. Das kann auf der Autobahn ein komplexes Szenario sein, wenn der virtuelle Fahrer vor einer Abfahrt entscheiden muss, ob er eine Lücke weiter vorn verwenden kann oder abbremsen und sich hinter einem anderen Fahrzeug einreihen soll.
Aber der Einsatz von KI birgt auch Risiken. Welche sind das?
AvT: KI-Systeme funktionieren nicht wie klassische Computersysteme. Bei KI legt kein Programmierer fest, was in welcher Situation zu tun ist. Stattdessen werden KI-Systeme mit Daten trainiert. Darin liegt eine große Chance, denn KI kann komplexe Verkehrsszenarien lernen, indem man sie mit Daten füttert. Das Problem ist aber: Alle Fehler, die in diesen Datensätzen drinstecken, wirken sich hinterher aus.
Was wäre die Lösung?
AvT: Wir brauchen neue Methoden und neue Ansätze, um KI zu interpretieren und zu prüfen, weil das nicht nur durch das Verständnis des Menschen passieren kann.
Was sind die nächsten Schritte im Projekt?
AvT: Wir beim BSI wollen, dass man KI vertrauen kann. Das bedeutet einerseits, dass sie in Sachen Cybersicherheit unseren Anforderungen entspricht. Andererseits müssen aber auch die Verbraucher dieses System akzeptieren. Nur, wie kann man diese Systeme absichern und vertrauenswürdig machen? Welche Methoden aus Forschung und Entwicklung kann man schon übertragen und reichen diese aus? In unserem Projekt mit der TÜV Informationstechnik und ZF prüfen wir das systematisch.
Wie merzen Sie Schwachstellen aus?
AvT: Da gibt es noch viele offene Fragen: Wie geht man beispielsweise mit sogenannten adversarialen Angriffen um? Das sind Angriffe, die über die Sensorik erfolgen. Schon kleine Veränderungen wie ein Aufkleber auf einem Verkehrsschildsein können schwere Folgen haben: Die Wahrnehmung des Menschen ist dadurch vielleicht nicht beeinträchtigt, aber das KI-System könnte das Erkannte als ein komplett anderes Verkehrsschild interpretieren. Solche Fälle schauen wir uns an und entwickeln Methoden, um sie zu prüfen und Vorschläge zu machen, wie man die Systeme robuster machen kann.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) ist die Cyber-Sicherheitsbehörde des Bundes. Mit verbindlichen Mindestanforderungen an die IT-Sicherheit verbessert es vor allem den Schutz der kritischen Infrastrukturen, deren Ausfall oder Beeinträchtigung dramatische Folgen für Staat und Wirtschaft hätte. Das Prüfunternehmen TÜV Informationstechnik GmbH (TÜVIT) prüft unabhängig digitale Produkte und Services von Unternehmen und berät beim Datenschutz. Im Projekt „AIMobilityAudit“ entwickelt ZF mit beiden Partnern KI-spezifische Anforderungen, Prüfmethoden und Prüfwerkzeuge als Grundlage für eine Absicherung von KI-Systemen im Bereich Automotive.
Wie trägt das Projekt dazu bei, solche Angriffe zu verhindern?
GS: Um die Angriffe abzuschwächen oder sie für den Angreifer aufwändiger zu machen, gibt es das adversariale Training: Bei dieser Methode führen die Entwickler ähnliche Szenarien schon durch, während sie das System trainieren und bereiten es so vor. Genau darum geht es in unserem Projekt. Wir möchten herausfinden, welche Methoden sich gut eignen, um das KI-System gegen Angriffe immun zu machen und es effektiv testen. Wir konzentrieren uns also auf KI-spezifische, qualitativ neue Eigenschaften wie adversariale Angriffe.
Die drei Projektpartner BSI, ZF und TÜV IT sind deutsche Organisationen. Werden die Ergebnisse auch international relevant sein?
AvT: Wir brauchen einen internationalen Ansatz. Unser Ziel ist es, eine technische Richtlinie zu verfassen, in der wir unsere Erkenntnisse mit Empfehlungscharakter zusammenzufassen. Das hat dann noch keinen normativen Charakter, es ist also kein Hersteller gezwungen, die Empfehlung umzusetzen. Aber wir möchten die Erkenntnisse nutzen, um sie in die internationale Standardisierung, Normierung und Regulierung einzubringen. Und so sind wir als BSI zusammen mit anderen Behörden in der United Nations Economic Commission for Europe (UNECE) aktiv, um auch dort das Thema KI voranzutreiben.