see. think. act.

Technologie

©ZF
#SmartMobility

Traumwandlerische Sicherheit

min Lesezeit
Kann ein Auto auf einem Messestand in Las Vegas stehen und gleichzeitig eine Strecke in Friedrichshafen abfahren? Das Level-4-Entwicklungsfahrzeug von ZF macht das gerade vor: es ist ein autonom fahrendes „Dream Car“.
Andreas Neemann, 09. Januar 2018
author_image
Andreas Neemann hat seinen ersten ZF-Magazintext im Jahr 2001 zum 6HP-Automatgetriebe geschrieben. Seither begleitet der Automotive-Autor mit Faible für komplexe Themen den Konzern in vielen Publikationen für interne wie externe Leser.
Etwas ist anders an diesem Fahrzeug auf dem Messestand von ZF auf der CES in Las Vegas: Obwohl keine Insassen darin sitzen, bewegen sich Lenkrad und Fronträder des Kombi-Pkw. „Man könnte sagen, das Auto träumt, wie es gerade eine Strecke abfährt“, erklärt Arnold Schlegel. Der Ingenieur in der Vorentwicklung der ZF Friedrichshafen AG hat als Projektleiter in den vergangenen neun Monaten dieses „Dream Car“ aufgebaut, das ZF nun als Messehighlight auf der „Consumer Electronics Show“ 2018 präsentiert. Das Fahrzeug „denkt“ gerade, es fahre autonom durch das mehr als 9.200 Kilometer entfernte Friedrichshafen.

Datenflut im Stadtverkehr

Datenflut im Stadtverkehr

„Hier, fassen Sie mal an“, sagt Schlegel und weist auf einen neben dem „Dream Car“ aufgebauten silbrigen Kasten. Normalerweise ist diese Steuerbox mit ihrem Alugehäuse voller Kühlrippen, Anschlüssen und Steckern tief im Innern des Fahrzeugs verborgen. Die Wärme, die von dieser Box ausgeht, lässt auf intensive Rechentätigkeit im Inneren schließen. „Wir gaukeln dem Auto eine andere Realität vor, indem wir ihm die Sensordaten einer Fahrt durch Friedrichshafen einspielen“, so Schlegel. Das bringt die Steuerbox ZF ProAI auf Temperatur. Sie verarbeitet live die Signale von Front-, Seiten- und Heckkameras, von Lidar- und Radarsensoren sowie die Kartendaten und Positionsbestimmungen eines GPS. Die Daten haben Ingenieure von ZF auf einer eineinhalb Kilometer langen Strecke zwischen Forschungszentrum und Konzernzentrale in Friedrichshafen aufgezeichnet. Dieser Parcours ist gespickt mit Herausforderungen für ein Robo-Car: eine Spur für Radfahrer, zwei Bushaltestellen, drei Kreisverkehre, zwei Ampeln und fünf Zebrastreifen – typisches urbanes Umfeld also. Autonom zu fahren auf einem leeren US-Highway ist technisch wenig anspruchsvoll. Im hektischen europäischen Stadtverkehr trennt sich jedoch die Spreu vom Weizen. Denn dort erzeugen die Sensoren eine Flut von Signalen, die die Software rasch und richtig interpretieren muss. „Unsere Algorithmen machen aus diesem Datenwust ein tatsächliches Bild des Straßenverkehrs. Das ist die Grundlage für ein autonomes Fahrzeug, seinen Weg durch das Verkehrsdickicht zu berechnen und zu fahren“, sagt Schlegel.
Der Fahrer überwacht nur noch. Sensoren liefern die Grundlage für die autonome Fahrt.
ZF
Künstliche Intelligenz für autonome Fahrfunktionen: ZF-Experte Oliver Briemle über die Steuerbox ZF ProAI und das Entwicklungsfahrzeug „Dream Car“.

Rechenleistung satt

Rechenleistung satt

Dabei ist Rechenleistung entscheidend. Eine Kamera allein erzeugt pro Sekunde ein Gigabit an digitalen Daten. Ein handelsüblicher PC-Prozessor wäre hoffnungslos überfordert mit der Echtzeit-Verarbeitung all der Sensordaten, die für die 360-Grad-Rundumsicht eines Level-4-Fahrzeugs notwendig sind. Deshalb ist die Steuerbox mit dem Namen ZF Pro AI des „Dream Car“ auch ein kleiner Supercomputer. ZF und der IT-Spezialist NVIDIA haben sie gemeinsam vor einem Jahr vorgestellt. In der Version für das „Dream Car“ ist der sogenannte Xavier-Chip mit 8-Kern-CPU-Architektur, sieben Milliarden Transistoren und entsprechend eindrucksvollen Leistungsdaten verbaut. Er bewältigt bis zu 30 Billionen Rechenoperationen pro Sekunde (so genannte TOPS – Trillion Operations per Second) bei einem Stromverbrauch von nur 40 Watt - je nach Kundenanforderung. Dank ZF erfüllt der Chip wie die ZF Pro AI insgesamt die strengen Standards für automobile Anwendungen.
Die besondere Leistung von ZF liegt jedoch nicht in der Anpassung der Hardware allein, sondern auch in der Software. Schlegel und sein Team haben eine Entwicklungsarchitektur gefunden, mit der sich Deep-Learning-Algorithmen und künstliche Intelligenz besonders effizient für die Entwicklung autonomer Fahrfunktionen einsetzen und mit der Sensor-Hardware verknüpfen lassen.
Ein Monitor zeigt dem Fahrer, wie das System seine Umgebung wahrnimmt.

Mit Entwicklungsbausteinen zum autonom fahrenden Fahrzeug

Mit Entwicklungsbausteinen zum autonom fahrenden Fahrzeug

Schließlich ist automatisiertes Fahren nicht gleich automatisiertes Fahren. Experten teilen das automatisierte Fahren in fünf Stufen ein, von Level 1 (volle Kontrolle des Fahrers, der allenfalls von isolierten Assistenzsystemen unterstützt wird) bis Level 5 (volle Kontrolle des Systems). Für Ingenieure der Automobilindustrie gibt es keine Blaupause, nach der sie Entwicklungen für die jeweilige Automatisierungsstufe realisieren können. „Das weite Feld des automatisierten Fahrens ist letzten Endes die Summe vieler einzelner Fahrfunktionen, die ein Auto ohne menschlichen Eingriff beherrschen muss – und zwar ausfallsicher und im Fall unserer Systeme auch unter verschiedensten Wetter-, Verkehrs- und Sichtverhältnissen“, erklärt Schlegel. Mit ihrer Software-Architektur haben er und sein Team die Antwort auf die Frage erleichtert, welche Sensoren-Konfiguration und welche Software-Bausteine für welchen Level eines autonomen Fahrzeugs gebraucht werden. Auf diese Weise kann ZF skalierbare Lösungen anbieten. Hersteller, die eine hochautomatisierte Level-3-Lösung anbieten wollen – bei der der Fahrer innerhalb einer bestimmten Zeitspanne die Kontrolle wieder übernimmt – bekommen exakt das Sensor-Set, die Prozessorleistung und die Software-Module, die sie dazu benötigen. Darauf aufbauend erhält ein Level-4-Projekt, bei dem die Software vollautomatisiert und dauerhaft das Auto steuert, eine leistungsfähigere und umfassendere Konfiguration. Schlegel und sein Team haben sehr intensiv an der Schnittstelle zwischen Sensoren und Software gearbeitet – also am Übergang zwischen „See“ und „Think“ im strategischen ZF-Dreiklang. Dessen letzte Stufe, das „Act“ ist die Umsetzung der Fahrbefehle durch die mechatronischen Systeme in Antrieb, Bremse und Lenkung. Vor allem bei der Interpretation der Daten mittels künstlicher Intelligenz hat das Entwicklerteam große Fortschritte gemacht. Etwa bei der Datenfusion – wenn also Objekte etwa erst durch den Abgleich von Radar- und Kameradaten zweifelsfrei erkannt werden können.
Das Dream Car erkennt den Fußgänger auf dem Zebrastreifen – und stoppt automatisch.

Nächste Station: Serieneinsatz

Nächste Station: Serieneinsatz

Damit hat ZF die Grundlagen geschaffen, um die ZF ProAI fit für den Serieneinsatz zu machen. Ein erster Auftrag aus China steht kurz vor dem Abschluss. Weitere könnten folgen – nicht zuletzt resultierend aus der Vorstellung des „Dream Car“ auf der CES 2018. Das, was Schlegel mit den CES-Messebesuchern am ZF-Stand bespricht, könnte also auch bald Rückwirkungen auf die 9.200 Kilometer entfernte F&E-Zentrale haben.