see. think. act.

Technologie

#AutonomousEverything

Sensor-Power für das automatisierte Fahren

min Lesezeit
Tags: Sicherheit, SeeThinkAct, NullUnfälle
Automatisierte Fahrzeuge brauchen Sensoren, um ihr Umfeld zu erfassen. Eine wesentliche Voraussetzung vieler Fahrerassistenzsysteme sind Kameras. Für autonomes Fahren braucht es unterschiedliche Sensoren.
15. Januar 2019
Eine Kamera, die auf jedem Bild eine leere Stelle erzeugt, scheint eine Fehlkonstruktion zu sein. Vergleicht man das menschliche Auge mit einer Kamera, dann passiert genau das beim Sehen: An der Stelle, an der aus der Netzhaut der Sehnerv austritt, sitzen keine Rezeptoren, die Lichtreize aufnehmen, aus denen im Gehirn dann ein Bild entsteht. Diese Stelle im Auge ist der sogenannte blinde Fleck. Er stört jedoch nicht, da die Informationen der umliegenden Rezeptoren auf der Netzhaut und vor allem der Seheindruck des anderen Auges die fehlenden Bildpunkte ausgleichen. Gleichzeitig sorgen die beiden nebeneinanderliegenden Augen dafür, dass wir räumliche Tiefe wahrnehmen – die Voraussetzung, um Entfernungen abzuschätzen. Technisch ausgedrückt: Die Daten zweier Sensoren fusionieren zu einem vollständigeren Bild mit mehr Information.

Sensoren für das automatisierte Fahren

Sensoren für das automatisierte Fahren

Genau dieses Prinzip nutzen auch die Entwickler automatisierter Fahrfunktionen. Damit ein autonom fahrendes Auto jede Verkehrssituation auch bei ungünstigen Licht- und Witterungsbedingungen zweifelsfrei wahrnehmen kann, braucht es ganz unterschiedliche Sensoren. Kameras, Radar- und Lidarsensoren haben jeweils ihre speziellen Vorzüge. Werden die intelligent gebündelt, gestatten sie einen umfassenden und detaillierten 360-Grad-Blick.

Kameras: unterschiedliche Bildwinkel für jede Fahrsituation

Kameras: unterschiedliche Bildwinkel für jede Fahrsituation

Kameras sind für die Objekterkennung unverzichtbar. Sie liefern dem Fahrzeug die nötige Information, um den am Fahrbahnrand wahrgenommenen Gegenstand mittels künstlicher Intelligenz als Fußgänger oder Mülleimer zu identifizieren. Darüber hinaus liegt die große Stärke von Kameras in der präzisen Messung von den Winkeln. So lässt sich beispielsweise frühzeitig erkennen, ob ein vorausfahrendes Fahrzeug abbiegen wird. Verlangt der Stadtverkehr einen breiten Bildwinkel, um Fußgänger und Radfahrer zu erfassen, sind auf der Autobahn eine lange Reichweite und ein schmaler Bildwinkel gefragt. Das breit gefächerte Angebot an unterschiedlichen Kamerasystemen von ZF ist wichtig für die adaptive Geschwindigkeitsregelung (ACC), für automatische Notbremssysteme (AEB) oder Spurwechselassistenten (LCA).

Radarsensoren: Echosystem bei schlechter Sicht

Radarsensoren: Echosystem bei schlechter Sicht

Im Gegensatz zu Kameras, die Bildinformationen „passiv“ aufnehmen, handelt es sich bei Radar um eine aktive Technologie: Sensoren senden elektromagnetische Wellen aus und empfangen das „Echo“, das von umliegenden Objekten zurückgeworfen wird. So können Radarsensoren insbesondere die Entfernung sowie die relative Geschwindigkeit dieser Objekte mit hoher Genauigkeit bestimmen. Damit eignen sie sich zum Abstand halten genauso wie zur Kollisionswarnung oder für Notbremsassistenten. Ein weiterer entscheidender Vorteil von Radarsensoren gegenüber optischen Systemen: Da sie Radiowellen verwenden, funktionieren sie unabhängig von Wetter-, Licht- und Sichtverhältnissen. Das macht sie zu einer wichtigen Komponente im Sensor-Set.

Lidar: Laserscharfer Rundumblick

Lidar: Laserscharfer Rundumblick

Lidarsensoren nutzen ebenfalls das Echo-Prinzip, verwenden jedoch Laserpulse anstatt Radiowellen. Abstände und Relativgeschwindigkeiten erfassen sie daher ähnlich gut wie ein Radar, erkennen aber Objekte und Winkel viel genauer. Deshalb überblicken sie auch komplexe Verkehrssituationen bei Dunkelheit sehr gut. Anders als bei Kameras und Radarsensoren spielt der Bildwinkel hier keine Rolle, da Lidarsensoren das 360-Grad-Umfeld des Fahrzeugs erfassen.

Gemeinsam unschlagbar dank künstlicher Intelligenz

Gemeinsam unschlagbar dank künstlicher Intelligenz

Kombiniert zu einem Sensor-Set, verhindern die genannten technischen Lösungen auch in unübersichtlichen Situationen das Entstehen eines blinden Flecks in der Wahrnehmung des Fahrzeugumfelds. Um die Sensorinformationen von Lidar, Radar, Kameras und Sound.AI zu einem eindeutigen Bild zusammenzufügen, ist natürlich noch ein „Gehirn“ nötig. Die Lösung von ZF: der Supercomputer ProAI.

Autonomes Fahren

Wie ist der Stand der Technik? Wie wird getestet? Was bringt die Zukunft? Alles über das automatisierte und autonome Fahren von Autos und anderen Fahrzeugen.

Verwandte Themen