Concept 2020 von ZF

Neue Technologien von ZF

Das Superhirn fürs autonome Fahren

Künstliche Intelligenz und ein umfangreiches Sensor-Set sind der Schlüssel für autonome Fahrfunktionen. Der Superrechner ZF ProAI ermöglicht eine kontinuierliche Erweiterung und Skalierbarkeit der benötigten Hardware und Funktionalitäten.
Ohne eine äußerst präzise Ermittlung und Verarbeitung von sogenannten Umfelddaten wäre das Thema autonomes Fahren reine Utopie. Was heute bereits machbar ist, zeigt der von ZF und NVIDIA vorgestellte Supercomputer ZF ProAI. Das Datensuperhirn agiert als zentrale Steuereinheit des Versuchsfahrzeugs, das ZF Anfang 2018 auf der Consumer Electronics Show (CES) vorgestellt hat. Ingenieure der ZF-Vorentwicklung haben bei dem Versuchsträger zahlreiche Funktionen realisiert, die vollautomatisiertes Fahren gemäß Level 4 möglich machen. Und damit eindrucksvoll die umfangreichen Kompetenzen von ZF als Systemarchitekt für das autonome Fahren unter Beweis gestellt.

Modulare System-Architektur für bedarfsgerechte Automatisierung

Der Hochleistungsrechner ZF ProAI erkennt in der Flut der Daten wiederkehrende Muster, zum Beispiel einen die Fahrbahn querenden Fußgänger.

©ZF

Ansatz und Ziel des Technologiekonzerns ist eine Systemarchitektur, die sich auf beliebige Fahrzeuge übertragen und je nach Einsatzzweck, verfügbarer Hardware-Ausstattung und gewünschtem Automatisierungslevel zuschneiden lässt. Der modulare Ansatz erleichtert den Ingenieuren der Automobilindustrie die Arbeit: Blaupausen, nach denen sie Entwicklungen für die jeweiligen Automatisierungsstufen realisieren können, gibt es nämlich nicht. "Das weite Feld des automatisierten Fahrens ist die Summe vieler einzelner Fahrfunktionen, die ein Auto ohne menschlichen Eingriff abrufen können muss – und zwar ausfallsicher und auch unter verschiedensten Wetter-, Verkehrs- und Sichtverhältnissen", erläutert Torsten Gollewski, Leiter Vorentwicklung der ZF Friedrichshafen AG.

Seh- und Denkfähigkeit für Autos

Für das Versuchsfahrzeug baute ZF eine komplette, modulare Entwicklungsumgebung inklusive Funktionsarchitektur mit künstlicher Intelligenz auf. "Wir haben beispielhaft eine Konfiguration für vollautomatisierte, also Level-4-Fahrfunktionen realisiert, die sich über die ZF-Domänen ‚see-think-act‘ auf den jeweiligen Anwendungsfall applizieren lässt. Sie verhilft den Fahrzeugen zur notwendigen Seh- und Denkfähigkeit, etwa für innerstädtischen Verkehr", so Gollewski. Gleichzeitig gibt sie Aufschluss darüber, welche Hardware-Minimalkonfiguration für welchen Autonomie-Level unabdingbar ist. ZF-Ingenieure trainierten dem Fahrzeug unterschiedliche Fahrfunktionen an. Dabei standen besonders urbane Situationen im Mittelpunkt, beispielsweise die Interaktion mit Fußgängern und Fußgängergruppen vor Zebrastreifen, Kollisions-Abschätzung, das Verhalten vor Ampeln und in Kreisverkehren. "Im Gegensatz zu einer Autobahn- oder Landstraßenfahrt ist es in städtischen Szenarien deutlich aufwändiger, ein gesichertes Verständnis der aktuellen Verkehrssituation herzustellen, das die Basis für angemessene Aktionen eines computergesteuerten Fahrzeugs bietet", sagt Gollewski.

ZF ProAI: Denkleistung nach Wunsch

Die ZF ProAI mit ihrer offenen Gesamtarchitektur ist skalierbar. Das heißt, sowohl die Hardware-Komponenten, die angeschlossenen Sensor-Sets als auch die Auswertungs-Software und Funktionsmodule lassen sich an den gewünschten Zweck und den Grad der Automatisierung anpassen. So ist die ZF ProAI beispielsweise in puncto Rechnerleistung für nahezu jedes konkrete Anforderungsprofil konfigurierbar. Bei der CES-Anwendung nutzt die Steuerungseinheit den sogenannten Xavier-Chip mit 8-Kern-CPU-Architektur, sieben Milliarden Transistoren und entsprechend eindrucksvollen Leistungsdaten: Xavier bewältigt bis zu 30 Billionen Rechenoperationen pro Sekunde (TOPS, Trillion Operations per Second) bei einem Stromverbrauch von nur 30 Watt. Der Chip erfüllt wie die ZF ProAI insgesamt die strengen Standards für automobile Anwendungen – und schafft dort die Voraussetzung für künstliche Intelligenz und Deep Learning.

Zusammenspiel der Daten

Kamera-, LiDAR- und Radar-Sensoren ermöglichen eine 360-Grad-Umfeldanalyse, die alle 40 Millisekunden aktualisiert wird.

©ZF

Um die Umgebung im Blick zu haben, spielt vor allem das umfassende Sensor-Set von ZF eine wichtige Rolle. Im aktuellen Fahrzeug sind Kamera-, LiDAR- und Radar-Sensoren verbaut. Sie ermöglichen eine 360-Grad-Umfeldanalyse des Entwicklungsträgers, die alle 40 Millisekunden aktualisiert wird. Die enorme Datenflut – allein eine Kamera generiert ein Gigabit pro Sekunde (!) – wird von der Recheneinheit ZF ProAI in Echtzeit analysiert. "Künstliche Intelligenz und Deep-Learning-Algorithmen dienen vor allem dazu, die Analyse zu beschleunigen und die Erkennung zu präzisieren. Es geht darum, aus der Flut der Daten wiederkehrende Muster in den Verkehrssituationen zu erkennen, etwa einen Fußgänger, der die Fahrbahn überqueren will", so Gollewski. Die dann abgerufenen Reaktionsweisen des Fahrzeugs, die für die Berechnung der Längsbeschleunigung oder Verzögerung sowie der weiteren Fahrtrichtung ausschlaggebend sind, sind nach wie vor fest in der Software hinterlegt.

Showcar "träumt" eine Fahrt durch Friedrichshafen

Auf der CES ließ sich dies auch auf dem Messestand erleben. ZF hatte das in Las Vegas statisch aufgebaute Fahrzeug mit Sensordaten "gefüttert", die bei einer Live-Erprobungsfahrt zwischen ZF-Forum und Forschungs- und Entwicklungszentrum in Friedrichshafen gewonnen wurden. Das Fahrzeug – insbesondere die ZF ProAI – interpretiert diese Daten live, bedeutet: als wäre es gerade auf dieser Strecke unterwegs. Die am Messestand sichtbaren Aktionen wie Lenkeinschläge, Brems- und Beschleunigungsvorgänge entsprachen exakt einer Fahrt, die 9.200 Kilometer Luftlinie entfernt stattfand – fast so, als träumte der Wagen von diesem Ausflug auf einem anderen Kontinent.

Fotos: ZF

Diesen Beitrag empfehlen

Anzeige

Automarkt

Gebrauchtwagen