Besonders die Entwicklung und die Tests des virtuellen Fahrersystems haben laut Ford durch die erweiterte Sensor- und Rechenleistung einen großen Sprung gemacht. Eingestuft sind die Autos in die Autonomiestufe 4 auf der sechsstufigen Skala der Society of Automotive Engineers (SAE). Es benötigt keinen Fahrer, folglich muss das Fahrzeug alle Steuersysteme ebenso gut bedienen können wie der Mensch.
Das virtuelle Ford-Fahrersystem umfasst neben den Sensoren (LiDAR, Kameras und Radar) Algorithmen für die Lokalisation und Streckenplanung, computerbasierte Bild-Auswertung und maschinelles Lernen sowie hochdetaillierte 3-D-Karten. Das Kartenmaterial umfasst alles, was das virtuelle Fahrersystem über die Straßen weiß, bevor das Auto überhaupt startet – etwa die genaue Position von Ampeln, Stoppschildern, Fußgängerüberwegen und anderen statischen Merkmalen. Nach dem Losfahren nutzt das System dann sein LiDAR, bei dem Radarsensoren und Kameras kontinuierlich das Umfeld des Autos erfassen und es mit den Informationen der 3-D-Karte vergleichen. So kann die Position des Fahrzeugs auf der Straße sehr genau lokalisiert werden. Zudem umfasst die vermittelte Wahrnehmung ein System, in dem die Verkehrsregeln hinterlegt sind. So kann das System das Fahrzeug auf alle Ge- und Verbote vorbereiten. Die direkte Wahrnehmung ergänzt die vermittelte Wahrnehmung. Sie nutzt die Sensoren, um dynamische Elemente – wie Fußgänger, Radfahrer und andere Autos – zu erkennen. Die Sensoren können sogar helfen, Gesten zu interpretieren, etwa wenn ein Polizist den Verkehr mit Handzeichen regelt. Die direkte Wahrnehmung erfordert noch bessere Software und eine noch höhere Rechenleistung, denn sie muss beispielweise vorausberechnen, wie schnell und wohin sich ein Fußgänger oder Radfahrer bewegt.
Rein äußerlich unterscheiden sich die Versuchsfahrzeuge vor allem durch die zahlreichen Sensoren von der Serienversion des Fusion Hybrid. An den A-Säulen befinden sich zwei LiDAR-Sensoren jeweils von der Größe eines Eishockey-Pucks. Jeder dieser Laser erzeugt Millionen sogenannter LiDAR-Strahlen, die das Fahrzeug in Form eines Gitters umgeben und somit eine 360-Grad-Rundumsicht ermöglichen. Diese Sensoren der neuesten Generation scannen in alle Richtungen eine Fläche, die ungefähr der Größe von zwei Fußballfeldern entspricht. Zusätzlich verfügen die Entwicklungsträger von Ford über drei Kameras, die in einer Art Dachreling platziert sind. Hinzu kommt eine weitere an der Windschutzscheibe, die das Geschehen vor dem Auto analysiert.
Die von allen drei Systemen – LiDAR, Kameras und Radarsensoren – ermittelten Daten erzeugen mit Hilfe des zentralen Rechners entsteht eine virtuelle 3-D-Karte zur digitalen Darstellung der Fahrzeugumgebung. Das Treffen von Entscheidungen auf Basis dieser Wahrnehmungen. Die zentrale Steuereinheit befindet sich im Kofferraum. Der hochmoderne Computer wartet mit der Rechenleistung mehrerer High-End-PCs auf und verarbeitet pro Stunde eine Datenmenge von einem Terabyte (1000 Gigabyte). Dies ist mehr als das mobile Datenaufkommen, das ein durchschnittlicher Smartphone-Nutzer innerhalb von 45 Jahren anhäuft. Die Algorithmen, die die Ingenieure von Ford entwickelten, erzeugen pro Sekunde Millionen von Daten und sorgen dafür, dass das autonom fahrende Auto richtig reagiert. Für die speziellen Anforderungen optimierte Ford die Software und, wo nötig, auch die Hardware des Ford Fusion Hybrid. So können die für autonomes Fahren erforderlichen elektrischen Steuersignale an Lenkung, Bremse, Gas und Getriebe übermittelt werden.
Ford wird in seine autonome Fahrzeug-Testflotte in den USA im kommenden Jahr verdreifachen – von derzeit 30 auf etwa 90 selbst fahrende Fusion Hybrid für Straßentests in Kalifornien, Arizona und Michigan, die auch bei winterlichen Bedingungen stattfinden sollen. Darüber hinaus hat Ford angekündigt, in Europa den Erprobungsbetrieb mit autonom fahrenden Autos ebenfalls im kommenden Jahr aufzunehmen. (ampnet/jri)
|