Wenn dem Autoscheinwerfer ein Licht aufgeht

Symbolbild.
Symbolbild.(c) imago/Jonas Walzberg (Jonas Walzberg)

Scheinwerfer, die Straßen clever ausleuchten, könnten das automatisierte Fahren sicherer machen. Die erforderlichen Daten sollen Kameras liefern, die selbst vor Schlechtwetter nicht kapitulieren.

Florian Seitner fährt einen alten Opel Astra, ein Auto, das ihn all die Jahre nicht im Stich gelassen hat. Ein verbrauchsarmer Vertreter der Kompaktwagenklasse, optimal für die Stadt. Lenk- oder Bremsassistent sind freilich nicht an Bord. Auch sonst keine Helferlein, die den Stadthüpfer auf das Autonomielevel eins, die unterste von fünf Stufen automatisierten Fahrens, heben würden.

Seitner sieht es gelassen. Er ist CEO und Gründer der Wiener Firma Emotion3D, eines Spin-off der TU Wien. Als solcher hat er mit autonomen Fahranwendungen, die aktuell ein neues Kapitel der Mobilität aufschlagen, reichlich zu tun. Das liegt an seiner Disziplin, der automatischen Analyse von Bildern in Echtzeit mittels künstlicher Intelligenz. Aus den mit Kameras im Fahrzeuginnenraum aufgenommenen Bildern lassen sich damit etwa Körperhaltung, Aufmerksamkeit, Emotionen und Gesten eines Fahrers deuten − „eine wesentliche Interpretationsgrundlage für das automatisierte Fahren“, sagt Seitner. Außerhalb des Fahrzeugs findet diese Muster- und Bewegungserkennung ebenso Anwendung.

Denn auch die bessere Erfassung der Fahrzeugumwelt durch Kameras − etwa zur effizienteren automatisierten Einleitung von Bremsmanövern − ist ein Gegenstand der Forschung. „Häufig werden die hier vorhandenen Algorithmen zur Objekterkennung nur unter idealen Bedingungen getestet“, weiß die TU-Informatikerin Margrit Gelautz. Im FFG-geförderten Projekt Car Vision Light untersucht sie mit Seitner einen alternativen Ansatz. Entstehen soll ein Algorithmus, „der mehr verinnerlicht hat als nur Schönwetterszenarien“, sagt Gelautz.

 

Studium von Wind und Wetter

In den nächsten Monaten soll er Zehntausende Tag- und Nachtszenen einstudieren, unterschiedliche Objektklassen lernen und sie selbstständig in neuen Bildern identifizieren. Und Schlechtwetteraufnahmen vorgesetzt bekommen, bei denen die Zuordnung der einzelnen Bildpunkte zu Objekten − anderen Verkehrsteilnehmern, der Vegetation oder der Verkehrsinfrastruktur − noch eine Spur schwieriger ist. „Die Algorithmen müssen sich auf regennassen, stark reflektierenden ebenso wie auf eingeschneiten Fahrbahnen beweisen“, heißt es im Projekt. Das erforderliche Trainingsmaterial an Bilddaten lag Anfang Juni bereits großteils vor. Teilweise wurde es mittels Computergrafik simuliert. „Hauptsächlich aber ist es realen Verkehrsszenen entnommen“, sagt Gelautz.

 

Mächtigeres Fernlicht

Auch der Lichtsystemehersteller ZKW stellt Daten bereit. Die Wieselburger, im Vorjahr vom südkoreanischen Konzern LG übernommen, sind nicht zufällig ein Partner im Projekt. Nicht mehr im Fahrzeuginneren hinter der Windschutzscheibe, sondern an der Fahrzeugfront positioniert, könnten Kameras der Scheinwerferelektronik Daten zur Art, Position und Distanz von Straßenobjekten übermitteln. Die Folge könnte eine effizientere Ansteuerung des Fernlichtassistenten und entsprechend höhere Straßensicherheit sein. Umgekehrt könnten auch die Kameras aus einer solchen Schnittstelle Profit schlagen. „Ist die Szene bedarfsgerecht ausgeleuchtet, können Kameras die Umwelt effizienter erfassen“, sagt Seitner. Projektschluss ist im Mai des nächsten Jahres. Fürs Erste erwarten die Algorithmen in Wien lange Trainingsstunden.

IN ZAHLEN

85 Milliarden Euro investierten Technologiefirmen seit 2013 weltweit ins automatisierte Fahren. 2021 sollen allein 82.000 Fahrzeuge der Google-Tochter Waymo auf US-Straßen unterwegs sein.

1200 autonome Testautos fahren aktuell in den US-Staaten Arizona und Kalifornien.

("Die Presse", Print-Ausgabe, 15.06.2019)