- Projekt Titel: iLIDS4SAM
- FFG IKT der Zukunft Leitprojekt
- Projektdauer: 36 Monate
- Webseite: https://www.ilids4sam.at
Aktuelle Fahrerassistenzsysteme fokussieren auf vergleichsweise einfache Szenarien, in denen sich Objekte vorhersagbar verhalten, wie Autobahnverkehr oder Parkassistenz ohne Fußgänger, Radfahrer oder Querverkehr. Es besteht somit ein dringender Bedarf, die Einsatzgebiete auf den städtischen Verkehr zu erweitern. Der Aktionsplan “Automatisiert-vernetzt-mobil” des bmvit definiert sieben Use Cases, davon drei mit Vorrang, welche Szenarien im Stadtverkehr mit einschließen und 360° Rundumblick und vorausschauende Gefahrenerkennung verlangen. Auch Euro NCAP definiert Testfälle mit Vulnerable Road Users (VRUs) wie erwachsenen Fußgängern, Kindern und Fahrradfahrern im Stadtverkehr.
iLIDS4SAM wird dies durch die Entwicklung neuartiger LiDAR-basierter Systeme für die vorausschauende Gefahrenbewertung mit VRUs im städtischen Bereich adressieren. Die dazu nötige signifikante Verbesserung von Gesichtsfeld und Auflösung erfordert Innovationen aller Komponenten eines LiDAR-Sensors: eine hybride Laserquelle für kürzere und intensivere Pulse bei höherer Wiederholrate, ein neues Spiegel- und Package-Design mit größerer Fläche bei größeren Auslenkwinkeln, ein Empfänger mit größerem Detektorfeld und eine effizientere und gleichzeitig genauere Pulsdetektion und Zeitmessung.
Die resultierenden Punktwolken gehen in die 3D-Objektdetektion und –klassifikation ein. Die Objekte werden in einem sicheren, subsidiären Datenauswerteprozess segmentiert, mit Hilfe von Deep Learning-Algorithmen identifiziert und in Fahrzeuge, Fußgänger, Radfahrer, stationäre Objekte usw. klassifiziert. Diese LiDAR-Daten werden in Folge mittels Sensor Fusion mit Radar- und Kameradaten kombiniert. Die Hardware für Datenauswertung und Sensor Fusion beinhaltet einen Rechner mit standardisierten Sensorschnittstellen für LiDAR, Radar und Ultraschallsensoren sowie Kameras und die Netzwerkkonnektivität. Dies erlaubt eine umfassende Datensammlung von allen Sensoren während Testfahrten. Die Daten werden annotiert und für Training, Test und Evaluation der Objektklassifikatoren und Algorithmen verwendet. Es ist geplant, resultierende Datensätze öffentlich zur Verfügung zu stellen, um weitere Forschung zu unterstützen; ein Data Management Plan wird die Details für den Zugriff beschreiben. Des Weiteren soll die Sensorfusions-Hardware als Entwicklungsplattform für zukünftige Forschungsprojekte nutzbar sein. Neben einem geplanten Beitrag zu einem neuen ISO Standard in ISO TC22/SC31 „Road vehicles – data communication“ soll das Open Simulation Interface genutzt werden um die fusionierten Objekte, Freiflächeninformation usw. den Algorithmen zum Szenenverständnis weiterzureichen, wo die Objekte verfolgt und ihr Verhalten im Sinn einer prädiktiven Gefahrenbewertung vorausgesagt werden.
Für die hochrelevante Simulation und Validierung von Fahrerassistenz- und autonomen Systemen im urbanen Umfeld werden neue Test- und Referenzsysteme auf Basis des hochauflösenden LiDAR-Sensors entwickelt. Schließlich werden verschiedene ausgewählte Use Cases, u.a. für Straßen- und Schienenfahrzeuge im städtischen Bereich sowie landwirtschaftliche Anwendungen, umgesetzt, um die Relevanz und Leistungsfähigkeit des Ansatzes praktisch zu demonstrieren.
Dr. Andreas Tortschanoff
Principal Scientist | Photonic Systems
E-mail: contact@silicon-austria.com
Member Area
Login