iLIDS4SAM

Automatisierte Mobilitätssysteme bewegen sich derzeit in Richtung komplexerer Stadtverkehrsszenarien. Das iLIDS4SAM-Projekt wird diesen Übergang ermöglichen, indem leistungsstarke, kostengünstige LiDAR-Sensoren mit vergrößertem Sichtfeld und größerer Auflösung entwickelt werden.

Aktuelle Fahrerassistenzsysteme fokussieren auf vergleichsweise einfache Szenarien, in denen sich Objekte vorhersagbar verhalten, wie Autobahnverkehr oder Park­assistenz ohne Fuß­gänger, Radfahrer oder Querverkehr. Es besteht somit ein dringender Bedarf, die Einsatzgebiete auf den städtischen Verkehr zu erweitern. Der Aktionsplan “Automatisiert-vernetzt-mobil” des bmvit definiert sieben Use Cases, davon drei mit Vorrang, welche Szenarien im Stadtverkehr mit einschließen und 360° Rund­um­blick und voraus­schauende Gefahrenerkennung verlangen. Auch Euro NCAP definiert Testfälle mit Vulnerable Road Users (VRUs) wie erwachsenen Fußgängern, Kindern und Fahrrad­fahrern im Stadtverkehr.

iLIDS4SAM wird dies durch die Entwicklung neuartiger LiDAR-basierter Systeme für die vorausschauende Gefahrenbewertung mit VRUs im städtischen Bereich adressieren. Die dazu nötige signifikante Verbesserung von Gesichtsfeld und Auflösung erfordert Innovationen aller Komponenten eines LiDAR-Sensors: eine hybride Laserquelle für kürzere und intensivere Pulse bei höherer Wiederholrate, ein neues Spiegel- und Package-Design mit größerer Fläche bei größeren Auslenkwinkeln, ein Empfänger mit größerem Detektorfeld und eine effizientere und gleichzeitig genauere Pulsdetektion und Zeitmessung.

Die resultierenden Punktwolken gehen in die 3D-Objektdetektion und –klassifikation ein. Die Objekte werden in einem sicheren, subsidiären Datenauswerteprozess segmentiert, mit Hilfe von Deep Learning-Algorithmen identifiziert und in Fahrzeuge, Fußgänger, Rad­fahrer, stationäre Objekte usw. klassifiziert. Diese LiDAR-Daten werden in Folge mittels Sensor Fusion mit Radar- und Kameradaten kombiniert. Die Hardware für Daten­auswertung und Sensor Fusion beinhaltet einen Rechner mit standardisierten Sensor­schnittstellen für LiDAR, Radar und Ultraschallsensoren sowie Kameras und die Netzwerk­konnektivität. Dies erlaubt eine umfassende Datensammlung von allen Sensoren während Testfahrten. Die Daten werden annotiert und für Training, Test und Evaluation der Objektklassifikatoren und Algorithmen verwendet. Es ist geplant, resultierende Datensätze öffentlich zur Verfügung zu stellen, um weitere Forschung zu unterstützen; ein Data Management Plan wird die Details für den Zugriff beschreiben. Des Weiteren soll die Sensorfusions-Hardware als Entwicklungsplattform für zukünftige Forschungsprojekte nutzbar sein. Neben einem geplanten Beitrag zu einem neuen ISO Standard in ISO TC22/SC31 „Road vehicles – data communi­ca­tion“ soll das Open Simulation Interface genutzt werden um die fusionierten Objekte, Freiflächen­information usw. den Algorithmen zum Szenenverständnis weiterzureichen, wo die Objekte verfolgt und ihr Verhalten im Sinn einer prädiktiven Gefahrenbewertung vorausgesagt werden.

Für die hochrelevante Simulation und Validierung von Fahrerassistenz- und autonomen Systemen im urbanen Umfeld werden neue Test- und Referenzsysteme auf Basis des hochauflösenden LiDAR-Sensors entwickelt. Schließlich werden verschiedene ausgewählte Use Cases, u.a. für Straßen- und Schienenfahrzeuge im städtischen Bereich sowie landwirtschaftliche Anwendungen, umgesetzt, um die Relevanz und Leistungsfähigkeit des Ansatzes praktisch zu demonstrieren.

Projektfakten

  • Projekt Titel: iLIDS4SAM
  • FFG IKT der Zukunft Leitprojekt
  • Projekt­dauer: 36 Monate
  • Webseite: https://www.ilids4sam.at

 

Ihr Ansprechpartner

Dr. Andreas Tortschanoff

Principal Scientist | Photonic Systems

E-mail: contact@silicon-austria.com

Member Area
Login