Fusion der Daten von optischen Sensoren für die Entwicklung automatisierter Fahrfunktionen

Hintergrund:

Für das Testfeld Autonomes Fahren Baden-Württemberg ist am Institut für Fahrzeugsystemtechnik (FAST) ein mobiler Leitstand vorhanden, um zahlreiche Fragestellungen im Kontext der Perzeption für das Autonome Fahren zu erforschen. Das Fahrzeug verfügt über verschiedene Sensoren, wie z.B. Kameras oder LIDAR-Sensoren, um das Umfeld des Leitstandes detailliert zu erfassen. Zur Entwicklung automatisierter Fahrfunktionen ist die Datenfusion verschiedener Sensortechnologien unerlässlich, da u.a. die Redundanz und Robustheit und somit die Sicherheit eines Systems erhöht werden kann. Beispielsweise eignen sich für die Detektion von Objekten insbesondere Kameras. Allerdings ist die Generierung einer Information über die Entfernung eines detektierten Objekts zum Ego-Fahrzeug nur mit hohem Rechenaufwand möglich. Dies kann durch die Fusion mit LIDAR-Sensoren erleichtert werden. [1–3]

Im Rahmen dieser Abschlussarbeit soll ein Algorithmus zur Fusion der Messgrößen der verschiedenen optischen Sensoren am Versuchsfahrzeug entwickelt werden. Hierzu sollen zunächst die Daten der einzelnen LIDAR-Sensoren miteinander fusioniert werden. Anschließend ist eine Gesamtfusion der Kamerabilder mit den fusionierten LIDAR-Daten durchzuführen.

Ihre Aufgaben:

  • Recherche zum Stand der Technik hinsichtlich Datenfusion, Sensorkalibrierung und Zeitsynchronisation, mit Fokus auf Anwendungen des autonomen Fahrens
  • Einarbeitung in die notwendigen Hardwarekomponenten (Kamera, LIDAR) und Softwaretools (ROS1, Linux, Python, C++) zur Datenerfassung
  • Entwicklung eines Algorithmus zur automatisierten Kalibrierung und Datenfusion
  • Einbinden des Algorithmus in das Datenerfassungssystem des Versuchsfahrzeugs

Ihr Profil:

  • Studium der Fachrichtung Mechatronik, Maschinenbau, Elektrotechnik, Informationstechnik oder eines vergleichbaren Studiengangs
  • Interesse an den Themen Sensorik für ADAS-Anwendungen, Messdatenverarbeitung und Softwareentwicklung im Kontext des autonomen Fahrens
  • Spaß daran, neue Aufgaben zu meistern

Literatur

[1] M. Schön, M. Buchholz und K. Dietmayer, „MGNet: Monocular Geometric Scene Understanding for Autonomous Driving“ in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2021, S. 15804–15815.
[2] H. Winner, S. Hakuli, F. Lotz und C. Singer, Handbuch Fahrerassistenzsysteme: Grundlagen, Komponenten und Systeme für aktive Sicherheit und Komfort, 3. Aufl. Wiesbaden: Springer Vieweg, 2015, ISBN: 978-3-658-05733-6, https://doi.org/10.1007/978-3-658-05734-3.
[3] S. Pischinger und U. Seiffert, Vieweg Handbuch Kraftfahrzeugtechnik. Wiesbaden: Springer Fachmedien Wiesbaden, 2021, ISBN: 978-3-658-25556-5, https://doi.org/10.1007/978-3-658-25557-2.

 

 

Beginn: ab sofort

Dauer: Nach gültiger Prüfungsordnung

Bei Interesse senden Sie uns bitte Ihre Bewerbungsunterlagen per Mail.

Ansprechpartner: Kevin Simon, M.Sc. und Timon Schlögl M.Sc.