LiDAR-basierte Perzeption mithilfe von Deep Learning für das Autonome Fahren

Beschreibung

Zur Erfüllung automatisierte/autonomer Fahrfunktion heutiger Fahrzeuge ist eine Vielzahl an Sensoren und Software im Einsatz. Neben Kamera und Radar ist vor allem LiDAR eine wichtige Komponente zur Absicherung diese Fahrfunktionen. Hierbei erfüllt das LiDAR verschiedenste Aufgaben u.a. im Einsatz als Adaptive Cruise Control oder Tag/Nacht Erkennung. Wichtige Bestandteile zur Verarbeitung der Umgebungsinformationen (Punktwolken) sind hierbei die Objekterkennung, die Objektverfolgung sowie Objektprädiktion. Dies geschieht mithilfe von Deep Learning Algorithmen. Durch die gleichzeitige Erfassung der Umgebung ist weiterhin die Erstellung hochgenauer Karten des Fahrzeugumfelds möglich, welche zur Lokalisierung des Fahrzeuges verwendet werden. [1-5]

 

Ziel dieser Arbeit ist die Entwicklung eines Neuronalen Netzes zur Erkennung, Nachverfolgung und Prädiktion von Objekten aus Punktwolken einer LiDAR-Sensorik.

 

Ihre Aufgaben:

 

  • Recherche zum aktuellen Stand der Technik von LiDAR-basierter Perzeption (u.a. auch freespace detection und Kamera-LiDAR-Fusion) im Autonomen Fahren sowie dazugehörige KI-Algorithmen
  • Einarbeitung in die Objekterkennung aus LiDAR-Punktwolken mithilfe von Python (PyTorch, Tensorflow etc.)
  • Training, Validierung und Test eines Neuronalen Netzes auf vorhandene LiDAR-Punktwolken
  • Dokumentation der Arbeit

 

Ihr Profil:

 

  • Studierende der Fachrichtung Maschinenbau, Mechatronik, Elektrotechnik, Informatik
  • Vorkenntnisse in den Bereichen Fahrzeugtechnik, Autonomes Fahren und LiDAR-Technik
  • Erste Kenntnisse in Python und dazugehörige Deep Learning Bibliotheken von Vorteil
  • Selbständige und strukturierte Arbeitsweise sowie Interesse am Autonomen Fahren

 

Bei Interesse senden Sie mir bitte Ihre Bewerbungsunterlagen per E-Mail.

Start: ab sofort

Ansprechpartner

M.Sc. Kevin Simon                   Tel.: 0721/608-45364                E-Mail: kevin.simon∂kit.edu

Literatur

[1]     H. Winner, S. Hakuli, F. Lotz und C. Singer, Handbuch Fahrerassistenzsysteme: Grundlagen, Komponenten und Systeme für aktive Sicherheit und Komfort, 3. Aufl. Wiesbaden: Springer Vieweg, 2015, ISBN: 978-3-658-05733-6, https://doi.org/10.1007/978-3-658-05734-3.

[2]     Y. Li et al., „Deep Learning for LiDAR Point Clouds in Autonomous Driving: A Review“ (eng), IEEE Trans. Neural Netw. Learning Syst., Jg. 32, Nr. 8, S. 3412–3432, 2021, https://doi.org/10.1109/TNNLS.2020.3015992.

[3]     Y. Li und J. Ibanez-Guzman, „Lidar for Autonomous Driving: The Principles, Challenges, and Trends for Automotive Lidar and Perception Systems“, IEEE Signal Process. Mag., Jg. 37, Nr. 4, S. 50–61, 2020, https://doi.org/10.1109/MSP.2020.2973615.

[4]     J. Levinson et al., „Towards fully autonomous driving: Systems and algorithms“ in 2011 IEEE Intelligent Vehicles Symposium (IV), Baden-Baden, Germany, 2011, S. 163–168978-1-4577-0890-9, https://doi.org/10.1109/IVS.2011.5940562.

[5]     B. Yang, W. Luo und R. Urtasun, „PIXOR: Real-time 3D Object Detection from Point Clouds“ in 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Salt Lake City, UT, USA, 2018, S. 7652–7660978-1-5386-6420-9, https://doi.org/10.1109/CVPR.2018.00798.