8. Juli 2020 | Magazin:

Mehr Sicherheit für autonomes Fahren Best Paper Award für Andreas Bär, Marvin Klingner und Professor Tim Fingscheidt

Das Horror-Szenario: Hacker greifen die Technik eines autonomen Autos an. Das Fahrzeug erkennt plötzlich nicht mehr die umgebenden Menschen. Ein neues Sicherheitssystem kann Abhilfe schaffen. Dieses präsentierten Professor Tim Fingscheidt, Andreas Bär, Marvin Klingner vom Institut für Nachrichtentechnik (IfN) bei einer internationalen Konferenz zu intelligenter Bilderkennung – und erhielten einen Best Paper Award.

Andreas Bär mit dem Best Paper Award. Dieses Jahr fand die Konferenz CVPR aufgrund von COVID-19 nicht wie geplant in Seattle (Washington, USA), sondern virtuell statt. Bildnachweis: Kristina Rottig/TU Braunschweig

Die Preisträger des IfN forschen an künstlichen neuronalen Netzen. Künstliche Intelligenz (KI) in Form von neuronalen Netzwerken gilt als besonders vielversprechende Technologie für das autonome Fahren. Die Technik filtert die Datenflut von Kameras in trainierte Muster und erkennt so Fahrbahnlinien, Straßenschilder und den umgebenden Verkehr. In einem Workshop der Konferenz „Computer Vision and Pattern Recognition (CVPR)“ diskutierten Forschende über die Sicherheit von KI für autonome Fahrzeuge.

Gefahr durch Rauschmuster

Das Problem: Während neuronale Netzwerke Kameradaten zwar problemlos klassifizieren, sind sie momentan noch schutzlos gegen gezielt eingeschleuste (Rausch-)Muster. Diese Rauschmuster sind für das menschliche Auge kaum wahrnehmbar, können jedoch ein neuronales Netzwerk vollständig täuschen. Beispielsweise können so in den Kameradaten ganze Personen von der Straßenszene entfernt werden, ohne dass das Netzwerk einen Fehler bemerkt und daraus lernt. Um ein solches Horror-Szenario zu vermeiden, suchen Wissenschaftlerinnen und Wissenschaftler nach geeigneten Ansätzen, um die Rauschmuster zu detektieren und anschließend zu korrigieren.

Sicherheit durch Redundanz

Die Arbeit der Wissenschaftler der TU Braunschweig setzt redundante Netzwerkstrukturen als Sicherheitssystem ein. Statt einem, werten drei neuronale Netze die Kameradaten aus. Jedes ist dabei völlig entkoppelt, sodass immer nur ein Netz von einem spezifischen Rauschmuster befallen sein kann. Ein neuer Algorithmus vergleicht die eingehenden Daten der drei Netze, sortiert per Mehrheitsentscheid das falsche Bild aus und korrigiert so das Rauschmuster.