0.1.2 Önvezető autók áldozatai – téves objektumfelismerés miatt bekövetkezett balesetek

2025.10.06.
AI Biztonság Blog

Sötét, kihalt az országút. Az autó magabiztosan siklik a sávjában, fényszórói az aszfaltot pásztázzák. A volán mögött ülő sofőr csak felügyel, bízva a több tucat szenzor és a kifinomult AI döntéseiben. Másodpercekkel később egy tompa puffanás vet véget az idillnek. Az autó nem lassított, nem tért ki. Egyszerűen nem „látta” az akadályt. Vagy ami még rosszabb: látta, de nem értette, mit lát!

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

A láthatatlan fal: Amikor a percepció csődöt mond

Az önvezető technológia ígérete a tökéletes sofőr megteremtése: egy olyan entitásé, amely sosem fáradt, sosem figyelmetlen, és villámgyorsan reagál. A valóság azonban ennél sokkal árnyaltabb. Az AI nem „lát” úgy, ahogy mi. Nem egy koherens, kontextusba helyezett világképet alkot, hanem szenzoradatok (kamera képek, LiDAR pontfelhők, radarjelek) áradatát dolgozza fel, hogy valószínűségi alapon címkézze az objektumokat: „autó”, „gyalogos”, „kerékpár”, „útjelző tábla”.

A probléma akkor kezdődik, amikor a valóság nem illeszkedik a betanított mintákhoz. Amikor egy objektum kétértelmű, szokatlan szögből látszik, vagy a fényviszonyok megtévesztőek. Ilyenkor a rendszer percepciós modellje megbukhat. Ez nem egy egyszerű szoftverhiba, hanem a modell alapvető korlátainak megnyilvánulása. Az áldozatok pedig azok, akik rosszkor vannak rossz helyen – egy olyan digitális vakfoltban, amiről senki sem tudott.

Esettanulmány: Az Uber és Elaine Herzberg tragédiája (2018, Tempe, Arizona)

Az önvezető technológia történetének egyik legsötétebb fejezete Elaine Herzberg halála. Egy 49 éves nő, aki az éjszaka közepén a kerékpárját tolva próbált átkelni egy többsávos úton, amikor az Uber egyik tesztautója halálra gázolta. A baleset kivizsgálása fényt derített egy sor, egymásra épülő hibára, amelyek elvezettek a katasztrófához.

A hibaláncolat anatómiája

A Nemzeti Közlekedésbiztonsági Hivatal (NTSB) jelentése szerint a jármű szoftvere látta Herzberget a baleset előtt közel 6 másodperccel. Akkor miért nem tett semmit? A probléma a klasszifikációban és a döntéshozatalban rejlett.

  • Detektálás, de nem felismerés: A rendszer érzékelte az „objektumot”, de nem tudta egyértelműen besorolni.
  • Klasszifikációs hurok: A szoftver másodpercekig bizonytalan volt. Először „ismeretlen objektumnak”, majd „járműnek”, végül „kerékpárnak” címkézte. Minden egyes új klasszifikációval újraindította a mozgási pálya előrejelzését.
  • A bizonytalanság ára: Mivel a rendszer nem tudta eldönteni, mivel áll szemben, nem tudott megbízható előrejelzést adni arról, hogy az objektum merre fog mozogni. Egy kerékpár máshogy viselkedik, mint egy autó.
  • Tervezett „vakság”: A legvégzetesebb hiba a rendszertervezésben volt. Annak érdekében, hogy elkerüljék a „fantomfékezéseket” (amikor az autó tévesen érzékelt akadályok miatt hirtelen fékez), az Uber mérnökei úgy hangolták a rendszert, hogy az elnyomja a reaktív manővereket, ha az objektum klasszifikációja bizonytalan. Lényegében a rendszer úgy döntött, hogy inkább nem csinál semmit, mint hogy esetleg tévesen reagáljon. 1.3 másodperccel az ütközés előtt ismerte csak fel a vészfékezés szükségességét, de ekkor már a vészfékezési funkció le volt tiltva, hogy a humán operátorra bízza a döntést.
  • Emberi tényező: A biztonsági sofőr a baleset előtti percekben a telefonját nézte, és csak az utolsó pillanatban kapta fel a fejét. Az automatizálási önelégültség klasszikus esete: a rendszerbe vetett túlzott bizalom miatt a felügyelet lankadt!
Szenzor Adat (LIDAR/Kamera) Detektálás („Valami van ott”) Klasszifikációs Hiba (Jármű? Bicikli? Ismeretlen?) Döntési Hiba (Fékezés letiltva) Újrapróbálkozási ciklus ÜTKÖZÉS

1. ábra: Az Uber-balesethez vezető hibaláncolat. A rendszer a klasszifikációs bizonytalanság miatt egy olyan hurokba került, amely meggátolta a helyes döntés meghozatalát.

A Red Teamer tanulságai

Egy Red Teamer számára ez az eset nem csupán egy tragédia, hanem egy sor vörös zászló (red flag), ami rávilágít a komplex AI rendszerek tesztelésének kihívásaira. Nem elég a rendszert szimulációkban, ideális körülmények között tesztelni! Olyan forgatókönyveket kell keresnünk, amelyek szándékosan a modell gyengeségeit célozzák.

  • Az „edge case” (szélsőséges eset) nem kivétel, hanem elkerülhetetlen valóság: A Red Teaming feladata, hogy felkutassa ezeket a ritka, de végzetes eseteket. Mit tesz a rendszer egy szokatlanul öltözött gyalogossal? Egy sérült közlekedési táblával? Egy, a pótkocsi oldala által megtévesztett autóval (utalva a korai Tesla-balesetekre)?
  • A bizonytalanság kezelésének tesztelése: Nem az a kérdés, hogy a modell hibázik-e, hanem az, hogy hogyan hibázik. A rendszernek robusztusnak kell lennie a saját bizonytalanságával szemben. Egy jó rendszer ilyenkor biztonságos állapotba kapcsol (pl. lassít, megáll, segítséget kér), nem pedig figyelmen kívül hagyja a potenciális veszélyt.
  • A humán-AI interakció támadása: Tesztelni kell a felesleges automatizmusra való hajlamot. Milyen riasztásokat ad a rendszer? Mennyi időt hagy a sofőrnek a beavatkozásra? A felügyeleti protokollok a valóságban is működnek, vagy csak papíron léteznek?

Elaine Herzberg és a hasonló balesetek áldozatai a legfájdalmasabb módon emlékeztetnek minket a felelősségünkre. Az ő történetük arra tanít, hogy az AI rendszerek fejlesztése során a legpesszimistább forgatókönyvekből kell kiindulnunk. A Red Teamer feladata, hogy ezeket a forgatókönyveket megtalálja, mielőtt azok a való világban ártatlan áldozatokat követelnének!