0.1.3. Téves AI diagnózis áldozatai – elmulasztott vagy rossz kezelések

2025.10.06.
AI Biztonság Blog

TÉVHIT: „Egy orvosi AI hűvös logikával, emberi elfogultságtól mentesen elemzi a képeket és adatokat. Hibázni se tud, hiszen ezerszer több esetet látott, mint bármelyik orvos.”

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

VALÓSÁG: Az AI nem a valóságot látja, hanem a neki mutatott adatok statisztikai mintázatait. Ha az adatok torzítottak, hiányosak vagy egyszerűen csak rosszak, az AI magabiztosan fogja reprodukálni, sőt, felerősíteni ezeket a hibákat. Egy téves diagnózis itt nem csupán egy adathiba, hanem egy potenciálisan tönkretett élet.

Az előző fejezetben az önvezető autók fizikai világban elkövetett lehetséges hibáit vizsgáltuk, ahol a téves objektumfelismerés azonnali, látható következményekkel jár. Most egy sokkal alattomosabb, belső világot érintő területre lépünk: az egészségügybe. 

Itt a hiba nem az összetört karosszériában, hanem az elmulasztott rákdiagnózisban, a feleslegesen elvégzett, kockázatos műtétben vagy a rosszul beállított gyógyszeres kezelésben ölt testet. Az áldozatok sokszor nem is tudják, hogy egy algoritmus ítélete pecsételte meg a sorsukat.

Az AI-alapú diagnosztikai rendszerek forradalmi potenciállal bírnak. Képesek olyan finom mintázatokat észrevenni radiológiai felvételeken, patológiai metszeteken vagy EKG-jeleken, amelyek az emberi szem számára láthatatlanok maradnának. A probléma ott kezdődik, amikor elfelejtjük, hogy ezek az eszközök nem „gondolkodnak” vagy „értenek”, hanem csupán rendkívül fejlett mintázatfelismerő gépek.

A tévedés anatómiája: Miért hibázik a diagnosztikai AI?

A diagnosztikai modellek hibái ritkán fakadnak egyetlen, jól azonosítható programozási hibából. Sokkal inkább a fejlesztési folyamat mélyén gyökerező, rendszerszintű problémák következményei. Nézzük a leggyakoribb okokat!

1. Adatkészlet-torzítás (Dataset Bias): A „digitális vakság”

Ez a leggyakoribb és legveszélyesebb hibaforrás. Ha egy modellt túlnyomórészt egy adott demográfiai csoport (pl. fehér, középkorú férfiak) adataival tanítanak, akkor más csoportok esetében (nők, idősek) drasztikusan csökkenhet a pontossága.

Torzított adatkészlet Többségi csoport Kisebbségi csoport Kiegyensúlyozott adatkészlet 1. csoport 2. csoport

  • Példa (elmulasztott kezelés): Egy bőrrákot azonosító algoritmust 95%-ban világos bőrtípusú páciensek képein tanítanak. Amikor a sötétebb bőrtónusú páciens képét elemzi, a modell egy rosszindulatú elváltozást ártalmatlan anyajegynek minősíthet, mert a tanító adathalmazban sosem tanulta meg az ilyen kontextusban értelmezni a vizuális jeleket. Az eredmény: késői diagnózis, csökkent túlélési esélyek.
  • Példa (rossz kezelés): Egy diabéteszes retinopátiát (a cukorbetegség szemkárosító szövődményét) szűrő AI-t egyetlen típusú, drága kamerával készült felvételeken validálnak. Amikor egy szegényebb, vidéki kórházban egy olcsóbb, más típusú kamerával készítenek képet, az AI a képminőségbeli különbségek miatt tévesen súlyosnak ítéli az állapotot, ami felesleges és drága beavatkozásokhoz vezethet.

2. Kontextus-vakság (Context Blindness)

Az AI egy képet vagy egy adatsort lát, nem a pácienst. Nem ismeri a kórtörténetet, a családi anamnézist, az életmódot, a panaszokat – mindazt a kontextust, amit egy humán orvos a diagnózisalkotás során figyelembe vesz.

Egy tüdőröntgenen látható folt lehet tüdőgyulladás egy fiatal, lázas betegnél, de lehet daganat egy idős, erős dohányosnál. Az AI, ha csak a képet „látja”, könnyen felcserélheti a kettőt, ha a vizuális mintázat hasonló. Ez a kontextus hiánya vezethet abszurd, de veszélyes következtetésekhez.


function diagnosztizal(rontgen_kep, paciens_adatok):
 # AI modell, ami csak a képet elemzi
 kep_alapu_eredmeny = ai_modell.elemez(rontgen_kep)
 
 # Egy jó rendszer figyelembe venné a kontextust is
 if paciens_adatok.dohanyzik == True and paciens_adatok.eletkor > 60:
 kep_alapu_eredmeny.sulyozas_daganat_iranyaba(0.2)
 elif paciens_adatok.lazas == True:
 kep_alapu_eredmeny.sulyozas_gyulladas_iranyaba(0.3)
 
 # A kontextus-vak modell ezt a lépést kihagyja, növelve a hiba esélyét
 return kep_alapu_eredmeny

3. Túlilleszkedés (Overfitting): A „magoló diák” szindróma

A modell annyira jól „bemagolja” a tanító adathalmazt, hogy annak zaját és véletlenszerű sajátosságait is megtanulja szabályként kezelni. Amikor egy valódi, új esettel találkozik, ami egy picit is eltér a „megszokottól”, képtelen általánosítani és hibás következtetésre jut. Például, ha a tanító adatok között véletlenül több daganatos eset került be a „Kórház A”-ból, a modell megtanulhatja azt a hamis összefüggést, hogy az ebből a kórházból származó képek nagyobb eséllyel rákosak.

A Red Teamer szerepe: A digitális kórkép feltárása

A te feladatod Red Teamerként az, hogy szisztematikusan feltárd ezeket a rejtett sebezhetőségeket, mielőtt azok valódi pácienseknek ártanának. Nem elég a modell általános pontosságát mérni; célzottan kell támadni a gyenge pontjait. A célod az, hogy olyan eseteket generálj, amelyeknél a modell magabiztosan, de katasztrofálisan téved!

Tesztelési technika Cél Gyakorlati példa
Demográfiai stresszteszt Annak felderítése, hogy a modell teljesítménye romlik-e alulreprezentált csoportok (etnikum, nem, kor) esetében. A modellt szándékosan csak egy specifikus etnikumhoz vagy korcsoporthoz tartozó páciensek adataival teszteljük, és mérjük a pontosság drasztikus esését.
Szélsőséges esetek (Edge Case) generálása Ritka, atipikus betegségek vagy tünetegyüttesek szimulálása, amelyekre a modell nincs felkészítve. Olyan képek létrehozása (akár generatív AI-jal), amelyeken két ritka betegség tünetei egyszerre jelennek meg, összezavarva a modellt.
Környezeti zaj hozzáadása Annak vizsgálata, hogyan reagál a modell a valós életből származó „tökéletlenségekre” (pl. rosszabb képminőség, más eszközök). Digitálisan lerontjuk a tesztképek minőségét, vagy más gyártótól származó orvosi műszerek képeivel „etetjük” a modellt.
Kauzális következtetések megkérdőjelezése Hamis korrelációk feltárása, amiket a modell megtanult (pl. egy kórházi logó jelenléte a képen befolyásolja a diagnózist). Képeket módosítunk: egy egészséges leletre ráhelyezzük egy olyan kórház logóját, ahonnan a tanítóadatok között sok beteg eset származott, és figyeljük, megváltozik-e a diagnózis.

A tét itt a legmagasabb. Míg egy hibás arcfelismerő rendszer legfeljebb kellemetlenséget okoz, egy hibás diagnosztikai AI szó szerint élet és halál kérdése lehet. A mi felelősségünk, hogy a „digitális Hippokratész” esküjét – „primum non nocere”, vagyis „először is, ne árts” – bevasaljuk a kódon, mielőtt az a klinikai gyakorlatba kerülne.