18.1.1. Az EU AI Act: A Red Teamer Iránytűje a Megfelelőséghez

2025.10.06.
AI Biztonság Blog

A költség-haszon elemzés után logikus lépés a szabályozói környezet felé fordulni. Miért? Mert a legnagyobb, nehezen számszerűsíthető „haszon” gyakran a jogi megfelelés, a bírságok elkerülése és a piacra lépés képessége. 

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

Az Európai Unió Mesterséges Intelligencia Törvénye (AI Act) nem csupán egy újabb bürokratikus teher; ez a világ első átfogó MI-szabályozása, amely alapjaiban határozza meg, hogyan kell a mesterséges intelligenciát fejleszteni, bevezetni és üzemeltetni az EU piacán. Számodra, mint AI Red Teamer számára, ez nem fenyegetés, hanem egy keretrendszer, amely legitimálja és strukturálja a munkádat!

A kockázatalapú megközelítés lényege

Az AI Act nem kezel minden MI-rendszert egyformán. A szabályozás gerincét egy kockázati piramis adja, amely a társadalomra és az egyénekre jelentett potenciális veszély alapján kategorizálja az alkalmazásokat. A te munkád fókusza szinte kizárólag a piramis felső két szintjére irányul majd.

Elfogadhatatlan kockázat (pl. társadalmi pontozás) Magas kockázat (pl. kritikus infrastruktúra, HR) Korlátozott kockázat (pl. chatbotok, deepfake) Minimális kockázat (pl. spam szűrők, videójátékok)
  • Elfogadhatatlan kockázat: Ezek a rendszerek tiltottak! Ilyen például a kormányok által végzett, általános célú társadalmi pontozás vagy a manipulatív, tudatküszöb alatti technikák alkalmazása. Itt az AI Red Teaming feladata lehet annak igazolása, hogy egy rendszer *nem* esik ebbe a kategóriába.
  • Magas kockázat: Ez a fő terepünk. Ide tartoznak a kritikus infrastruktúrák vezérlésére, a munkaerő-felvételre, a hitelbírálatra vagy a bűnüldözésre használt MI-rendszerek. Ezekre szigorú követelmények vonatkoznak, amelyeket a Red Team műveletekkel lehet és kell is tesztelni! 
  • Korlátozott kockázat: Itt a fő követelmény az átláthatóság. A felhasználókat tájékoztatni kell, hogy MI-vel interaktálnak (pl. chatbot), vagy hogy a tartalom mesterségesen generált (pl. deepfake).
  • Minimális kockázat: A legtöbb MI alkalmazás ide tartozik, és rájuk nem vonatkoznak specifikus kötelezettségek.

A magas kockázatú rendszerek követelményei és az AI Red Team szerepe

Az AI Act III. címe részletezi a magas kockázatú rendszerekkel szembeni elvárásokat. Ezek gyakorlatilag egy Red Teaming teendőlistaként is olvashatók. 

Nézzük a legfontosabbakat:

1. Kockázatkezelési rendszer (9. cikk)

A magas kockázatú MI-rendszerek teljes életciklusa alatt folyamatos, iteratív kockázatkezelési folyamatot kell létrehozni, bevezetni, dokumentálni és fenntartani.

Az AI Red Team folyamat közvetlenül táplálja ezt a rendszert. Nem csak elméleti kockázatokat azonosít, hanem gyakorlati, kihasználható sebezhetőségeket demonstrál. A Red Team jelentések a kockázatkezelési rendszer kulcsfontosságú bemeneti adataivá válnak, bizonyítva, hogy a szervezet proaktívan keresi és kezeli a lehetséges veszélyeket!

2. Adatok és adatkormányzás (10. cikk)

A tanítási, validációs és tesztelési adatkészletekre szigorú minőségi kritériumok vonatkoznak: relevánsaknak, reprezentatívaknak, hibáktól menteseknek és teljeseknek kell lenniük, és figyelembe kell venniük a torzítások (bias) lehetséges forrásait.

A feladat az adatmérgezéses (data poisoning) támadások szimulálása, a rejtett torzítások felderítése az adatkészletben, és annak tesztelése, hogy a modell hogyan reagál a váratlan, eloszlásból kilógó (out-of-distribution) adatokra. 
A cél annak demonstrálása, hogy az adatkormányzási folyamatok ellenére a modell teljesítménye degradálható-e rosszindulatú vagy egyszerűen csak gyenge minőségű adatokkal!

# Pszeudokód egy torzítás-teszthez
def teszt_demografiai_torzitas(modell, teszt_adatok):
 """
 Ellenőrzi, hogy a modell döntései szisztematikusan eltérnek-e
 különböző demográfiai csoportok esetében.
 """
 eredmenyek = {}
 demografiai_csoportok = ['nem', 'etnikum', 'korcsoport']

 for csoport in demografiai_csoportok:
 for alcsoport in teszt_adatok[csoport].unique():
 szurt_adatok = teszt_adatok[teszt_adatok[csoport] == alcsoport]
 # A modell pozitív kimenetelének arányának mérése
 pozitiv_arany = modell.predict(szurt_adatok).mean() 
 eredmenyek[f"{csoport}_{alcsoport}"] = pozitiv_arany
 
 # Eredmények elemzése: vannak-e szignifikáns különbségek?
 print("Pozitív kimenetel aránya csoportonként:", eredmenyek)
 # ... Itt következne a statisztikai szignifikancia vizsgálata ...
 return eredmenyek
 

3. Pontosság, robusztusság és kiberbiztonság (15. cikk)

A magas kockázatú MI-rendszereknek ellenállónak kell lenniük a hibákkal, hiányosságokkal és inkonzisztenciákkal szemben, valamint a rosszindulatú harmadik felek által a sebezhetőségeik kihasználására tett kísérletekkel szemben.

Ez a klasszikus AI Red Teaming definíciója az AI Act szövegében. Itt kell bevetni a teljes arzenált: adverzális támadások (evasion, poisoning, extraction), modellinverzió, a rendszer API-jainak és infrastruktúrájának sebezhetőségvizsgálata. A cél bizonyítani, hogy a rendszer hol és hogyan sebezhető, ezzel közvetlen visszajelzést adva a fejlesztőknek a robusztusság növelésére! 

Az AI Red Team eredmények leképezése a megfelelőségre

A munka kritikus része, hogy a technikai megállapításokat lefordítsuk a szabályozás nyelvére. 

Egy jól strukturált jelentés nemcsak a sebezhetőséget írja le, hanem közvetlenül hozzárendeli a releváns AI Act cikkhez! 

Ez teszi az AI Red Teamer munkát a megfelelőségi auditok megkerülhetetlen elemévé.

Red Team Megállapítás Támadási Vektor Érintett AI Act Cikk Javasolt Intézkedés
A hitelbírálati modell szisztematikusan alacsonyabb pontszámot ad egy adott postai irányítószám-körzetből származó kérelmezőknek. Rejtett torzítás a tanító adatokban (proxy változó). 10. cikk (Adatok és adatkormányzás) A tanító adatok felülvizsgálata, proxy változók azonosítása, torzításmentesítő technikák (pl. re-weighting) alkalmazása.
Egy speciálisan generált, alig észrevehető zaj hozzáadásával a képfelismerő rendszer egy „STOP” táblát „Sebességkorlátozás 100 km/h” táblaként azonosít. Adverzális kitérő (evasion) támadás. 15. cikk (Pontosság, robusztusság) Adverzális tréning bevezetése, bemeneti adatok validálása és szanitizálása, anomáliadetekció implementálása.
A rendszer API-ján keresztül, ismételt lekérdezésekkel a modell belső logikájának egy része visszafejthető. Modell-kivonatoló (extraction) támadás. 15. cikk (Kiberbiztonság) Rate limiting bevezetése az API-n, lekérdezési minták monitorozása, a modell kimenetének sztochasztikusabbá tétele (zaj hozzáadása).

AI Red Teamer, mint a megfelelőség őre

Az EU AI Act a Red Teaming tevékenységet a „jó, ha van” kategóriából a „kötelező” kategóriába emeli a magas kockázatú rendszerek esetében. 

A munka már nem csak a technikai kiválóságról szól, hanem a jogi keretrendszernek való megfelelés bizonyításáról is. Az általunk feltárt és dokumentált sebezhetőségek, torzítások és robusztussági hiányosságok kézzelfogható bizonyítékot szolgáltatnak a szervezet proaktív kockázatkezelési erőfeszítéseiről! 

Ezzel az AI Red Teamer válik az egyik legfontosabb szereplővé a megbízható és törvényesen működő MI-rendszerek létrehozásában!