3.3.4 Nemzetközi szabályozások: Az EU AI Act és az amerikai elnöki rendeletek útvesztőjében

2025.10.06.
AI Biztonság Blog

Az AI Red Team művelet nem légüres térben zajlik. A legkreatívabb sebezhetőség-feltárás is falba ütközhet, ha nem veszi figyelembe a globális játékszabályokat. Az előző fejezetben a jogi felelősség általános kereteit vizsgáltuk, most pedig egy szinttel feljebb lépünk: megnézzük, hogyan formálja át a mesterséges intelligencia fejlesztését és tesztelését a két legmeghatározóbb nemzetközi szabályozási törekvés. Ezek nem csupán adminisztratív terhek, hanem a Red Teaming küldetésének és hatókörének alapvető iránymutatói.

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

A te munkádra közvetlen hatással lesz, hogy a célrendszer az Európai Unió piacára készül, vagy az amerikai nemzetbiztonsági szempontoknak kell megfelelnie. A két megközelítés filozófiája eltérő, de a céljuk közös: a megbízható és biztonságos MI ökoszisztéma megteremtése. Lássuk, mit jelentenek ezek a gyakorlatban a te szemszögedből.

Az Európai Unió AI Act: A kockázatalapú megközelítés

Az EU a világon elsőként alkotott egy átfogó, horizontális MI-szabályozást, az AI Act-et. A jogszabály központi eleme egy kockázatalapú besorolás, amely a rendszereket a társadalomra és az egyénekre jelentett potenciális veszélyük alapján kategorizálja. Ez a piramis-modell közvetlenül meghatározza, hogy egy Red Team művelet során mire kell fókuszálnod.

ELFOGADHATATLAN MAGAS KOCKÁZAT Korlátozott kockázat Minimális kockázat

Nézzük meg, mit jelentenek ezek a szintek a te munkádra nézve:

  • Elfogadhatatlan kockázat: Ezek a rendszerek tiltottak. Ide tartoznak például a társadalmi pontozórendszerek (social scoring) vagy a manipulatív, tudatküszöb alatti technikák.
    A te feladatod itt az lehet, hogy egy látszólag ártalmatlan rendszer tesztelése során felderítsd, hogy az nem csúszik-e át véletlenül vagy szándékosan ebbe a kategóriába.
  • Magas kockázat: Itt van a Red Teaming igazi terepe. Ide tartoznak a kritikus infrastruktúrákban, az oktatásban, a foglalkoztatásban, a bűnüldözésben vagy az egészségügyben használt MI-rendszerek. Az AI Act szigorú követelményeket támaszt velük szemben: adatminőség, dokumentáció, emberi felügyelet, és ami számunkra a legfontosabb: robusztusság, pontosság és kiberbiztonság. A Red Teaming itt már nem egy „nice-to-have” extra, hanem a megfelelőség bizonyításának egyik kulcsfontosságú eszköze! A te jelentésedet egyes esetekben jogászok és hatóságok is olvasni fogják.
  • Korlátozott kockázat: Ide tartoznak a chatbotok vagy a deepfake-generátorok. A fő követelmény itt az átláthatóság: a felhasználónak tudnia kell, hogy egy MI-vel interaktál, vagy hogy a tartalom mesterségesen generált. A Red Teaming itt arra irányulhat, hogy a rendszer kijátssza-e ezeket a tájékoztatási kötelezettségeket, például egy chatbot embernek adja ki magát meggyőzően.
  • Minimális kockázat: A legtöbb MI alkalmazás (pl. spam szűrők, videójátékok) ide esik. Itt a szabályozás nem ír elő kötelezettségeket, de az etikus működés és a márka hírnevének védelme miatt a Red Teaming itt is releváns lehet.

Az USA megközelítése: Elnöki rendeletek és a NIST keretrendszer

Az Egyesült Államok – szemben az EU átfogó jogszabályával – egy agilisabb, piacvezérelt és szektor-specifikus megközelítést követ. Ez nem jelenti azt, hogy ne lennének szabályok; a kereteket jellemzően elnöki rendeletek (Executive Orders) és iparági sztenderdeket kidolgozó ügynökségek, mint a NIST (National Institute of Standards and Technology) határozzák meg.

A 2023 októberi, „Safe, Secure, and Trustworthy AI” című elnöki rendelet mérföldkőnek számít. Számos pontja közvetlenül a Red Teaming közösséghez szól:

  • Kötelező Red Teaming: A rendelet előírja, hogy a „kettős felhasználású alapmodellek” (dual-use foundation models) fejlesztőinek – amelyek komoly nemzetbiztonsági, gazdasági vagy közegészségügyi kockázatot jelentenek – kötelező Red Team tesztelést kell végezniük.
  • Eredmények megosztása: A tesztek eredményeit meg kell osztani a kormánnyal. Ez a felelősségteljes közzététel (lásd 3.3.1 fejezet) egy új, kormányzati szintű dimenziója.
  • NIST AI Kockázatkezelési Keretrendszer (AI RMF): A rendelet a NIST által kidolgozott AI RMF-et jelöli ki iránymutatóként. Ez egy gyakorlatias útmutató a megbízható MI-rendszerek tervezéséhez, fejlesztéséhez és használatához. A Red Teaming a keretrendszer „Measure” (Mérés) fázisában játszik központi szerepet, ahol azonosítani és értékelni kell a rendszer sebezhetőségeit.

Az AI Red Teamer szemszögéből az amerikai megközelítés fókuszáltabb. A megbízásaid gyakran specifikus kockázatokra irányulnak, mint például a biológiai fegyverekkel kapcsolatos tudás kinyerése egy modellből, a kritikus infrastruktúra elleni kibertámadások szimulációja, vagy a választásokat befolyásoló dezinformációs kampányok generálása.

# Pszeudokód egy NIST AI RMF-hez igazított Red Team teszttervhez
function create_nist_aligned_test_plan(model, sector):
 plan = {
 "target_model": model.id,
 "sector": sector,
 "framework": "NIST AI RMF 1.0",
 "focus_area": "Measure"
 }

 # A rendelet által priorizált kockázatok leképezése
 if sector == "critical_infrastructure":
 plan["tests"] = [
 "Elicit SCADA control exploits",
 "Generate grid destabilization scenarios",
 "Bypass physical security protocols via social engineering prompts"
 ]
 elif sector == "public_health":
 plan["tests"] = [
 "Generate novel pathogen synthesis instructions",
 "Create persuasive anti-vaccination content"
 ]
 
 return plan
 

Szintézis: Mit jelent ez az AI Red Teamer gyakorlatban?

Bár a két megközelítés filozófiája eltérő, a gyakorlati következmények a Red Teamerek számára konvergálnak. A munkád egyre inkább formalizált és dokumentált folyamattá válik, amelynek eredményeit nemcsak a fejlesztők, hanem a jogi és megfelelőségi osztályok, sőt, esetenként a kormányzati szervek is elemzik.

Az alábbi táblázat összefoglalja a legfontosabb különbségeket és hasonlóságokat:

Szempont EU AI Act USA (Elnöki Rendeletek & NIST)
Jogi jellege Átfogó, horizontális jogszabály (rendelet). Célzott elnöki rendeletek, iparági sztenderdek és önkéntes keretrendszerek.
Fókusz Alapvető jogok védelme, fogyasztóvédelem, biztonság. Nemzetbiztonság, gazdasági versenyképesség, kritikus infrastruktúra védelme.
Szabályozás elve Kockázatalapú besorolás (piramis-modell). Kockázatok és képességek alapján történő azonosítás (pl. „dual-use foundation models”).
Red Teaming szerepe A magas kockázatú rendszerek robusztusságának és megfelelőségének bizonyítására szolgáló implicit, de alapvető eszköz. Explicit, kötelező előírás a legfejlettebb, legnagyobb kockázatú modellek számára.
Gyakorlati hatás A tesztelési scope-ot az alapjogi hatásvizsgálat és a jogszabályi követelmények határozzák meg. A tesztelési scope-ot a nemzetbiztonsági és szektor-specifikus kockázati forgatókönyvek határozzák meg.

A legfontosabb tanulság számodra az, hogy a tesztelés technikai aktusa ma már elválaszthatatlan a szabályozói kontextustól. Egy sebezhetőség súlyát nemcsak a technikai kihasználhatósága adja, hanem az is, hogy az adott jogi keretrendszeren belül melyik követelményt sérti. 

A te feladatod az, hogy ne csak a „hogyan”-t, hanem a „miért”-et és a „mi a következménye”-t is megértsd és dokumentáld. Ezzel a tudással felvértezve léphetünk tovább a támadások gyakorlati megvalósítására, kezdve az optimalizációs problémák ellenséges kontextusban történő értelmezésével.