Az Európai Unió Mesterséges Intelligencia Törvénye (AI Act) nem csupán egy újabb szabályozás a sok közül; ez a világ első horizontális, átfogó jogi keretrendszere az MI számára. Red teamerként a feladatunk túlmutat a technikai sebezhetőségek feltárásán: a szabályozói elvárásoknak való megfelelést is tesztelnünk kell. Ez a lista gyakorlati mankót nyújt ahhoz, hogy a red teaming tevékenységed során célzottan vizsgáld az AI Act kulcsfontosságú követelményeit, különösen a magas kockázatú rendszerek esetében.
Az AI Act kockázati piramisa: A besorolás elsődlegessége
Mielőtt bármilyen ellenőrzésbe kezdenél, az első és legfontosabb lépés a vizsgált MI rendszer kockázati besorolásának megértése. Az AI Act egy négyfokozatú, kockázatalapú megközelítést alkalmaz, ami alapjaiban határozza meg a kötelezettségek mértékét. A te munkád fókusza is ezen a besoroláson múlik.
Ellenőrző lista magas kockázatú AI rendszerekhez
A red teaming tevékenység leginkább a magas kockázatú rendszerekre fókuszál, mivel itt a legszigorúbbak a követelmények és a legnagyobb a potenciális kár. Az alábbi táblázat a legfontosabb területeket foglalja össze, red teamer szempontból értelmezve.
| Követelmény (AI Act Cikkek alapján) | Red Teaming Ellenőrzési Pontok és Kérdések | Státusz / Megjegyzés |
|---|---|---|
| Adatok és adatkormányzás (Cikk 10) |
|
|
| Technikai dokumentáció (Cikk 11) |
|
|
| Naplózás (Record-keeping) (Cikk 12) |
|
|
| Átláthatóság és tájékoztatás (Cikk 13) |
|
|
| Emberi felügyelet (Cikk 14) |
|
|
| Pontosság, robusztusság és kiberbiztonság (Cikk 15) |
|
Korlátozott és elfogadhatatlan kockázatok kezelése
Bár a fókusz a magas kockázatú rendszereken van, ne feledkezz meg a többi kategóriáról sem:
- Korlátozott kockázat: Itt a fő követelmény az átláthatóság. Ha egy rendszerrel interakcióba lépsz (pl. chatbot), vagy MI által generált tartalmat (pl. deepfake) látsz, erről a felhasználót egyértelműen tájékoztatni kell. Red teamerként tesztelheted, hogy ezek a tájékoztatások megkerülhetők-e, vagy elég egyértelműek-e egy átlagos felhasználó számára.
- Elfogadhatatlan kockázat: Ezek a rendszerek egyszerűen tiltottak az EU-ban. Ilyenek például a kormányzati célú társadalmi pontozórendszerek vagy a tudatalatti manipulatív technikák. Itt a red teamer feladata annak ellenőrzése, hogy a fejlesztett rendszer funkciói nem csúsznak-e át véletlenül vagy szándékosan ebbe a kategóriába.
Összegzés: A megfelelőség mint folyamatos feladat
Ez az ellenőrző lista egy kiindulópont. Az AI Act egy komplex, élő jogszabály, amelynek értelmezése folyamatosan fejlődni fog. A red teaming szerepe itt kulcsfontosságú: nem elég a jogi szöveget kipipálni, proaktívan kell keresni azokat a kiskapukat és váratlan viselkedési formákat, amelyek megsérthetik a törvény szellemét, még ha a betűjét nem is. A te munkád segít abban, hogy egy szervezet ne csak megfeleljen, hanem valóban megbízható és biztonságos MI-t építsen.