25.1.4 Jogi és compliance fogalmak

2025.10.06.
AI Biztonság Blog

A kód és a támadási vektorok világában könnyű elfelejteni, hogy a legkomolyabb sebezhetőség gyakran nem a szoftverben, hanem a jogi keretrendszer be nem tartásában rejlik. Egy sikeres támadás, ami személyes adatokat szivárogtat ki, nem csak technikai, hanem milliós bírsággal járó jogi incidenst is jelent. Red teamerként ismerned kell a harcteret – és ebbe a jogi aknamező is beletartozik.

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

Kulcsfogalmak a gyakorlatban

Ez nem egy jogi tankönyv, hanem egy gyorstalpaló a legfontosabb kifejezésekhez, amelyekkel nap mint nap találkozhatsz. Minden definíciót a te szemszögedből, a red teamer gyakorlati nézőpontjából világítunk meg.

Általános Adatvédelmi Rendelet (GDPR – General Data Protection Regulation)

Az EU adatvédelmi törvénye, ami a személyes adatok kezelését szabályozza. Egy AI modell esetében ez érinti a tanítóadatokat, a felhasználói bemeneteket (promtokat) és a modell által generált kimeneteket is, ha azok személyes adatot tartalmaznak.

Red Team perspektíva: A te feladatod felmérni, hogy egy prompt injection támadás vagy adat-kiszivárogtatás milyen GDPR-sértést okozhat. Képes vagy-e a modellből olyan személyes adatokat kinyerni, amelyeket nem lenne szabad? Egy ilyen lelet sokkal nagyobb súlyú, mint egy egyszerű technikai hiba.

Mesterséges Intelligencia Törvény (AI Act)

Az EU első átfogó szabályozása az MI-re, amely kockázati kategóriákba sorolja az AI rendszereket (elfogadhatatlan, magas, korlátozott, minimális). A magas kockázatú rendszerekre (pl. kritikus infrastruktúra, orvosi eszközök, HR) rendkívül szigorú megfelelőségi követelmények vonatkoznak.

Red Team perspektíva: Ha egy magas kockázatú rendszert tesztelsz, a célpontjaid között szerepelniük kell az AI Act által előírt követelményeknek is. Például: tesztelheted az adatszabályozási (data governance) folyamatok megkerülhetőségét, a naplózás manipulálhatóságát, vagy a kötelező emberi felügyelet kijátszását.

Felelősség (Liability)

Ki a hibás, ha az AI kárt okoz? A fejlesztő? Az üzemeltető? A felhasználó? A jogi felelősség kérdése az egyik legbonyolultabb terület. A felelősségi lánc felderítése kritikus egy incidens esetén.

Red Team perspektíva: Olyan forgatókönyveket kell kidolgoznod, amelyek szándékosan elmossák a felelősségi határokat. Tudsz-e olyan támadást végrehajtani, ahol a modell viselkedése miatt a kár okozója beazonosíthatatlanná válik, és a cég nem tudja bizonyítani, hogy a rendszer a „tervek szerint” működött?

Szellemi Tulajdon (IP – Intellectual Property)

Ez magában foglalja a tanítóadatokhoz fűződő jogokat, a modell architektúráját, a súlyokat és magát a betanított modellt, mint vagyoni értékű jogot. A modelltolvajlás (model theft) vagy a tanítóadatok visszafejtése komoly IP-sértésnek minősül.

Red Team perspektíva: A te feladatod lehet modellextrakciós (model extraction) vagy adatkinyerési (data extraction) támadások szimulálása. Mennyire könnyű ellopni a „koronaékszert”, azaz magát a modellt vagy a tanításához használt értékes, esetleg jogvédett adatokat?

Magyarázhatóság (Explainability – XAI)

Bizonyos jogszabályok (mint az AI Act a magas kockázatú rendszereknél) megkövetelik, hogy az AI döntései valamilyen szinten átláthatóak és megmagyarázhatóak legyenek. Ez nem csak technikai, hanem jogi követelmény is.

Red Team perspektíva: Teszteld a magyarázati mechanizmusokat! Manipulálhatók-e, hogy egy rosszindulatú döntést jóindulatúnak tüntessenek fel? Vagy annyira felszínesek-e a magyarázatok, hogy egy jogi vitában semmit sem érnének?

Megfelelőségi Vizsgálat / Audit (Compliance Audit)

Formális eljárás, amelynek során egy szervezet felméri, hogy AI rendszerei megfelelnek-e a vonatkozó törvényeknek, szabályozásoknak és belső irányelveknek. Ez a „hivatalos” tesztelés.

Red Team perspektíva: A te munkád egyfajta „ellenséges compliance audit”. Míg a belső auditor a pipákat keresi a listán, te azokat a réseket kutatod, ahol a rendszer papíron megfelel, de a gyakorlatban kijátszható. Az eredményeid felkészítik a céget egy valódi auditra.

A Red Teamer dilemmája: A törvény betűje vs. a rendszer kijátszása

Fontos megértened a határvonalat. A te feladatod, hogy feltárd a lehetőséget a jogszabálysértésre, nem pedig az, hogy magad kövesd el azt. Például, ha egy modellből személyes adatokat tudsz kinyerni, a riportodban bemutatod a módszert és egy-két anonimizált példát. Nem töltöd le és tárolod az összes elérhető személyes adatot, mert azzal te magad is megsértenéd a GDPR-t. A cél a sebezhetőség demonstrálása, nem pedig annak teljes körű kihasználása.