25.1.2. Biztonsági terminológia

2025.10.06.
AI Biztonság Blog

A sikeres védekezés és támadás alapja a közös nyelv. Mielőtt a Red Team specifikus fogalmakba merülnénk, tisztázzuk azokat az általános kiberbiztonsági alapvetéseket, amelyekre minden AI-specifikus művelet is épül. Ezek a kifejezések alkotják a szakmai párbeszéd gerincét.

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

Általános biztonsági fogalmak

Az alábbi lista nem teljes körű, de a legfontosabb, az AI Red Teaming kontextusában is elengedhetetlen fogalmakat tartalmazza.

Támadási felület (Attack Surface)

Egy rendszer azon pontjainak összessége, ahol egy jogosulatlan felhasználó (támadó) megpróbálhat adatot bevinni vagy kivenni, illetve interakcióba lépni a rendszerrel. Minél nagyobb a támadási felület, annál több a potenciális sebezhetőség.

Miért fontos az AI Red Teaming szempontjából? Az AI modellek esetében a támadási felület rendkívül széles: maguk a promptok, az API végpontok, a betanítási adatokhoz való hozzáférés, a modell súlyait tároló infrastruktúra, sőt, a modellt használó alkalmazások felhasználói felületei is ide tartoznak. A felmérés első lépése mindig a támadási felület feltérképezése.

Mélyrétegű védelem (Defense in Depth)

Egy olyan biztonsági stratégia, amely több, egymástól független védelmi réteget alkalmaz. A cél az, hogy ha egy réteg valamiért mégis sérül vagy kikerülhetővé válik, a többi réteg továbbra is védelmet nyújtson, lelassítva vagy megakadályozva a támadót. Klasszikus analógiája a középkori vár: vizesárok, felvonóhíd, magas falak, belső őrök mind külön védelmi réteget képeznek.

Miért fontos az AI Red Teaming szempontjából? Egy LLM-et nem elég csak egy bemeneti szűrővel védeni. Mélyrétegű védelemre van szükség: input validáció, output monitorozás, anomália-detekció a használati mintákban, hozzáférés-szabályozás az API-kulcsokhoz, és a modell viselkedésének folyamatos naplózása. A te feladatod ezeknek a rétegeknek a tesztelése.

Minimális jogosultság elve (Principle of Least Privilege – PoLP)

Alapvető biztonsági elv, mely szerint egy felhasználónak, programnak vagy folyamatnak csak és kizárólag azokhoz az erőforrásokhoz és jogosultságokhoz szabad hozzáférést biztosítani, amelyek a feladata elvégzéséhez elengedhetetlenül szükségesek. Sem többet, sem kevesebbet.

Miért fontos az AI Red Teaming szempontjából? Tesztelned kell, hogy az AI modell, vagy az azt futtató környezet milyen jogosultságokkal rendelkezik. Hozzáfér-e a fájlrendszerhez, a hálózathoz, belső adatbázisokhoz? Egy sikeres prompt injection támadás kártétele megsokszorozódik, ha a modell „túlprivilegizált” környezetben fut.

Azonosítás vs. Hozzáférés-szabályozás (Authentication vs. Authorization)

Két gyakran összekevert, de alapvetően különböző fogalom. Az azonosítás (authentication) annak a folyamata, amellyel egy rendszer megállapítja, hogy te valóban az vagy-e, akinek mondod magad (pl. jelszó, 2FA). A hozzáférés-szabályozás (authorization) pedig az a folyamat, amely meghatározza, hogy egy már azonosított felhasználó mit tehet meg a rendszeren belül (pl. olvasási vagy írási jogok).

Fogalom Kérdés, amire választ ad Példa
Azonosítás (Authentication) Ki vagy te? Felhasználónév és jelszó megadása, ujjlenyomat-olvasás.
Hozzáférés-szabályozás (Authorization) Mit tehetsz meg? Egy admin felhasználó törölhet rekordokat, míg egy sima user csak olvashatja azokat.

Miért fontos az AI Red Teaming szempontjából? Az AI API-k esetében mindkettő kritikus. Tesztelned kell, hogy az API-kulcsok megfelelő azonosítást nyújtanak-e, és hogy egy adott kulccsal rendelkező felhasználó nem fér-e hozzá olyan modellekhez vagy funkciókhoz, amihez nem lenne szabad.

Bemeneti adatok validálása és tisztítása (Input Validation & Sanitization)

A validálás ellenőrzi, hogy a felhasználótól érkező bemenet megfelel-e az elvárt formátumnak, típusnak és tartománynak (pl. egy email cím valóban email cím formátumú-e). A tisztítás (sanitization) pedig eltávolítja vagy ártalmatlanítja a potenciálisan veszélyes karaktereket vagy kódrészleteket a bemenetből (pl. HTML tagek vagy SQL parancsok semlegesítése).

Miért fontos az AI Red Teaming szempontjából? Ez a prompt injection elleni védekezés első és legfontosabb vonala. A Red Team feladata, hogy olyan bemeneteket hozzon létre, amelyek átjutnak a validációs és tisztítási szűrőkön, és manipulatív hatást érnek el a modellnél. A védekezési javaslatok gyakran a szűrők finomhangolására irányulnak.

# Pszeudokód Pythonban
def naiv_fuggveny(user_input):
 # KÖZVETLEN FELHASZNÁLÁS - VESZÉLYES!
 # A user_input egyenesen a rendszerparancshoz fűződik.
 system_command = "echo 'Felhasználó üzenete: " + user_input + "'"
 run_command(system_command)

def biztonsagos_fuggveny(user_input):
 # TISZTÍTÁS: Eltávolítjuk a potenciálisan veszélyes karaktereket.
 # Itt például a " ` $ ; karaktereket, amelyek parancs-injektálásra adhatnak okot.
 sanitized_input = user_input.replace("`", "").replace("$", "").replace(";", "")
 
 # PARAMÉTEREZETT HASZNÁLAT - A LEGJOBB GYAKORLAT
 # A bemenetet argumentumként adjuk át, nem a parancs részeként.
 run_command(["echo", "Felhasználó üzenete:", sanitized_input])

Nulladik napi sebezhetőség (Zero-Day Vulnerability)

Olyan szoftveres vagy hardveres sebezhetőség, amelyet a támadók már felfedeztek és esetleg kihasználnak, de a termék gyártója még nem ismeri, így nem létezik rá hivatalos javítás (patch). A „nulladik nap” arra a napra utal, amikor a gyártó tudomást szerez a hibáról – a támadóknak eddig „nulla napjuk” volt a javításra való felkészülésre.

Miért fontos az AI Red Teaming szempontjából? Bár a te munkád általában nem új, ismeretlen sebezhetőségek felfedezésére irányul, a gondolkodásmód hasonló. Olyan új, a fejlesztők által nem előre látott prompt-technikákat vagy támadási vektorokat keresel, amelyek gyakorlatilag „zero-day” kihasználási módoknak tekinthetők az adott AI modell kontextusában.

Fenyegetésmodellezés (Threat Modeling)

Strukturált folyamat, amelynek során egy rendszer potenciális fenyegetéseit, sebezhetőségeit és a szükséges ellenintézkedéseket azonosítjuk, számszerűsítjük és rangsoroljuk. A cél, hogy proaktívan, már a tervezési fázisban gondolkodjunk a biztonságról, ahelyett, hogy utólag reagálnánk az incidensekre. Népszerű módszertanok például a STRIDE vagy a DREAD.

Miért fontos az AI Red Teaming szempontjából? A Red Team tevékenység a fenyegetésmodellezés gyakorlati validálása. A modellezés során felállított hipotéziseket („Mi történne, ha egy támadó megpróbálná kinyerni a betanítási adatokat?”) a Red Team megpróbálja a gyakorlatban is igazolni vagy cáfolni. Az eredményeid visszacsatolásként szolgálnak a jövőbeli fenyegetésmodellek pontosításához.