15.1.2. Fenyegetés modellezés integráció

2025.10.06.
AI Biztonság Blog

A „biztonság tervezéssel” elv (Security by Design) kiváló iránytű, de önmagában csak egy filozófia. Nem mondja meg, hogy pontosan mitől kell védened a rendszert. 

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

Képzeld el, hogy egy erődöt tervezel. Tudod, hogy falakra, kapukra és őrtornyokra van szükség, de hol legyenek a legmagasabb falak? Hová összpontosítsd az őröket? A válasz attól függ, honnan várod a támadást! A fenyegetés modellezés pontosan ez: a potenciális támadási irányok szisztematikus feltérképezése, mielőtt egyetlen támadó is a láthatárra kerülne.

A fenyegetés modellezés mint híd

A fenyegetés modellezés az a híd, ami összeköti a „biztonságosnak kell lennie” absztrakt követelményét a „pontosan ezeket a sebezhetőségeket kell kezelnünk” konkrét cselekvési tervvel. Ez nem egy egyszeri, formális audit, hanem egy strukturált gondolkodási folyamat, amely segít feltenni a megfelelő „mi van, ha…” kérdéseket a fejlesztési ciklus korai szakaszában.

Ahelyett, hogy reaktívan javítanánk a már kihasznált sérülékenységeket, proaktívan azonosítjuk a lehetséges gyenge pontokat a rendszer architektúrájában, az adatfolyamokban és a komponensek közötti interakciókban. Az MI rendszerek esetében ez a folyamat új, specifikus dimenziókkal bővül, amelyek túlmutatnak a hagyományos szoftverek világán.

Az AI-specifikus fenyegetés modellezés folyamata

Bár többféle módszertan létezik (pl. STRIDE, PASTA, LINDDUN), a legtöbb egy közös, négy lépésből álló logikára épül. Mi most ezt adaptáljuk az MI rendszerekre.

  • STRIDE: Ez a Microsoft által fejlesztett, az egyik legismertebb modell, amely a fenyegetéseket hat kategóriába sorolja: Spoofing (megszemélyesítés), Tampering (hamisítás), Repudiation (letagadás), Information Disclosure (információszivárgás), Denial of Service (szolgáltatásmegtagadás) és Elevation of Privilege (jogosultságkiterjesztés).
    A STRIDE segít a fejlesztőknek és biztonsági szakembereknek abban, hogy a rendszer minden egyes komponensénél végiggondolják, milyen típusú támadások érhetik azt!

  • PASTA (Process for Attack Simulation and Threat Analysis): Ez egy támadásközpontú, kockázatalapú módszertan, amely hét lépésben elemzi az üzleti célokat és a technikai környezetet.
    A PASTA célja, hogy a szervezet üzleti célkitűzéseiből kiindulva azonosítsa a valós, nagy kockázatú fenyegetéseket, és azokra fókuszálja a védelmi erőfeszítéseket, így szimulálva egy valós támadó gondolkodásmódját.

  • LINDDUN: Ez a módszertan kifejezetten az adatvédelmi (privacy) fenyegetések azonosítására specializálódott. A LINDDUN a következő kategóriákat használja: Linkability (összekapcsolhatóság), Identifiability (azonosíthatóság), Non-repudiation (letagadhatatlanság), Detectability (észlelhetőség), Data Disclosure (adatfelfedés), Unawareness (tájékozatlanság) és Non-compliance (meg nem felelés).
    Különösen hasznos a GDPR-nak és más adatvédelmi szabályozásoknak való megfelelés ellenőrzésében!

  • 1. A rendszer feltérképezése
    Mielőtt a fenyegetéseket keresnénk, pontosan meg kell értenünk, mit védünk. Ez nem csak a kód és az infrastruktúra listája! 

    • Adatfolyamok: Honnan jönnek a tanító adatok? Hogyan vannak címkézve? Van-e visszacsatolási hurok a felhasználóktól? Hol tárolódnak az adatok?
    • Komponensek: Adatelőkészítő pipeline, tanítási környezet (pl. GPU klaszter), modell tároló (model registry), inferencia szerver, API végpontok.
    • Bizalmi határok (Trust Boundaries): Hol lépnek át az adatok egyik komponensből a másikba? Hol van interakció a rendszer és a külvilág (felhasználók, külső API-k) között? Például a tanítási és az inferencia környezet közötti határ kritikus.

    2. Fenyegetések azonosítása

    • Itt tesszük fel a kérdést: „Mi romolhat el?”. A hagyományos szoftverfenyegetések (pl. SQL injection) mellett azonosítanunk kell az MI-specifikus támadási vektorokat is. Ez a Red Teaming gondolkodásmódjának formalizált változata.

    3. Kockázatok értékelése

    • Nem minden fenyegetés egyenlő! Egy elméleti támadás, amihez irreális erőforrások kellenek, kevésbé sürgős, mint egy egyszerűen kihasználható sérülékenység. Itt mérlegeljük a fenyegetés valószínűségét és a potenciális üzleti vagy technikai hatását. Ez segít a prioritások felállításában.

    Enyhítési stratégiák tervezése

    • Miután azonosítottuk és rangsoroltuk a fenyegetéseket, konkrét védelmi intézkedéseket tervezünk. Ez lehet egy új validációs lépés az adat-pipeline-ban, a kimenet szigorúbb ellenőrzése, vagy a hozzáférés-kezelés finomhangolása. Az itt született döntések közvetlenül visszahatnak a rendszer tervezésére és implementációjára.

    Az alábbi táblázat segít összekötni a hagyományos fenyegetési kategóriákat az MI-világ specifikus megnyilvánulásaival.

    Fenyegetés Kategória Leírás AI-specifikus Példa
    Adatintegritás megsértése Adatok jogosulatlan módosítása. Adatmérgezés (Data Poisoning): Manipulált adatok becsempészése a tanító adathalmazba, hogy a modell hibásan viselkedjen.
    Információszivárgás Szenzitív adatokhoz való jogosulatlan hozzáférés. Modell inverzió (Model Inversion): A modell kimeneteiből (predikcióiból) következtetnek vissza a tanító adathalmaz érzékeny adataira.
    Szolgáltatásmegtagadás (DoS) A rendszer elérhetetlenné tétele a jogosult felhasználók számára. Adverzárius példákkal való túlterhelés: Olyan bemenetek generálása, amelyek extrém számítási kapacitást igényelnek, lelassítva vagy leállítva az inferencia szolgáltatást.
    Jogosultság kiterjesztése Egy alacsonyabb jogosultságú felhasználó magasabb szintű hozzáférést szerez. Modell manipuláció promptokon keresztül: A felhasználó speciálisan szerkesztett bemenettel (prompt) ráveszi a modellt, hogy figyelmen kívül hagyja a biztonsági korlátozásait.
    Letagadhatatlanság (Non-Repudiation) hiánya Egy szereplő letagadhatja, hogy egy adott műveletet végrehajtott. Modell lopás (Model Stealing): Egy támadó API hívásokkal lemásolja a modell funkcionalitását, majd letagadja, hogy az eredeti modellre épített. A megfelelő naplózás hiánya ezt lehetővé teszi.

    A gyakorlati integráció: Hol és mikor?

    A fenyegetés modellezés akkor a leghatékonyabb, ha nem egy elkülönült, utólagos tevékenység, hanem a fejlesztési életciklus (MLOps) szerves része. Ideális esetben minden nagyobb architekturális változás vagy új funkció bevezetése előtt le kellene futtatni egy gyorsabb, fókuszáltabb elemzést.

    Fenyegetés Modellezés Tervezés & Architektúra Adatkezelés Modell Fejlesztés Validáció & Tesztelés Telepítés Monitorozás

    Esettanulmány: Képfelismerő rendszer fenyegetés-elemzése

    Vegyünk egy egyszerű rendszert, ami feltöltött képekről állapítja meg, hogy kutyát vagy macskát ábrázolnak-e, és a felhasználók jelezhetik, ha a besorolás helytelen volt. 

    A fenyegetés modellezés során azonosítunk egy lehetséges gyenge pontot:

    • Rendszerelem: Felhasználói visszajelzési mechanizmus, amely a „helytelen” besorolásokat visszavezeti a tanító adathalmazba finomhangolás céljából.
    • Fenyegetés (Adatintegritás): Egy rosszindulatú felhasználó szisztematikusan helytelen visszajelzéseket küld. Például minden kutyás képre azt jelzi, hogy „macska”.
    • Támadási Vektor: Egy szkript, ami automatizáltan tölt fel képeket és küldi a manipulatív visszajelzést.
    • Potenciális Hatás: A modell teljesítménye idővel leromlik (concept drift), és egyre több kutyát fog macskának nézni. A rendszer megbízhatósága csökken.
    • Lehetséges Enyhítés: Bevezetni egy validációs lépést, ahol a visszajelzéseket emberi moderátorok vagy egy másik, független modell ellenőrzi, mielőtt azok bekerülnének a tanító adatok közé. Emellett a gyanúsan sok vagy ellentmondásos visszajelzést küldő felhasználók tevékenységét korlátozni kell.

    AI Red Team nézőpontja: Kincsesbánya a támadásokhoz

    Az AI Red Team számára a védők által készített fenyegetés modell felbecsülhetetlen értékű dokumentum. Ez gyakorlatilag a védők „félelmeinek térképe”. Megmutatja, hogy milyen támadási útvonalakat tartanak valószínűnek, és (közvetve) azt is, hogy mely területekre nem gondoltak.

    Az AI Red Team feladata, hogy validálja ezt a modellt. Valóban működnek az enyhítési stratégiák? 

    Ki lehet-e játszani őket? 

    És ami még fontosabb: milyen támadási vektorokat hagytak ki teljesen a modellből? A fenyegetés modell tehát nemcsak a védelem, hanem a célzott, intelligens támadási kampányok tervezésének is az alapja. Ahol a kék csapat falat épít, ott a vörös csapat megpróbálja megkerülni, átmászni, vagy lerombolni azt.

    Végül is, a proaktív védelem első lépése a lehetséges jövőbeli támadások elképzelése. A fenyegetés modellezés erre ad egy strukturált keretrendszert, amely megalapozza a biztonságos tervezést és iránytűként szolgál a folyamatos validációhoz.