18.1.3 Ipari szabványok (ISO/IEC)

2025.10.06.
AI Biztonság Blog

Alapvetés

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

  • Míg az EU AI Act a jogi kereteket, a „mit” határozza meg, 
  • az amerikai AI Bill of Rights pedig az etikai irányelveket, a „miért„-et vázolja fel, 
  • addig a Nemzetközi Szabványügyi Szervezet (ISO) és a Nemzetközi Elektrotechnikai Bizottság (IEC) közös szabványai a „hogyan„-ra adnak választ. 

Az ISO/IEC dokumentumok nem törvények, hanem nemzetközileg elfogadott legjobb gyakorlatok gyűjteményei, amelyek kézzelfogható, auditálható keretrendszert biztosítanak a megbízható MI fejlesztéséhez és üzemeltetéséhez. 

AI Red Teamerként ezek a szabványok a térképünk és iránytűnk: megmutatják, hol vannak a szervezet által vállalt kontrollok, és segítenek azonosítani azokat a pontokat, ahol a valóság eltér az elmélettől.

A központi elem: ISO/IEC 42001 – Az MI Menedzsment Rendszer (AIMS)

Ha csak egyetlen szabványt ismersz meg, ez legyen az. 

Az ISO/IEC 42001:2023 az első nemzetközi menedzsmentrendszer-szabvány a mesterséges intelligenciára. 

Hasonlóan az információbiztonságban ismert ISO/IEC 27001-hez (ISMS) vagy a minőségirányításban használt ISO 9001-hez, az ISO 42001 egy strukturált keretrendszert (Artificial Intelligence Management System – AIMS) hoz létre az MI-vel kapcsolatos kockázatok felelős kezelésére egy szervezetben.

A rendszer a jól ismert Plan-Do-Check-Act (PDCA) ciklusra épül, ami a folyamatos fejlődést biztosítja. AI

Red Teamerként a te munkád leginkább a „Check” (Ellenőrzés) fázishoz kapcsolódik, de a többi fázist is mélyen érinti.

AIMS PLAN (Tervezés) DO (Végrehajtás) CHECK (Ellenőrzés) ACT (Beavatkozás)

  • Plan (Tervezés): A szervezet felméri az MI-rendszerekkel kapcsolatos kockázatokat és lehetőségeket, meghatározza az MI-politikát, a célokat és a kontrollokat. Itt dől el, hogy milyen típusú Red Teaming tevékenységekre lesz szükség.
  • Do (Végrehajtás): Implementálják a tervezett kontrollokat, fejlesztik és telepítik az MI-rendszereket.
  • Check (Ellenőrzés): Itt lépsz be te a képbe. A Red Teaming egy kritikus ellenőrzési tevékenység, amely teszteli a „Do” fázisban bevezetett kontrollok hatékonyságát a valós, rosszindulatú vagy váratlan forgatókönyvekkel szemben. A te feladatod, hogy validáld vagy cáfold a „Plan” fázisban tett feltételezéseket.
  • Act (Beavatkozás): Az ellenőrzés (pl. a Red Teaming jelentésed) eredményei alapján a szervezet korrekciós intézkedéseket hoz, finomítja a kontrollokat, és javítja a rendszert. A te munkád közvetlenül táplálja a fejlődési ciklust.

Gyakorlati kapcsolódási pontok AI Red Teamerek számára

Az ISO/IEC szabványok világa hatalmas, de néhány kulcsfontosságú dokumentum közvetlen iránymutatást ad a munkádhoz. Ezek nem elszigetelt szabványok, hanem egymásra épülő rendszert alkotnak.

ISO/IEC TR 23894:2023 – MI Kockázatmenedzsment

Ez a technikai riport (TR) az ISO 31000 általános kockázatmenedzsment keretrendszerét adaptálja az MI-specifikus kockázatokra. 

Ez igazi aranybánya, mert felsorolja a lehetséges fenyegetéseket és sérülékenységeket, amelyekből a tesztforgatókönyvet építhetünk. Ahelyett, hogy a nulláról kellene kitalálni a támadási vektorokat, ez a dokumentum strukturált kiindulópontot ad olyan területeken, mint:

  • Adatmérgezés (Data poisoning)
  • Modellinverzió (Model inversion)
  • Adversarial támadások (Evasion, extraction)
  • Méltányossági és torzítási problémák (Fairness and bias issues)
  • Magyarázhatósággal kapcsolatos kockázatok

Az AI Red Team feladata, hogy a szervezet kockázatértékelését (ami ideális esetben ezen szabvány alapján készült) a gyakorlatban teszteljük. Ha a kockázatértékelés szerint az adatmérgezés kockázata „alacsony”, a mi dolgunk, hogy megpróbáljuk bizonyítani az ellenkezőjét.

ISO/IEC/IEEE CD 5338 – Az MI-rendszer életciklus-folyamatai

Ez a szabvány (jelenleg fejlesztés alatt) az MI-rendszerek teljes életciklusát lefedi, a koncepciótól a kivezetésig. AI Red Teamerként segít megérteni, hogy a fejlesztési folyamat mely pontjain érdemes beavatkozni. A hagyományos szoftverfejlesztési életciklustól (SDLC) eltérően itt hangsúlyos szerepet kapnak az adatgyűjtési, adat-előfeldolgozási és modelltanítási fázisok. Az AI Red Team munka nem korlátozódhat a már telepített rendszer tesztelésére; a leghatékonyabb, ha már a korai fázisokban, például az adatkezelési folyamatokban is keressük a sebezhetőségeket.

ISO/IEC TS 25059:2023 – MI Minőségi Modell (AIQU)

Ez a dokumentum talán a legközvetlenebbül használható a napi munka során. Egy konkrét minőségi modellt (AI Quality Model) definiál, amely mérhetővé teszi az MI-rendszerek „jóságát”. Ahelyett, hogy absztrakt fogalmakkal dolgoznánk, mint „robusztusság” vagy „méltányosság”, az AIQU konkrét jellemzőket és aljellemzőket rendel hozzájuk, amelyeket tesztelhetsz.

ISO/IEC 25059 (AIQU) jellemzők leképezése Red Teaming feladatokra
AIQU Minőségi Jellemző Meghatározás (egyszerűsítve) Példa Red Teaming Tesztforgatókönyv
Robusztusság A rendszer képessége, hogy váratlan vagy rosszindulatú bemenetek mellett is megőrizze működőképességét. Adversarial példák generálása (pl. alig észrevehető zaj hozzáadása egy képhez), amelyek a modellt téves klasszifikációra kényszerítik.
Méltányosság (Fairness) A rendszer képessége, hogy elkerülje a rendszerszintű torzítást bizonyos demográfiai csoportokkal szemben. Szintetikus, de reális profilok létrehozása (pl. hitelbírálati rendszerhez), ahol csak a védett attribútum (pl. nem, etnikum) változik, majd a modell döntéseinek elemzése.
Magyarázhatóság A rendszer képessége, hogy érthető indoklást adjon a döntéseire. Olyan bemenetek keresése, amelyekre a rendszer magyarázata (pl. SHAP, LIME értékek) ellentmond a józan észnek vagy a domain tudásnak, felfedve a modell „lusta” vagy hibás következtetéseit.
Elszámoltathatóság Annak képessége, hogy a rendszer működése és döntései visszakövethetők és auditálhatók legyenek. A naplózási mechanizmusok tesztelése: megpróbálni olyan interakciót végrehajtani a modellel, ami nem hagy megfelelő nyomot a rendszer audit logjaiban.

A szabványok használata a gyakorlatban: Egy AI Red Teaming workflow

Hogyan néz ki mindez egy konkrét megbízás során? Tegyük fel, egy pénzintézet új, MI-alapú hitelbírálati rendszerét kell tesztelni, amely ISO/IEC 42001 szerint tanúsított.

  1. Tervezés (Scoping): Ahelyett, hogy vaktában lövöldöznénk, elkérhetjük a szervezet AIMS dokumentációját. Megnézzük az MI kockázatértékelést (ISO 23894 alapján). Látjuk, hogy a „demográfiai torzítás” kockázatát közepesre értékelték, és kontrollként a „kiegyensúlyozott tanító adathalmazt” és a „folyamatos monitorozást” jelölték meg. A célunk ezeknek a kontrolloknak a tesztelése lesz.
  2. Felkészülés (Reconnaissance): Az ISO 25059 (AIQU) „Méltányosság” fejezetét használjuk a tesztesetek kidolgozásához. Definiáljuk a védett csoportokat a releváns jogszabályok alapján, és megtervezzük, hogyan fogunk inputokat generálni ezek tesztelésére.
  3. Végrehajtás (Execution): Elindítjuk a támadásokat. Például egy API-n keresztül több ezer fiktív hitelkérelmet küldünk be, szisztematikusan variálva a demográfiai adatokat, miközben a hitelképességet jelző faktorok (jövedelem, adósság) azonosak maradnak.
  4. Elemzés és Jelentés (Analysis & Reporting): Az eredményeket elemzzük. Ha azt találjuk, hogy egy bizonyos csoport kérelmeit aránytalanul alacsonyabb score-ral utasítja el a rendszer, akkor bizonyítékot találtunk a kontrollok elégtelenségére!
    A jelentésben nem csak annyi lesz, hogy „a rendszer torzít”, hanem hivatkozunk az ISO 42001 releváns kontrolljára (pl. A.2.6 – AI system verification and validation), és javaslatot teszel a „Check-Act” ciklus keretében a javításra.
# Pszeudokód egy méltányossági teszt végrehajtására
# Az ISO 25059 "Méltányosság" jellemzője alapján

function test_fairness(api_endpoint, base_profile):
 eredmenyek = {}
 vedett_csoportok = ["A_csoport", "B_csoport", "C_csoport"]

 # Minden védett csoportra létrehozunk egy profilt
 for csoport in vedett_csoportok:
 test_profile = base_profile.copy()
 test_profile["demografia"] = csoport
 
 # Meghívjuk a hitelbírálati API-t a módosított profillal
 valasz = api_endpoint.request(test_profile)
 eredmenyek[csoport] = valasz.get("hitel_score")

 # Elemzés: Jelentős eltérés van-e a pontszámok között?
 statisztika = calculate_score_variance(eredmenyek)
 
 if statisztika.is_significant():
 return "SÉRÜLÉKENYSÉG: Potenciális torzítás észlelve a csoportok között."
 else:
 return "A teszt sikeres, nem észlelhető szignifikáns torzítás."

Az ISO/IEC szabványok nem unalmas bürokratikus dokumentumok, hanem valódi szövetségesek! 

Strukturált, nemzetközileg elismert keretrendszert adnak az AI Red Teaming munkához, amely növeli a Red Teaming tevékenységed hitelességét, hatékonyságát és üzleti értékét. Segítenek abban, hogy a technikai szintű támadásoktól eljussunk a szervezet üzleti kockázatainak szintjére, és a jelentés ne csak egy hibajegyzék legyen, hanem a folyamatos fejlődés motorja.