AI biztonság: A kaliforniai modell

2025.10.13.
AI Biztonság Blog

Kalifornia egy lépésre az AI-törvénytől: Mit hoz az SB-53?

Szeptember 17-én a kaliforniai törvényhozás elfogadta, és Gavin Newsom kormányzó asztalára tette az SB-53 jelzésű törvényjavaslatot, hivatalos nevén a „Transparency in Frontier Artificial Intelligence Act”-et. Ha a kormányzó aláírja, Kalifornia lesz az első amerikai állam, amely szabályozni próbálja a legfejlettebb AI modellekkel járó katasztrofális kockázatokat. Nézzük meg, mit is jelent ez a gyakorlatban egy AI biztonsági szakértő szemével.

Ez a javaslat egyébként a tavaly megvétózott, jóval szigorúbb SB-1047-es törvény enyhébb verziója. Miután Newsom kormányzó tavaly elkaszálta az akkori tervezetet, összehívott egy szakértői munkacsoportot (Joint California Policy Working Group on AI Frontier Models).

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

A csoport júniusi jelentése három kulcsterületet jelölt ki rövid távú prioritásként: az átláthatóságot, az incidensjelentést és a belső bejelentők (whistleblowerek) védelmét. Az SB-53 lényegében ezeket az ajánlásokat igyekszik törvényerőre emelni.

Átláthatóság: Tudjuk, mivel játszunk

Ahhoz, hogy a kormányzatok fel tudják mérni és kezelni tudják a frontier AI modellek fejlesztésével járó kockázatokat, elengedhetetlen, hogy a fejlesztők felfedjék a rendszereik képességeit, és bemutassák, hogyan mérik fel és csökkentik a katasztrofális veszélyeket.

A törvényjavaslat pontosan definiálja, mit ért „katasztrofális kockázat” alatt:

minden olyan előrelátható, jelentős veszélyt, amely egy alapmodell fejlesztése, tárolása, használata vagy telepítése során egyetlen incidens következtében az alábbiakat okozhatja:

  • Több mint 50 ember halála vagy súlyos sérülése.
  • Több mint 1 milliárd dolláros anyagi kár.

Ez a kockázat különösen az alábbi esetekben merülhet fel:

  • A modell szakértői szintű segítséget nyújt vegyi, biológiai, radiológiai vagy nukleáris (CBRN) fegyverek létrehozásához vagy bevetéséhez.
  • Autonóm módon hajt végre kibertámadást, gyilkosságot, testi sértést, zsarolást vagy lopást.
  • Kikerül a fejlesztője vagy a felhasználója irányítása alól.

Ezeket a kockázatokat szem előtt tartva az SB-53 a következőket írja elő a fejlesztő cégeknek:

  • Publikálniuk kell egy „frontier AI keretrendszert”, amely részletezi többek között a katasztrofális kockázatokra vonatkozó képességi küszöbértékeket, a kockázatcsökkentő intézkedéseket és a belső irányítási gyakorlatokat.
  • Ezt a keretrendszert évente felül kell vizsgálniuk, a módosításokat pedig 30 napon belül közzé kell tenniük.
  • Minden új frontier modellről átláthatósági jelentést kell kiadniuk, amely tartalmazza a technikai specifikációkat és a katasztrofális kockázatokra vonatkozó értékeléseket.
  • A modellek belső használatából fakadó katasztrofális kockázatokról szóló értékeléseiket 3 havonta meg kell osztaniuk a kaliforniai Veszélyhelyzet-kezelési Hivatallal (OES).
  • Tilos valótlanságot állítaniuk a modelljeik katasztrofális kockázatairól, azok kezeléséről vagy a saját keretrendszerüknek való megfelelésről.

Incidensjelentés: Ha baj van, azonnal tudni kell róla

A hatóságoknak azonnal tudniuk kell a kritikus biztonsági incidensekről – például ha illetéktelenek férnek hozzá a modell súlyaihoz, vagy ha egy AI ágens felett elveszítik az irányítást –, hogy még azelőtt közbe tudjanak lépni, mielőtt a helyzet katasztrófába torkollik.

Az SB-53 ezzel kapcsolatban a következőket rögzíti:

  • Az OES létrehoz egy forródrótot a kritikus biztonsági incidensek bejelentésére.
  • A fejlesztőknek a kritikus biztonsági incidenseket 15 napon belül jelenteniük kell. Ha azonban közvetlen életveszély vagy súlyos sérülés veszélye áll fenn, a határidő mindössze 24 óra.
  • Az OES minden évben készít egy jelentést az anonimizált és összesített incidensadatokból.

A törvény felkészül a jövőbeli szövetségi szabályozásra is. Ha a szövetségi szinten bevezetett incidensjelentési előírások megegyeznek a kaliforniaival, vagy annál szigorúbbak, akkor az OES átadhatja a hatáskört a szövetségi szerveknek.

Bejelentők védelme: A belső hangok felerősítése

A kaliforniai hatóságoknak szükségük lesz a belsős bejelentőkre (whistleblowerekre) ahhoz, hogy ellenőrizni tudják, a cégek betartják-e az SB-53 előírásait.

Mivel az iparág múltja ezen a téren finoman szólva is vegyes, a törvény külön védelmet biztosít:

  • A fejlesztő cégeknek tilos megakadályozniuk vagy megtorolniuk, hogy a „védett alkalmazottak” (azok, akik a kritikus incidensek kockázatainak felméréséért, kezeléséért felelősek) jelentsék azokat a tevékenységeket, amelyekről okkal feltételezik, hogy konkrét és jelentős katasztrofális kockázatot jelentenek.
  • A főügyész évente jelentést tesz közzé a védett alkalmazottaktól származó, anonimizált bejelentésekről.
  • A védett alkalmazottak pert indíthatnak a fejlesztő cégek ellen, ha azok megsértik a védelmükre vonatkozó szabályokat. A főügyész pedig a törvény átláthatósági és jelentéstételi követelményeinek megsértése esetén akár 1 millió dolláros polgári jogi bírságot is kiszabhat minden egyes jogsértésért.

Hogyan jutottunk ide, és mi várható?

Az előző, SB-1047-es javaslat még konkrét biztonsági kontrollokat (például leállítási mechanizmusokat) és a túlságosan kockázatos modellek kiadásának tilalmát is előírta volna. Newsom kormányzó ezt a nemzeti demokrata vezetés és az iparági lobbi nyomására végül megvétózta.

Mivel az SB-53 „csak” átláthatósági követelményeket fogalmaz meg – és a kormányzó saját munkacsoportjának ajánlásaira épül –, sokkal nagyobb az esélye, hogy aláírja. Az Anthropic egyébként már nyilvánosan támogatásáról biztosította a javaslatot.

Newsom kormányzónak október 12-ig van ideje dönteni. Ha aláírja a törvényt, az SB-53 lesz az első jelentős AI-jogszabály az Egyesült Államokban azóta, hogy Ted Cruz szenátor megpróbált (de hajszál híján elbukott) egy 10 éves moratóriumot csatolni a szövetségi költségvetéshez, ami felfüggesztette volna az állami és helyi szintű AI szabályozást. Cruz azóta újra elővette az ötletet, ami ha támogatásra talál, komoly konfliktushoz vezethet Kalifornia és Washington között.

További hírek a nagyvilágból

Kormányzati lépések

  • Kínai Kiberbiztonsági Hivatal megtiltotta a kínai cégeknek, hogy Nvidia chipeket vásároljanak.
  • Olaszország törvényt fogadott el az AI használatának szabályozásáról, amely büntetőjogi szankciókat is tartalmaz a visszaélések esetére.
  • Több tucat brit parlamenti képviselő azzal vádolta a Google-t, hogy megsérti az AI biztonságra tett vállalásait.

Ipari fejlemények

  • Az OpenAI és az Anthropic is jelentést tett közzé arról, milyen gazdasági mintázatok figyelhetők meg az AI használatában.
  • Az OpenAI és a DeepMind is aranyérmes teljesítményről számolt be a Nemzetközi Egyetemi Programozó Világbajnokságon (ICPC).
  • Az Nvidia akár 100 milliárd dollárt fektet az OpenAI-ba. Emellett 5 milliárd dollárt fektetnek az Intelbe is.
  • Az Anthropic publikált egy jelentést arról, hogyan használják fel az AI-t a kiberbűnözésben.

Civil szféra és kutatás

  • Egy nyílt levélben, melyet korábbi államfők, Nobel-díjasok és más prominens személyek írtak alá, egy nemzetközi egyezményt sürgetnek, amely világos és ellenőrizhető „vörös vonalakat” húzna az AI-kockázatok megelőzésére.
  • Stanfordi kutatók tanulmánya szerint a mesterséges intelligenciának kitett iparágakban 13%-kal csökkent a pályakezdő munkavállalók foglalkoztatása.
  • AI biztonsági aktivisták éhségsztrájkot kezdtek AI cégek londoni és San Franciscó-i központjai előtt.
  • Dan Hendrycks és Adam Khoja válaszoltak a Mutually Assured AI Malfunction (MAIM) koncepciót ért kritikákra.
  • Rosario Mastrogiacomo arról értekezik, hogy az AI ágensek hogyan erodálják a kiberbiztonság alapjait.
  • Ben Brooks amellett érvel, hogy a frontier AI modellek fizetőfal mögött tartása a digitális feudalizmus egy új formáját hozhatja létre.
  • Oscar Delaney és Ashwin Acharya az AI cégeknél használt, „rejtett frontier” modellek belső világáról ír.