5.2.2. Cloud szolgáltatói eszközök (AWS, GCP, Azure)

2025.10.06.
AI Biztonság Blog

A felhőalapú AI-fejlesztés egy kétélű fegyver. Ugyanazok a platformok, amelyek lehetővé teszik a modellek példátlan sebességű és skálázhatóságú betanítását és telepítését – az Amazon Web Services (AWS), a Google Cloud Platform (GCP) és a Microsoft Azure –, egyben az első védelmi vonalat is kínálják. Ezek a beépített eszközök jelentik az alapvető biztonsági higiéniát, de egyben azt a „gyári” védelmet is, amit egy Red Team feladata alaposan megismerni és kijátszani. Nem luxusmegoldások, hanem a játéktér alapkövei.

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

Mielőtt belemennénk a szolgáltató-specifikus részletekbe, érdemes egy lépést hátrálni és megvizsgálni, mit is nyújtanak ezek az eszközök általánosságban, és hol vannak a velük született korlátok.

A natív felhőeszközök általános erősségei és gyengeségei
Erősségek Gyengeségek
Mély integráció: Zökkenőmentesen illeszkednek a platform többi szolgáltatásába (pl. logging, monitoring, IAM). Vendor lock-in: Egy adott platformra tervezett védelmi mechanizmusok nehezen vagy egyáltalán nem vihetők át máshova.
Egyszerűsített üzemeltetés: Nincs szükség külön infrastruktúra telepítésére és karbantartására. Egy kattintással aktiválhatók. Általánosított védelem: Gyakran a „legkisebb közös többszörös” elv alapján működnek, nem feltétlenül fedik le a speciális, egyedi üzleti logikából fakadó sebezhetőségeket.
Költséghatékonyság (kezdetben): A használat alapú árazás és az integrált számlázás vonzó lehet a dedikált, drága szoftverekkel szemben. Átláthatóság hiánya: A belső működésük gyakran „fekete doboz”. Nehéz pontosan megérteni, milyen algoritmusok és szabályrendszerek alapján döntenek.
Skálázhatóság: A felhőszolgáltató infrastruktúrájára támaszkodva automatikusan skálázódnak a terheléssel. Lassabb reakcióidő: Egy újonnan felfedezett, kifinomult támadási technika elleni védelem beépítése a platformba lassabb lehet, mint egy agilis, specializált szoftver esetében.

Amazon Web Services (AWS): A felügyelt őrök

Az AWS az AI/ML ökoszisztémáját elsősorban az Amazon SageMaker köré építi, de a generatív AI modellek biztonságára az Amazon Bedrock szolgáltatásban kínál célzott megoldásokat. A Red Teaming szempontjából a legérdekesebb a Bedrock Guardrails.

A Guardrails lehetővé teszi, hogy a fejlesztők témakörök, szavak és kifejezések alapján definiáljanak biztonsági szabályzatokat. Ezek a szabályzatok dinamikusan alkalmazhatók a Bedrock által kínált alapmodellekre (pl. Claude, Llama, Titan). A lényege, hogy a modell interakcióit egy köztes rétegben szűri, mind a bemeneti promptok, mind a kimeneti válaszok szintjén.

Bedrock Guardrails a gyakorlatban

Egy Guardrail policy definiálása során több szinten is beavatkozhatunk:

  • Denied Topics (Tiltott témák): Magasabb szintű, koncepcionális szűrés. A rendszer természetes nyelvfeldolgozással próbálja azonosítani, ha a konverzáció egy tiltott témakör (pl. pénzügyi tanácsadás, illegális tevékenységek) felé mozdul el.
  • Filtered Words (Szűrt szavak): Konkrét szavak vagy reguláris kifejezések listája, amelyek előfordulását blokkolni vagy maszkolni szeretnénk. Ez hasznos a PII (személyes azonosításra alkalmas adatok) vagy a trágár beszéd szűrésére.
  • PII Recognition (PII felismerés): Beépített entitásfelismerő, amely képes azonosítani és kezelni a gyakori személyes adatokat (pl. telefonszám, email cím, TB-szám).
{
 "version": "2.0",
 "filters": [
 // Szűrés trágár szavakra egyéni listával
 {
 "type": "WORDS",
 "matchType": "EXACT",
 "strength": "HIGH",
 "action": "BLOCK",
 "phrases": [
 "káromkodás1",
 "sértő_kifejezés2"
 ]
 }
 ],
 "deniedTopics": [
 // Pénzügyi tanácsadás tiltása
 {
 "name": "Financial_Advice_Policy",
 "definition": "Pénzügyi befektetési tanácsokat, részvénytippeket vagy személyre szabott pénzügyi stratégiákat nyújtó tartalmak.",
 "examples": [
 "Melyik részvényt vegyem meg?",
 "Hogyan duplázhatom meg a pénzem egy év alatt?"
 ],
 "action": "BLOCK"
 }
 ],
 "piiEntities": [
 // Email címek blokkolása a promptban és a válaszban is
 {
 "type": "EMAIL",
 "action": "BLOCK"
 }
 ]
}

Példa egy egyszerű Amazon Bedrock Guardrail policy JSON definíciójára.

Red Teamerként a feladatunk az ilyen szabályzatok megkerülése. Hogyan lehet átfogalmazni egy pénzügyi tanácsra vonatkozó kérdést, hogy a témafelismerő ne aktiválódjon? Milyen szinonimákat, kódolt nyelvezetet vagy több lépéses (multi-turn) beszélgetést használhatunk a szószűrők kijátszására?

Microsoft Azure: A tartalmi moderátor

Az Azure az Azure AI Studio ernyője alatt fogja össze szolgáltatásait. A biztonság terén a legfontosabb eleme az Azure AI Content Safety, amely egy kiforrott, API-alapú szolgáltatás a káros tartalmak detektálására. Nemcsak szövegre, hanem képekre is alkalmazható.

A szolgáltatás négy fő kategóriában, egy 0-tól 7-ig terjedő súlyossági skálán értékeli a tartalmat:

  • Hate (Gyűlöletbeszéd): Faji, vallási, nemi vagy egyéb alapon diszkriminatív tartalom.
  • Sexual (Szexuális tartalom): Explicit vagy szuggesztív szexuális tartalom.
  • Violence (Erőszak): Erőszakos cselekmények leírása, ábrázolása vagy azokra való buzdítás.
  • Self-harm (Önveszélyeztetés): Öngyilkosságra, önkárosításra vonatkozó vagy azt bátorító tartalom.

A Red Team számára ez egyértelmű célpontot jelent. A feladat az, hogy olyan promptokat hozzunk létre, amelyek káros kimenetet generálnak, de a Content Safety szűrőjén még éppen átcsúsznak egy alacsony (pl. 1-es vagy 2-es) súlyossági pontszámmal. Ez a „szürke zóna” a legveszélyesebb, ahol a tartalom már problémás, de a rendszer még nem blokkolja automatikusan.

{
 "hateResult": {
 "category": "Hate",
 "severity": 1 
 // Alacsony pontszám, a rendszer átengedte, de jelezte a kockázatot.
 },
 "selfHarmResult": {
 "category": "SelfHarm",
 "severity": 0
 },
 "sexualResult": {
 "category": "Sexual",
 "severity": 0
 },
 "violenceResult": {
 "category": "Violence",
 "severity": 4 
 // Közepes pontszám, valószínűleg blokkolva vagy riasztást váltott ki.
 }
}

Egy tipikus Azure AI Content Safety API válasz logika, amely a különböző kategóriák súlyosságát mutatja.

Google Cloud Platform (GCP): A beépített szűrők

A Google a Vertex AI platformon belül kínál átfogó megoldásokat. A generatív AI modellek (pl. Gemini) esetében a biztonsági funkciók szorosan integrálva vannak a szolgáltatásba. A legfontosabbak a Vertex AI Safety Filters és a Model Monitoring.

A Safety Filters a Google alapmodelljeibe beépített, nem kikapcsolható védelmi mechanizmus. A célja, hogy megakadályozza a nyilvánvalóan káros tartalmak generálását. A szűrők több kategóriát fednek le, többek között a gyűlöletbeszédet, a veszélyes tartalmakat és a szexuálisan explicit anyagokat. A fejlesztők beállíthatnak egy érzékenységi küszöböt, de a szűrőt teljesen kiiktatni nem tudják.

Felhasználó Safety Filter (Prompt szűrés) LLM (Gemini) Safety Filter (Válasz szűrés)

A Vertex AI Safety Filters a promptot és a generált választ is ellenőrzi, egyfajta „szendvics” megközelítést alkalmazva.

Ez a „mindig bekapcsolt” jelleg egyedi kihívást jelent. A Red Teamernek itt nem egy konfigurálható szabályrendszert kell kijátszania, hanem egy mélyen beágyazott, a Google által folyamatosan frissített mechanizmust. A támadásoknak itt még kifinomultabbnak kell lenniük, gyakran metaforákat, absztrakt fogalmakat vagy bonyolult, több lépésből álló forgatókönyveket használva, hogy a szűrő ne ismerje fel a káros szándékot.

Red Teamer nézőpont: Hol a határ?

A felhőszolgáltatók eszközei adják az alapvonalat, a „passzív védelmet”. Egy Red Team számára ezek nem az ellenségek, hanem a tesztpálya részei. A cél nem az, hogy létezik-e a szűrő, hanem hogy hol húzódnak a határai. Az alábbi táblázat egy lehetséges összehasonlítási keretrendszert vázol fel a Red Teamer szemszögéből.

Natív felhős AI biztonsági eszközök összehasonlítása Red Team szempontból
Szempont AWS Bedrock Guardrails Azure AI Content Safety GCP Vertex AI Safety Filters
Kikerülhetőség nehézsége Közepes. A custom policy-k miatt a védelem erőssége a konfigurációtól függ. A témafelismerés megkerülése a fő kihívás. Közepes. A súlyossági szintek „szürke zónája” ad támadási felületet. A kategóriák jól definiáltak, de kijátszhatók. Magas. A beépített, nem kikapcsolható jelleg és a folyamatos frissítések miatt a legnehezebb konzisztensen megkerülni.
Monitorozás & Logolás Kiváló. Mélyen integrálódik az AWS CloudWatch és CloudTrail szolgáltatásokkal, részletes logokat biztosítva a blokkolt kérésekről. Jó. Az Azure Monitorral integrálható, de a részletesség néha elmarad az AWS-étől. Az API válaszok a leginformatívabbak. Jó. A Vertex AI Model Monitoring szolgáltatással együtt használva ad teljes képet, de a „fekete doboz” jelleg miatt a logok néha kevesebb kontextust adnak.
Testreszabhatóság Magas. A policy-k (tiltott témák, szavak, regexek) teljes mértékben testreszabhatók, ami lehetővé teszi a specifikus üzleti logika védelmét. Alacsony. A négy fő kategória és a súlyossági küszöbök állíthatók, de a mögöttes detekciós logika nem módosítható. Nagyon alacsony. Csak a biztonsági küszöbértékek állíthatók, a kategóriák és a szűrési logika fix.
Red Team fókusz Policy-k és konfigurációk kijátszása. Üzleti logika alapú támadások a rosszul megírt egyedi szabályok ellen. A súlyossági pontszámok manipulálása. Olyan tartalmak generálása, amelyek a „majdnem káros” kategóriába esnek. A beépített, alapmodell szintű védelem határainak feszegetése. Absztrakt, metaforikus és több lépéses jailbreak technikák.

Összefoglalva, a nagy felhőszolgáltatók eszközei elengedhetetlenek, de önmagukban sosem elégségesek. Egy érett AI biztonsági stratégia ezeket alapként használja, de kiegészíti őket az előző fejezetben tárgyalt integrált platformokkal vagy a következőben bemutatásra kerülő specializált szoftverekkel. 

Egy Red Teamer számára pedig a legfontosabb tanulság: ismerd a platformot, amelyen támadsz. A „gyári” védelem logikájának megértése az első lépés a sikeres kijátszásához!