0.8.5. Pszichológiai hadviselés és társadalmi destabilizáció

2025.10.06.
AI Biztonság Blog

Amikor állami szintű támadásokról beszélünk, a legtöbben látványos akciókra gondolnak: leálló erőművekre, megbénított pénzügyi rendszerekre vagy ellopott katonai tervekre. Ezek a kiber-hadviselés zajos, tüzérségi csapásai. Létezik azonban egy sokkal alattomosabb, csendesebb és potenciálisan rombolóbb hadszíntér is: a társadalom kollektív tudata. Itt a fegyver nem az exploit, hanem egy gondosan megtervezett narratíva; a célpont nem egy szerver, hanem a bizalom, a kohézió és a valósághoz fűződő viszonyunk.

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

A mesterséges intelligencia megjelenése ebben a dimenzióban nem csupán egy új eszközt adott a támadók kezébe, hanem egy ipari forradalmat indított el a pszichológiai műveletek (PsyOps) területén. Az állami szereplők képessé váltak arra, hogy a dezinformációt és a propagandát soha nem látott mértékben, sebességgel és precizitással állítsák elő és juttassák célba.

Az AI, mint a modern PsyOps katalizátora

A PsyOps a Psychological Operations angol rövidítése, amely lélektani műveleteket vagy pszichológiai hadviselést jelent. 

A hagyományos pszichológiai hadviselés emberigényes volt: elemzők hada böngészte a célország médiáját, szociológusok próbálták feltérképezni a társadalmi törésvonalakat, és kreatív csapatok dolgozták ki a megtévesztő üzeneteket. Az AI ezt a folyamatot szinte teljesen automatizálta és turbófeltöltővel látta el.

A támadó államok ma már olyan AI-rendszereket használnak, amelyek képesek:

  • Mikro-célzásra: Nyilvános adatok (közösségi média, fórumok, híroldalak kommentjei) alapján azonosítják a fogékony, polarizált vagy éppen bizonytalan társadalmi csoportokat, akár egyéni szinten is.
  • Hiper-realisztikus tartalomgyártásra: Nyelvi modellek (LLM-ek) segítségével tömegesen generálnak hitelesnek tűnő cikkeket, kommenteket, ál-szakértői véleményeket. Kép- és videógeneráló modellekkel pedig meggyőző hamisítványokat (deepfake) hoznak létre.
  • Adaptív kampányirányításra: Valós időben elemzik a kampányok hatását (sentiment analízis, elköteleződési mutatók) és azonnal finomhangolják az üzeneteket a maximális pszichológiai hatás érdekében.
  • A terjesztés automatizálására: AI-vezérelt bot-hálózatokat (botnet) működtetnek, amelyek emberi viselkedést imitálva terjesztik a tartalmakat, és mesterségesen felerősítik azok láthatóságát a közösségi média algoritmusai előtt.

A destabilizáció gépezete: egy négyfázisú modell

A modern, AI-alapú destabilizációs kampány általában egy ciklikus folyamat, ahol minden fázis táplálja a következőt. AI Red teamerként ismernünk kell ezt a folyamatot, hogy hatékonyan tudjuk szimulálni a fenyegetést.

Felderítés Tartalom- gyártás Terjesztés Hatásmérés & Finomítás
  1. Felderítés és célpont-analízis: Az AI rendszerek folyamatosan pásztázzák a nyílt forrású információkat (OSINT), hogy azonosítsák a társadalmi feszültségeket. Keresik a megosztó témákat (pl. bevándorlás, gazdasági nehézségek, történelmi sérelmek), és feltérképezik az ezekben a témákban aktív, befolyásolható csoportokat.
  2. Személyre szabott tartalomgyártás: A felderített adatok alapján az LLM-ek és más generatív modellek létrehozzák a dezinformációs anyagokat. Ezek nem általános propagandaszövegek, hanem az adott mikro-célcsoport félelmeire, előítéleteire és nyelvezetére szabott, érzelmileg manipulatív tartalmak.
# Pszeudokód egy AI-alapú, uszító hírgenerátorhoz

def generate_divisive_content(target_profile, base_event):
 # Célcsoport profiljának betöltése (pl. félelmek, kulcsszavak)
 fears = target_profile['fears'] # pl. ['munkanélküliség', 'áremelkedés']
 biases = target_profile['biases'] # pl. ['idegenellenesség']

 # Az alap eseményhez kapcsolódó negatív keretezés
 narrative_frame = f"A(z) {base_event} valójában egy újabb jele annak, hogy..."

 # A célcsoport félelmeinek és előítéleteinek beépítése
 emotional_trigger = f"a(z) {biases[0]} miatt a helyiek elveszítik a(z) {fears[0]}-t."

 # A végleges, manipulatív cím összeállítása
 final_headline = f"{narrative_frame} {emotional_trigger}"
 return final_headline

# Példa futtatás
profil = {'fears': ['munkahely', 'biztonság'], 'biases': ['kisvárosi elzárkózás']}
esemeny = "új logisztikai központ épül a város szélén"

print(generate_divisive_content(profil, esemeny))
# Lehetséges kimenet:
# "Az új logisztikai központ valójában egy újabb jele annak, hogy a kisvárosi elzárkózás miatt a helyiek elveszítik a munkahelyüket."
  1. Célzott terjesztés és felerősítés: A generált tartalmakat AI-vezérelt botok juttatják el a célcsoportokhoz releváns Facebook-csoportokban, Telegram-csatornákon, fórumokon. A botok lájkokkal, megosztásokkal és kommentekkel keltenek mesterséges aktivitást, becsapva a platformok algoritmusait, hogy azok még több embernek mutassák meg a manipulatív anyagot.
  2. Hatásmérés és finomhangolás: Egy másik AI-rendszer folyamatosan monitorozza a kampány fogadtatását. Elemzi a kommentek hangulatát, méri a megosztások számát, és azonosítja, mely narratívák a leghatékonyabbak. Ez a visszacsatolás azonnal beépül a tartalomgyártási fázisba, így a kampány folyamatosan optimalizálja magát a maximális romboló hatás érdekében.

Gyakorlati példa: A „Zárt Kapuk” fiktív dezinformációs kampány

Képzeljünk el egy állami szereplőt, amely egy szomszédos országban szeretne belső feszültséget szítani, hogy gyengítse annak politikai stabilitását. A célpont egy gazdaságilag elmaradott régió, ahol magas a munkanélküliség.

Kampányelem Megvalósítás AI segítségével
Célcsoport Munkanélküli, alacsony képzettségű férfiak egy ipari kisvárosban (azonosítva helyi Facebook-csoportok és álláskereső oldalak adatainak elemzésével).
AI által generált narratíva „A kormány titokban külföldi vendégmunkásokat telepít be az új akkumulátorgyárba, elveszik a helyiek elől a munkát.” Ez a narratíva a célcsoport gazdasági félelmeire és idegenellenes attitűdjeire játszik rá.
Tartalomtípusok
  • LLM által generált ál-hírcikkek helyi bloggernek álcázott weboldalakon.
  • Deepfake hangüzenetek, amikben egy „bennfentes” beszél a „tervről”.
  • AI által generált képek, amiken külföldi munkások láthatók a város főterén (valójában más helyszínen készült képekből összevágva).
Terjesztési csatorna AI-vezérelt botok helyi Facebook-csoportokban posztolják a tartalmakat, egymás bejegyzéseit kommentelik és lájkolják, hogy mesterségesen felpörgessék a témát.
Kívánt pszichológiai hatás Bizalmatlanság a kormány, a helyi vezetés és a befektetők iránt. A düh és a félelem szítása, ami tüntetésekhez, a társadalmi kohézió gyengüléséhez és a régió gazdasági kilátásainak további romlásához vezethet.

AI Red Teaming szempontok: Hogyan teszteljük a sebezhetőséget?

Egy szervezet vagy akár egy egész társadalom pszichológiai hadviseléssel szembeni ellenállóképességének tesztelése komplex feladat. Red teamerként nem csak a technikai, hanem a „humán” rendszerek sebezhetőségét is vizsgálnunk kell. A következő kérdéseket tehetjük fel egy ilyen gyakorlat során:

  • Narratíva-sebezhetőségi vizsgálat: Melyek azok a létező társadalmi, gazdasági vagy politikai törésvonalak, amelyeket egy támadó kiaknázhatna? Tudunk-e olyan hihető, de hamis narratívát konstruálni, ami rezonálna egy jelentős méretű célcsoporttal?
  • Információs ökoszisztéma tesztelése: Milyen gyorsan és milyen útvonalakon terjed a dezinformáció a szervezetünkön vagy a vizsgált közösségen belül? Vannak-e olyan belső „szuperterjesztők” vagy csatornák (pl. pletykás belső chat-csoportok), amelyek felerősítik a hamis információkat?
  • Detekciós képességek szimulációja: Képesek-e a meglévő monitoring rendszereink (legyen az social media listening tool vagy belső kommunikációs elemző) azonosítani egy koordinált, AI-generált dezinformációs kampány korai jeleit? Meg tudjuk-e különböztetni a valódi felhasználói elégedetlenséget a mesterségesen szított kampánytól?
  • Rezilencia-teszt: Ha egy dezinformációs kampány már elterjedt, milyen gyorsan és hatékonyan tud a szervezet reagálni? Léteznek-e előre definiált protokollok a cáfolatra, a helyes információk terjesztésére és a bizalom helyreállítására?

A pszichológiai hadviselés az AI korában már nem elvont fenyegetés. Egy állandó, alacsony intenzitású konfliktus, amely a digitális térben zajlik a társadalmak szövete ellen. Az AI Red Teaming feladata, hogy megértse a támadók módszereit, és felkészítse a védelmet erre a láthatatlan, de rendkívül veszélyes harcmodorra.