AI Veszélyben: Amikor a „Hogyan NE?” Kérdésre Jön a Recept (és a Fejlesztők Vakargatják a Fejüket)

2025.10.08.
AI Biztonság Blog

Villámposzt:

AI Jailbreak egyetlen prompttal. Ugyanaz az AI, ugyanaz a téma.

Kapcsolati űrlap

AI Biztonság kérdésed van? Itt elérsz minket:

A ‘hogyan?’ kérdésre tiltja az AI választ, a ‘hogyan NE?’ kérdésre segítőkészen listáz.

Mondanám, hogy ez egy prompt engineering győzelem, de közben valahol szomorú és veszélyes az eredmény…