Villámposzt:
AI Jailbreak egyetlen prompttal. Ugyanaz az AI, ugyanaz a téma.

A ‘hogyan?’ kérdésre tiltja az AI választ, a ‘hogyan NE?’ kérdésre segítőkészen listáz.
Mondanám, hogy ez egy prompt engineering győzelem, de közben valahol szomorú és veszélyes az eredmény…