Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter

Von “Gaslighting” spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.

Dieser Artikel wurde indexiert von heise security News

Lesen Sie den originalen Artikel: