Time Bandit: Neuer Jailbreak verwirrt ChatGPT mit Zeitreisen

Durch den Jailbreak verliert ChatGPT sein Zeitbewusstsein. Der Chatbot hat daraufhin bei Tests bereitwillig bei der Entwicklung von Malware geholfen. (ChatGPT, KI)

Dieser Artikel wurde indexiert von Golem.de – Security

Lesen Sie den originalen Artikel: