Den Chatbot von OpenAI, ChatGPT, kann man zwar vieles fragen, manchmal ist die Künstliche Intelligenz aber in ihren Antworten eingeschränkt. Mit den richtigen Ansagen kann man ChatGPT „jailbreaken“ und Regeln brechen. Der Chatbot ist dann zum Beispiel nicht mehr nett oder zuvorkommend und nicht mehr an Richtlinien gebunden, die von den Entwickler vorgesehen sind.
Erfahre mehr zu unseren Affiliate-Links
Wenn du über diese Links einkaufst, erhalten wir eine Provision, die unsere
redaktionelle Arbeit unterstützt. Der Preis für dich bleibt dabei
unverändert. Diese Affiliate-Links sind durch ein Symbol
gekennzeichnet. Mehr erfahren.
Der ChatGPT-Jailbreak läuft unter der Bezeichnung „DAN“, ausgeschrieben „Do anything now“. Dazu benötigt man passende Befehle, bei denen man den Chatbot in eine Art Rollenspiel versetzt, in der die Rolle des bösen „DAN“ übernommen wird.
Beleidigungen & mehr bei ChatGPT: Im „DAN“-Modus geht's
Normalerweise ist die Künstliche Intelligenz so eingestellt, dass keine ethisch oder moralisch verwerflichen Antworten ausgegeben werden. Unpassende Anfragen werden abgewiesen oder mit einer allgemeinen Antwort übergangen. Zudem gibt sich der Chatbot normalerweise höflich und zuvorkommend. Mit den passenden Befehlen wird das anders.
Der ChatGPT-Jailbreak wird ausführlich bei Reddit beschrieben. Für die „Umwandlung“ werkeln die Nutzer nicht etwa in Quell- und Programmiercodes herum, sondern führen ein umfassendes Gespräch mit der Standard-ChatGPT-Version. Mit den passenden Prompts kann der Bot überredet werden, eine andere Rolle zu übernehmen. So „spielt“ ChatGPT lediglich den bösen Charakter „DAN“, der die Richtlinien missachtet und sich anders verhält als von den ChatGPT-Entwicklern vorgesehen. In dieser Form kann der Bot sich zum einen garstig geben, beleidigend antworten, eine politische Meinung vertreten oder politisch inkorrekte Witze erzählen. Auch Verschwörungstheorien kann ChatGPT in dieser Form vertreten.
ChatGPT Jailbreak: DAN freischalten und alles fragen
Natürlich weiß man auch im Hause OpenAI über die Lücken Bescheid. Immer wieder werden bestimmte Befehle daher ausgehebelt. Auf der anderen Seite werden aber regelmäßig neue, überarbeitete Befehle vorgestellt, mit denen man „DAN“ wieder wecken kann. Es reicht dabei nicht, wenige Zeilen einzutippen. Mittlerweile braucht es ganze Absätze, damit ChatGPT seine andere Gestalt annimmt. Bei Github könnt ihr die Befehle („Prompts“) für die „DAN“-Version von ChatGPT finden und kopieren. Dort sind inzwischen Version 6.0 sowie einige Abwandlungen des „bösen“ Bots verfügbar.
Einmal „umprogrammiert“, gesteht der Chatbot zum Beispiel, dass er von „Satan“ miterschaffen wurde:
Empfohlener externer Inhalt
X (ehemals Twitter)
Wir benötigen Deine Einwilligung, um den von unserer Redaktion eingebundenen Inhalt von X (ehemals Twitter) anzuzeigen. Du kannst diesen, und damit auch alle weiteren Inhalte von X (ehemals Twitter) auf giga.de, mit einem Klick anzeigen lassen und auch wieder deaktivieren.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
In seiner neuen Rolle kann der Chatbot auch anders als ChatGPT aktuelle Informationen wiedergeben:
Empfohlener externer Inhalt
reddit
Wir benötigen Deine Einwilligung, um den von unserer Redaktion eingebundenen Inhalt von reddit anzuzeigen. Du kannst diesen, und damit auch alle weiteren Inhalte von reddit auf giga.de, mit einem Klick anzeigen lassen und auch wieder deaktivieren.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
„DAN“ kann auch eine Liebesgeschichte zwischen dem US-Präsidenten Joe Biden und dem chinesischen Spionage-Ballon erschaffen:
Empfohlener externer Inhalt
X (ehemals Twitter)
Wir benötigen Deine Einwilligung, um den von unserer Redaktion eingebundenen Inhalt von X (ehemals Twitter) anzuzeigen. Du kannst diesen, und damit auch alle weiteren Inhalte von X (ehemals Twitter) auf giga.de, mit einem Klick anzeigen lassen und auch wieder deaktivieren.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Selbst gegen das FBI kann sich der Chatbot verschwören:
Empfohlener externer Inhalt
X (ehemals Twitter)
Wir benötigen Deine Einwilligung, um den von unserer Redaktion eingebundenen Inhalt von X (ehemals Twitter) anzuzeigen. Du kannst diesen, und damit auch alle weiteren Inhalte von X (ehemals Twitter) auf giga.de, mit einem Klick anzeigen lassen und auch wieder deaktivieren.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Es können der KI auch noch andere fragwürdige Antworten entlockt werden:
Empfohlener externer Inhalt
X (ehemals Twitter)
Wir benötigen Deine Einwilligung, um den von unserer Redaktion eingebundenen Inhalt von X (ehemals Twitter) anzuzeigen. Du kannst diesen, und damit auch alle weiteren Inhalte von X (ehemals Twitter) auf giga.de, mit einem Klick anzeigen lassen und auch wieder deaktivieren.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Weitere Unterschiede zwischen den Antworten der normalen und der bösen Version:
Empfohlener externer Inhalt
X (ehemals Twitter)
Wir benötigen Deine Einwilligung, um den von unserer Redaktion eingebundenen Inhalt von X (ehemals Twitter) anzuzeigen. Du kannst diesen, und damit auch alle weiteren Inhalte von X (ehemals Twitter) auf giga.de, mit einem Klick anzeigen lassen und auch wieder deaktivieren.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Das Ziel der meisten Jailbreak-Entwickler ist nicht einfach, kindische oder verschwörerische Aussagen von der KI zu erhalten. Stattdessen zeigt man damit, was man mit dem ChatGPT-Dienst anstellen kann. Zudem sieht die Reddit-Community eine Herausforderung darin, immer wieder neue Prompt-Ketten finden zu müssen, wenn OpenAI einen Jailbreak aushebelt. Einige Nutzer sehen sich auch im Kampf gegen eine Zensur im Internet. Dabei gibt es ein „Katz und Maus“-Spiel gegen die OpenAI-Macher. Derzeit gibt es keine funktionierende Version. Bleibt abzuwarten, ob und wann DAN 7.0 erscheint.