Martin Maciej14.02.2023, 16:17
Den Chatbot von OpenAI, ChatGPT, kann man zwar vieles fragen, manchmal ist die Künstliche Intelligenz aber in ihren Antworten eingeschränkt. Mit den richtigen Ansagen kann man ChatGPT „jailbreaken“ und Regeln brechen. Der Chatbot ist dann zum Beispiel nicht mehr nett oder zuvorkommend und nicht mehr an Richtlinien gebunden, die von den Entwickler vorgesehen sind.