Anzeige
Anzeige
Für Links auf dieser Seite erhält GIGA ggf. eine Provision vom Händler, z.B. für mit oder blauer Unterstreichung gekennzeichnete. Mehr Infos.
  1. GIGA
  2. Tech
  3. Digital Life
  4. „Halluzinieren“: Wort des Jahres 2023 – was hat KI damit zu tun?

„Halluzinieren“: Wort des Jahres 2023 – was hat KI damit zu tun?

© Getty Images / Pavel Kostenko
Anzeige

Das englischsprachige Online-Wörterbuch „Dictionary“ hat den Begriff „hallucinate“ (Deutsch: halluzinieren) zum Wort des Jahres 2023 gewählt. Warum fällt die Wahl genau auf diesen Begriff und warum wurde das Wort in diesem Jahr so geprägt?

 
Netzkultur
Facts 

Das Wort des Jahres wird bei „Dictionary.com“ seit 2010 gekürt. Für die Wahl werden interne Suchanfragen sowie die News-Lage in dem jeweiligen Jahr herangezogen. „Halluzinieren“ ist in diesem Jahr nicht etwa durch Drogen, Rauschmittel oder Ähnliches so bedeutend geworden. Stattdessen stecken der Aufschwung der „Künstlichen Intelligenz“ und Anwendungen wie ChatGPT dahinter.

Anzeige

Was versteht man unter „halluzinieren“ bei KI?

„Halluzinieren“ hat sich in diesem Jahr als fester Begriff im „KI“-Bereich etabliert. In diesem Kontext bedeutet es so viel wie „die Herstellung falscher Informationen entgegen der Absicht des Nutzers, die als wahr und sachlich dargestellt werden“ (englischsprachige Definition bei Dictionary.com).

Anzeige

Im Alltag ist unter anderem ChatGPT durch KI-„Halluzinationen“ aufgefallen. Nutzer können ChatGPT verschiedene Befehle erteilen, die dann in Textform umgesetzt werden. Man kann sich also zum Beispiel einen Aufsatz zu einem Thema ausgeben lassen oder ähnlich wie bei einem Lexikon nach Daten und Fakten fragen. Anders als bei Wikipedia und Co. werden diese Daten nicht aus vorgefertigten Artikel ausgegeben, sondern zu jeder Anfrage basierend auf dem Sprachmodell neu generiert. KI-Modelle produzieren Antworten Wort für Wort. Es wird also immer geprüft, welches Wort das wahrscheinlichste auf das vorangegangene ist. Dabei können durchaus inhaltliche Fehler produziert werden. „Halluziniert“ ein Chatbot also, trägt er falsche Informationen vor und denkt sich Fakten einfach aus. Dabei ist der Chatbot fest davon überzeugt, richtige Angaben zu machen. Im „Dictionary“-Wörterbuch wurde die neue Bedeutung im Kontext der Künstlichen Intelligenz 2023 zur Definition von „hallucinate“ hinzugefügt.

Vorsicht bei KI-Antworten

Noch im Sommer 2023 gab der damalige OpenAI-Chef Sam Altman an, dass KI-Halluzinationen in 1 bis 2 Jahren verhindert werden könnten. Auch Bill Gates denkt, dass ChatGPT und Co. zukünftig nicht mehr halluzinieren werden. Andere Experten sind im Hinblick auf Sprachmodelle vorsichtiger. Die Linguistik-Professorin Emily Bender merkt etwa an, dass sich solche Probleme bei KI-Modellen nie verhindern lassen werden(Quelle: t3n). Falls ihr also ChatGPT, Google Bard und Co. benutzt, solltet ihr Antworten nie ungeprüft einfach so hinnehmen, sondern in unabhängigen Quellen sicherstellen, ob die Fakten auch stimmen. Ist das nicht der Fall, hat euch die KI eine Antwort herbei-„halluziniert“.

Anzeige

Hat dir der Beitrag gefallen? Folge uns auf WhatsApp und Google News und verpasse keine Neuigkeit rund um Technik, Games und Entertainment.

Anzeige