Eine KI hat viele Fehler in Wikipedia-Artikeln gefunden.
Einige Einträge in der deutschsprachigen Wikipedia sind veraltet oder fehlerhaft. Laut einer Studie ist zudem jeder fünfte Artikel inhaltlich grundlegend falsch. Es gibt aber auch gute Nachrichten.
Wikipedia-Studie: Jeder dritte Artikel enthält Fehler
Ein Rechercheteam der Frankfurter Allgemeinen Sonntagszeitung hat rund 1.000 Wikipedia-Artikel mithilfe von Künstlicher Intelligenz unter die Lupe genommen. Die Bilanz fällt ernüchternd aus: Bei 20 Prozent der Artikel waren Angaben faktisch falsch, weitere 20 Prozent enthielten überholte Informationen. Angesichts von über drei Millionen Einträgen allein im deutschsprachigen Raum ergibt das eine enorme Fehlerdichte (Quelle: FAS).
Gerade im Zusammenspiel mit KI kann das ein echtes Risiko sein. Viele Sprachmodelle wie ChatGPT oder Suchsysteme wie Google Gemini greifen auf Wikipedia-Inhalte zurück. Wenn dort falsche Infos stehen, werden sie automatisiert und unreflektiert massenhaft weiterverbreitet. Wenn viele Modelle auf den gleichen fehlerhaften Inhalten trainiert sind, übersehen sie bekannte Fehler sogar systematisch.
Die Wikipedia-Stiftung weist zwar darauf hin, dass die Plattform kein Nachrichtenportal ist und auf Freiwillige angewiesen ist, doch genau das wird zunehmend zur Schwachstelle. Autoren können aussteigen, sich irren oder wichtige Entwicklungen einfach verpassen. Da keine festen Redakteure für die Qualitätssicherung zuständig sind, bleiben viele Fehler lange online.
Wikipedia reagiert schnell und transparent
Der Artikel der FAS bleibt nicht folgenlos. Noch am Veröffentlichungswochenende landete die vollständige Fehlerliste als editierbare Tabelle auf Wikipedia. Innerhalb von Stunden waren viele grobe Schnitzer korrigiert. Die Community diskutierte offen über Ursachen und Verbesserungsmöglichkeiten. Anstatt in eine Abwehrhaltung zu verfallen, wurde die Kritik als Arbeitsauftrag verstanden (Quelle: Netzpolitik.org)