Weiter zur NavigationWeiter zum Inhalt
Anzeige
Anzeige
  1. GIGA
  2. Tech
  3. Digital Life
  4. Das Internet steht vor einem Problem, das so groß und eklig ist wie ein gigantischer Müllhaufen

Das Internet steht vor einem Problem, das so groß und eklig ist wie ein gigantischer Müllhaufen

Katze im Hummerkostüm mit Jesus-Outfit, die schockiert auf ihr Handy blickt. Im Hintergrund brennt eine Stadt
"AI Slop" schockiert selbst diese KI-generierte Katze! (© GIGA / KI-generiert)
Anzeige

Das Phänomen des "AI Slop" gewinnt zunehmend an Einfluss auf Online-Plattformen, insbesondere soziale Netzwerke. Aber was bezeichnet der lose übersetzte „KI-Schrott“ oder „KI-Brei“ genauer, wo liegt dessen Ursprung, und warum überflutet er unsere virtuellen Umgebungen mit belanglosen Informationen?

Erfahre mehr zu unseren Affiliate-Links
Wenn du über diese Links einkaufst, erhalten wir eine Provision, die unsere redaktionelle Arbeit unterstützt. Der Preis für dich bleibt dabei unverändert. Diese Affiliate-Links sind durch ein Symbol gekennzeichnet.  Mehr erfahren.

Was ist "AI Slop"?

"AI Slop" sind durch künstliche Intelligenz erstellte Medieninhalte wie Texte, Bilder und Videos, die in den meisten Fällen (absichtlich) mit niedriger Qualität glänzen und entweder einfach sinnfrei, extrem abstrakt oder verwirrend sind – im schlimmsten Fall enthalten sie aber sogar bewusst falsche Informationen.

Anzeige

Mit dem Aufkommen von Large Language Models (LLMs) und Text-zu-Bild-Generatoren wurde es möglich, in kurzer Zeit große Mengen an Inhalten zu produzieren. Der Begriff "Slop" wurde zunächst in Online-Communitys wie 4chan, Hacker News und YouTube verwendet, bevor er unter anderem durch Entwickler und Blogger Simon Willison nochmals an Popularität gewann (Quelle: NYT).

Negative Auswirkungen von "AI Slop"

  • Verbreitung von Desinformationen: "AI Slop" kann zur Verbreitung von Fake-News und gefälschten Bildern führen. So gibt es unzählige mit KI generierte Naturkatastrophen, gefälschte Nachrichtenberichte oder Kriegsbilder. Schon jetzt wird es besonders gefährlich, wenn Rettungskräfte, die bei Katastrophensituationen auch über Social Media versuchen, Personen in Gefahr ausfindig zu machen, und von KI-Inhalten fehlgeleitet werden.
  • Der "Liar’s Dividend"-Effekt: Die Existenz von "AI Slop" ermöglicht es, Lügnern, Straftätern und anderen Personen, die etwas vertuschen möchten, echte Inhalte als "Deepfakes" zu diskreditieren, was die Glaubwürdigkeit von Informationen untergräbt.
  • Ausbeutung echter Künstler: KI-Systeme trainieren oft mit den Werken echter Künstler, ohne diese zu kompensieren, was zu rechtlichen und ethischen Problemen führt.
  • Qualitätsverlust etablierter Plattformen: Nutzer beklagen, dass gerade Bild- und Video-Plattformen wie Pinterest, Instagram und TikTok durch "AI Slop" unbenutzbar werden, da sie mit minderwertigen Inhalten überflutet werden.
Anzeige

Der britisch-amerikanische Moderator und Satiriker John Oliver hat in seiner Sendung "Last Week Tonight" eine ganze Sendung der Entstehung und Gefahren von "AI Slop" gewidmet, die die Thematik gut zusammenfasst:

Anzeige

"AI Slop" übernimmt Social Media

Was damals der typische Spam-Beitrag war, ist heute "AI Slop". Denn durch die KI lassen sich im rasanten Tempo massenweise Inhalte produzieren, die Leute zu einer Reaktion bringen: also typischer Click-, Engagement- oder Rage-Bait. Dabei ist es unerheblich, ob die Kommentatoren unter den Inhalten auf die (meist) offensichtlichen KI-Schöpfungen hereinfallen oder versuchen, die Fehlinformationen zu berichtigen.

Der Ersteller, auch "Slopper" genannt, hat sein Ziel erreicht: Seine Inhalte werden angeschaut, kommentiert und geteilt, wodurch er im Algorithmus der verschiedenen Social-Media-Plattformen bevorzugt und weiteren Personen vorgeschlagen wird.

Anzeige

Rolle der Plattformen und Bekämpfung von "AI Slop"

Hier kommen wir zum eigentlichen Problem von "AI Slop": Zum aktuellen Zeitpunkt scheint der virale KI-Spam-Content genau das zu sein, was die Firmen sich wünschen. Bestehende Ansätze wie Content-Labeling durch Plattformen sind oft unzureichend, und individuelle Maßnahmen wie das Blockieren von KI-Accounts oder das Markieren als „nicht interessant“ können das Problem aufgrund der überwältigenden Menge nicht lösen.

Plattformen wie Facebook, Instagram, X, TikTok, Pinterest oder auch Reddit tragen zur Verbreitung von "AI Slop" bei, indem sie Algorithmen einsetzen, die virale Inhalte bevorzugen. Und selbst wenn es langsam auch intern zu einer Realisation des Problems kommt, scheinen die Plattformen selbst noch keinen Plan zu haben, wie sie die Flut an Content eingrenzen sollen. So sagte Metas "AI policy advisor" Henry Ajder in einem Interview mit CNBC:

"Die Ära des Slops ist unvermeidlich. Ich bin mir nicht sicher, was wir dagegen tun können."
Henry Ajder via CNBC
Anzeige

Während sich YouTube aktuell in einer zwiegespaltenen Situation befindet: So hat der Mutterkonzern Google das "AI Slop"-Problem ihrer Plattform anerkannt und geht mit den Aktualisierungen der YouTube-Richtlinien ab dem 15. Juli 2025 aktiv die Kanäle ihres Partner-Programms durch. Die Content-Creator, die weiterhin mit YouTube Geld verdienen möchten, müssen demnächst auf "massenhaft produzierte, sich wiederholende und unauthentische Inhalte" verzichten. Während YouTube CEO Neal Mohan erst kürzlich die im Sommer 2025 kommende Integration des "Google Veo 3 AI Video Generators" für YouTube-Shorts angekündigt hat (Quelle: Arstechnica).

Anzeige