"Shrimp Jesus" und der KI-Müll im Internet

Wie künstlich erzeugte Massenware Soziale Medien, Netzwerke sowie Kunst und Kultur überschwemmt

Schwerpunkt: KI
Vor dem Hintergrund einer bläulich dominierten Datenlinie mit Lichtern sind mehrere Bilder von "Shrimp-Jesus" zu sehen, welche KI-generierte Ausgaben von Jesus bestehend aus Garnelen ist

Vor rund zwei Jahren gab es die ersten Sichtungen, und rasch wurden sie mehr und mehr. Doch es hatte weder mit außerirdischen noch überirdischen, und schon gar nicht göttlichen, Dingen zu tun, als “Shrimp Jesus” zum ersten Mal das Licht der irdischen Welt erblickte. Der KI-generierte, aus Garnelen bestehende Gottessohn steht stellvertretend für ein Phänomen, mit dem das Internet und Soziale Medien seit dem Aufkommen von massentauglichen, für alle verfügbaren KI-Tools konfrontiert sind und für manche sogar den “Tod des Internets” einläuten (siehe Besprechung einer sehenswerten ARTE-Dokumentation, ab Ende Februar 2026 wieder in deren Mediathek verfügbar).

Dein KI-generiertes Reich komme...

Vor allem Facebook wurde ab Anfang 2024 geradezu mit Abbildungen überschwemmt: Mal ritt, mal schwebte der Garnelen-Heiland mit prächtigstem Shrimp-Heiligenschein durchs offene Meer, mal präsentierte er sich staunenden Menschen auf dem Gabentisch. Herzige, meist bitterarme, Kinder bastelten “Shrimp Jesus” aus Müll und sonstigen vorhandenen Materialen - nicht selten auch mit dem Aufruf für Spenden verbunden. Mit wenigen Prompts erzeugt gingen nicht wenige dieser Erzeugnisse dennoch viral und verstopften eine ohnehin schon ständig nach Aufmerksamkeit schreiende Plattform noch zusätzlich. Wenn schon nicht ein neuer Prophet, dann war damit zumindest der Begriff des “AI Slops” oder auch “KI-Mülls” geboren.

Mehr Infos dazu auch in diesem kurzen Video-Clip (vor allem die ersten sieben Minuten):

Desinformation und Geschichtsleugnung

Was sich in den ersten beiden Absätzen vielleicht nach einer witzigen Spielerei mit neuen Tools anhört, hat sich mittlerweile zu einem ernsthaften Problem ausgewachsen. Exemplarisch lässt sich dies wohl am besten an der Diskussion rund um KI-generierte Inhalten über den Holocaust zeigen. Anfang 2025 tauchten erstmals künstlich erzeugte Bilder auf, die angebliche Opfer des NS-Regimes zeigten und deren “Geschichte” erzählten. Manche davon waren von der historischen Wahrheit inspiriert, manche schlicht erfunden.

Die dahinterstehenden Motive können dabei vielschichtig sein: Einerseits wird mit besonders aufrüttelnden, emotionalisierenden Inhalten gerade auf Sozialen Medien mehr Aufmerksamkeit (und damit Likes/Shares etc.) erzielt - und gleichzeitig auch der eigene finanzielle Gewinn erhöht. Andererseits wird hier neue Technologie auch durchaus gezielt für Desinformation bis hin zur Geschichtsverdrehung genutzt, wenn entweder Verbrechen des Nationalsozialismus verharmlost, umgeschrieben oder ganz geleugnet werden.

In einem offenen Brief wandten sich daher Anfang 2026 mehrere deutsche KZ-Gedenkstätten und anderer antifaschistische Organisationen an die Öffentlichkeit, um auf diese Problematik hinzuweisen und vor allem die Betreiber:innen der Plattformen stärker bezüglich KI-Kennzeichnung und Vorgehen gegen Fehlinformationen in die Pflicht zu nehmen (mehr Hintergrund dazu auch in einem FAZ-Artikel und CBS-Beitrag).

Rasante Zunahme von KI-Inhalten

Um die Dimensionen der Einschnitte durch KI-generierte Inhalte noch einmal zu verdeutlichen, hier auch kurz ein Ausflug in die Welt der Zahlen: Laut dem kanadischen KI-Dienstleister Originality.ai waren Ende 2024 41% aller Facebook-Beiträge KI-generiert (im Vergleich zu 24% im Jahr davor). Eine Untersuchung der europäischen, gemeinnützigen Organisation AI Forensics im Juli 2025 hingegen wies 25% aller Videos auf TikTok als nicht von Menschenhand erschaffen aus. Die Recherche des US-amerikanischen IT-Unternehmens Kapwing wiederum kam zu dem Schluss, dass bis zu 33% aller Videos auf YouTube mit Hilfe von KI erstellt wurden.

Die österreichische Digitalisierungsexpertin Ingrid Brodnig brachte dabei die zugrundeliegende Problematik mit KI-Müll in Sozialen Medien in ihrer Standard-Kolumne folgendermaßen auf den Punkt: “Die Geschwindigkeit und wie billig bis gratis der Prozess ist, stellt bereits einen Wettbewerbsvorteil dar. Bei der Unmenge an AI Slop reicht es, wenn nur ein Bruchteil davon viral geht – schon verdrängt der KI-Fraß Inhalte aus den Feeds, die Menschen in mühevoller Kleinarbeit erstellten. Diese Mischung aus Social-Media-Apps, die Hochemotionales begünstigen, sowie KI, die rasch hochemotionale Inhalte erzeugt, ist eine Hochzeit aus der Hölle.”

Aber nicht nur Soziale Medien sind vom Aufstieg der KI-Software betroffen. Laut einem Bericht der KI-Agentur “The Graphite” waren im November 2024 erstmals mehr von Künstlicher Intelligenz erschaffene Artikel im Internet zu finden als menschliche. Diese Beobachtung wird auch vom "Bad Bot Report" des Cybersecurity-Unternehmens Imperva unterstützt, der für 2024 erstmals weniger menschliche als KI-Aktivitäten im weltweiten Netz ausmachte. 37% der gesamten Internet-Aktivitäten verursachten mit "Bad Bots" solche, die Schaden anrichten wollten, indem sie etwa sensible Daten abgriffen oder Netzwerke attackierten.

Mit Unterstützung von KI erstellter Content ist dabei nicht immer automatisch schlecht oder aus gesetzlichen oder moralischen Perspektiven problematisch, sehr oft werden aber eben diese Grenzen überschritten. Dies zeigt etwa auch eine Untersuchung der auf Identitätsdiebstahl spezialisierten US-Firma “Security Hero” von Deep-Fake-Videos im Internet. 98% dieser Clips waren pornografischen Inhalts, zu 99% waren dabei Frauen als Opfer betroffen (siehe dazu auch unsere Praxis-Idee “Deep Fake - Täuschend echt?!” [Sek1, Sek2]). Für das massenhafte Erstellen von sexualisierten Aufnahmen von - vor allem - Frauen wurde zuletzt auch der KI-Chatbot Grok aus dem Firmenimperium von Elon Musk berüchtigt (siehe etwa diese Analyse oder diesen Spiegel-Artikel).

KI-Müll trifft auch Kunst und Kultur

Die Möglichkeit durch KI-Tools alle möglichen Inhalte quasi per Knopfdruck zu erzeugen, trifft aber auch andere Bereiche, die entweder im Internet publiziert oder vertrieben werden. So gab etwa erst kürzlich eine unter dem Pseudonym “Coral Hart” publizierende Autorin der “New York Times” ein Interview (Zusammenfassung unter diesem Link). Die Besonderheit an ihr: Die mittlerweile über 200 Romanzen wurden mithilfe von Künstlicher Intelligenz erstellt, laut eigenen Angaben meist in unter einer Stunde Arbeit pro Buch samt Inhalt und Covergestaltung.

Besonders schlagend wird dieses neue Phänomen bei Ratgeber-Büchern, wie etwa auch eine Untersuchung von Originality.ai nachweist. 77% der unter der Rubrik “Erfolg” im letzten Halbjahr 2025 veröffentlichten Publikationen seien demnach mit höchster Wahrscheinlichkeit KI-generiert. Aber auch in die Sparte der Kinderbücher dringen zunehmend KI-Produkte vor, wie etwa dieser ORF-Artikel zeigt (mit einer etwas anderen Perspektive auch in diesem NDR-Beitrag).

Auch der Musikbranche und damit den (menschlichen) Künstler:innen setzt diese Entwicklung zu: Laut der „12th Annual AlphaWise Audio Entertainment Survey” von Morgan Stanley Research hören in den Vereinigten Staaten bereits 55 bis 60 Prozent der 18- bis 44-Jährigen regelmäßig mehrere Stunden KI-Musik (Quelle: SWR-Artikel und Englisch unter diesem Link). Der Audi-Streamingdienst Spotify verschärfte etwa 2025 nach anhaltender Kritik seine Regeln bezüglich KI und gab an, allein in einem Jahr 75 Millionen Spam-Tracks entfernt zu haben.

Kennzeichnungspflicht in der EU ab August

Wie auch Spotify gingen in den letzten Monaten mehrere Social-Media-Plattformen gegen überbordenden KI-Müll vor, etwa YouTube (siehe auch Futurezone-Artikel). Dies geschieht meist allerdings nur in dem Rahmen, in dem zu viel minderwertiger Inhalt das eigene Geschäftsmodell schädigt oder gar ganz gefährdet.

Eine entscheidende Änderung soll vor allem die ab 2. August 2026 in der EU geltende Kennzeichnungspflicht für KI-generierte Inhalte bringen (Zusammenfassung unter diesem Link). “Täuschend echte” Bilder oder Videos müssen ab dann gekennzeichnet werden, öffentlich zugängliche Texte dann, wenn sie ausschließlich von einer Künstlichen Intelligenz erzeugt und keiner menschlichen Prüfung mehr unterzogen wurden. Damit sollen Risiken wie Desinformation oder Täuschungen durch Deep Fakes minimiert werden.

Nicht zuletzt aufgrund der schieren Menge an KI-Inhalten wird aber die Durchsetzungsfähigkeit bzw. der Nutzen dieser Verordnung immer wieder infrage gestellt. Auch eine Studie der Standford-Universität kam 2025 zu dem Schluss, dass eine Kennzeichnung alleine nicht unbedingt die Glaubwürdigkeit von KI-Inhalten abschwächen würde. Vielmehr sei auch die Förderung von Medienkompetenz und Wissen über neue Technologien entscheidend.