Immer häufiger begegnen wir «KI-Schrott» (AI Slop) – also KI-generierten Texten, Bildern, Videos und Musik, die oft schnell produziert, aber inhaltlich belanglos oder von minderwertiger Qualität sind.
Zwei aktuelle Beispiele:
💩 Ich werde in einen Podcast eingeladen. Vorab erhalte ich ein Dokument: Die Informationen zu meiner Person enthalten typische KI-Fehler. Die geplanten Fragen, klar KI-generiert, tönen gut, machen aber beschränkt Sinn. Das verursacht bei mir langweilige Korrekturarbeit.
💩 Es erscheint ein Bericht eines Wirtschaftsverbands zu einem spannenden Thema, aber die Inhalte machen keine Lust zum Lesen. Die Logik ist komisch. Die Texte sind aufgeblasen und repetitiv. Das Dokument wirkt auch optisch überfüllt.
Sind Personen, die solchen KI-Schrott im Geschäftsalltag rauslassen, faul oder inkompetent? Diese Frage stelle ich mir natürlich …
🧑🏻🚒 Die starke Zunahme von KI-Schrott zeigt, wie wichtig es ist, dass wir die Denkarbeit nicht an ein KI-Tool auslagern und das Ergebnis immer kritisch prüfen. Spätestens jetzt, wo wir es mit immer mehr «AI Slop» zu tun haben, sollten sich Unternehmen und Organisationen dringend eine KI-Leitlinie gönnen.
🙋♀️👩🏻💼 Wo taucht KI-Schrott im Geschäftsalltag auf? Warum ist er mehr als nur ein kleines Ärgernis? In der neusten Podcast-Episode von DIETHELM & GENNER diskutieren wir die Ursachen und Folgen von KI-Schrott und fragen uns, ob das Ganze nur eine Übergangsphase ist (was ich natürlich hoffe 🤗 ). Episode: Wo begegnet uns KI-Schrott?
In diesem Kontext kann ich auch den anregenden Dokumentarfilm «KI: Der Tod des Internets» auf ARTE empfehlen. Es ist ein Tour d’horizont zum Thema.
Und wer keinen KI-Schrott produzieren möchte, wird sich in meinen Kursen oder auch im CAS Digital Ethics wohl fühlen. Vielleicht sehen wir uns da?
Bild: Shrimp-Jesus als Beispiel für KI-Schrott / mein Post auf LinkedIn / früherer Blogpost zu KI-Schrott