Auch Hilfswerke setzen KI-generierte Bilder in Kampagnen gegen Hunger und sexualisierte Gewalt ein. Ich rate von fotorealistischen KI-generierten Bildern ab, die suggerieren, dass es sich um reale Menschen handelt. Weshalb?
🔎 Viele Menschen wissen nicht, was mit künstlicher Intelligenz (KI) alles möglich ist. Diese Menschen werden getäuscht und enttäuscht – mit negativen Folgen für das Vertrauensverhältnis zur Organisation.
🔎 Bei Bildern von echten Menschen entwickeln wir gegenüber diesen Menschen und ihrer Situation Gefühle wie Empathie und Fürsorge, was uns zum Beispiel zum Spenden motiviert. Dieser Mechanismus, wie wir emotional stark auf andere Menschen reagieren, wird nun mit künstlichen Mitteln erzeugt und ohne unser Wissen. Die Folge davon ist, dass sich Menschen getäuscht fühlen, «emotional manipuliert». In der kommerziellen Werbung mag die Akzeptanz von KI-generierten Menschen höher sein, weil wir hier seit Langem von mehr Schein als Sein ausgehen.
🔎 Würde eine Deklaration – z.B. «KI-generiertes Bild» oder «Symbolbild» – eine Täuschung verhindern? Wahrscheinlich nicht, denn ein Bild ist mächtig. Wir nehmen es nur während dem Bruchteil einer Sekunde wahr. Und selbst wenn die Deklaration wahrgenommen würde, bleibt offen, ob diese verstanden würde. Aber Umfragen zeigen, dass eine klare Mehrheit die Deklaration KI-generierter Bilder begrüsst, wie dies auch im AI Act der EU geplant ist. In der Schweiz ist dies meines Wissens nicht geplant.
🔎 Die Gefahr ist gross, dass die KI-generierten Sujets Vorurteile und Stereotypen bedienen, weil die Ergebnisse von KI-Tools auf Daten basieren, die veraltet und einseitig zusammengesetzt sind. Dadurch fallen wir im schlimmsten Fall sogar in alte, koloniale Muster zurück, insbesondere bei Menschen in Entwicklungs- und Schwellenländern. Auch die Wahl des Sujets, was gezeigt wird, sollte immer kritisch hinterfragt werden.
🔎 Natürlich besteht die Gefahr von Vorurteilen und Stereotypen auch bei echten Fotos. Doch wer professionelle Fotos erstellt, verfügt wahrscheinlich über mehr Erfahrung in diesem sensiblen Bereich als Personen, die kostengünstige KI-Bilder erstellen. Denn die Täuschungsgefahr ist natürlich ein altes Thema, zum Beispiel bei der Auswahl des Ausschnitts oder durch die Bearbeitung.
📸 Apropos professionelle Fotos: Eine wichtige Arbeit in diesem Bereich leistet seit Jahren Fairpicture🇨🇭. Ihr Ziel: «Our goal is that pictures contribute to equal relationships between visual creators, portrayed people, clients, and the general public.»
🙋♀️ Ich empfehle Unternehmen und Organisationen, auf fotorealistische Bilder von Menschen zu verzichten (ausserhalb klassischer, kommerzieller Werbung). Das ist einer von mehreren Punkten, die in eine KI-Leitlinie gehören. Der aktuelle Fall zeigt, wie wichtig die Auseinandersetzung damit ist, wie und wofür KI-Tools genutzt werden. Und wer eine KI-Leitlinie hat, kann auch besser argumentieren bei Medienanfragen, wie dies im vorliegenden Fall bei Hilfswerken der Fall war.
🙋♀️ Mit meinen Kursen und massgeschneiderten Angeboten unterstütze ich Unternehmen und Organisationen beim verantwortungsvollen Einsatz von KI sowie bei der Erarbeitung einer KI-Leitlinie. Mehr Infos dazu gibt es auf meiner Website.
Hinweis: Anlass für meinen LinkedIn Beitrag zu diesem Thema war der Beitrag im 10vor10 vom 27. Oktober 2025. Das Thema wurde in verschiedenen Medien, auch im Ausland, aufgegriffen. Auslöser war ein Artikel im The Guardian vom 20. Oktober 2025.
Bild: Screenshot aus einem Artikel beim SRF / Interview mit Petra Grimm