Der Think Tank für Digitale Ethik

Wäre die Deklaration von KI-generierten Personen sinnvoll?

NEIN, dieses Model aus der Werbekampagne von Mango ist nicht echt. Diese «Person» wurde mit Hilfe von künstlicher Intelligenz (KI) generiert. Sollte Mango dies deklarieren müssen?

Das Ergebnis einer Umfrage in Deutschland ist sonnenklar:

🔎 81% der Deutschen möchten, dass Unternehmen ihre KI-Inhalte deutlich markieren.

🔎 Die Meinungen über die Bevorzugung von Marken, die KI einsetzen, sind gespalten: Während 34% dies neutral sehen und weitere 34% solche Marken bevorzugen (wobei 22% Vorbehalte haben), lehnen 32% Marken ab, die KI für ihre Werbung nutzen.

🔎 Besonders in der jüngsten Altersgruppe (16-24 Jahre) ist die Skepsis gegenüber KI-Werbung mit 42% am höchsten.

Doch ich bin nicht sicher, ob eine KI-Deklaration der richtige Weg ist. Ziel sollte es sein, Menschen nicht zu täuschen. Doch genau hier habe ich gewisse Vorbehalte: Bilder sind so stark, dass wir uns wahrscheinlich dennoch täuschen lassen. Eine Alternative wäre es, in Zukunft Kampagnen mit realen Personen auszuloben. Sozusagen das Bio-Label im KI-Zeitalter.

Sollten wir KI-generierte Bilder deklarieren? Wer sich für diese und weitere spannende Fragen im Kontext von KI interessiert:

🙋‍♀️ Mein Online-Kurs «KI-Tools verantwortungsvoll einsetzen» findet regelmässig statt.

🙋‍♀️ Das CAS Digital Ethics an der HWZ Hochschule für Wirtschaft Zürich umfasst nicht nur generative KI, sondern auch prädiktive KI und weitere Technologien (und natürlich den Umgang mit Daten). Die nächste Durchführung startet im Februar 2025. Für Interessierte gibt es u.a. Online-Infoveranstaltungen, zum Beispiel im September. Diese und weitere Informationen finden Interessierte auf der Website der HWZ.

Hinweis: Anlass für diesen Post sind die von Appino kommunizierten Ergebnisse einer Umfrage in Deutschland, auf die ich heute per Zufall gestossen bin. Die Frage, ob wir KI-generierte Inhalte deklarieren sollten, bespreche ich regelmässig in Studiengängen, in denen ich als Dozentin tätig bin.