Der Think Tank für Digitale Ethik

Nein, KI kann nicht alles!

Offenbar testet die NZZ gerade unsere KI-Kompetenz! 😉 Diesen Anwendungsfall, dass ein KI-System vermeintlich den Charakter einer Person erfassen kann, nutze ich seit mehreren Jahren in Schulungen und Vorträgen. Denn es ist extrem wichtig, dass wir die Grenzen von KI kennen.

🚨 Mustererkennung

Ein KI-System wird mit ganz vielen Daten trainiert, zum Beispiel mit Porträtfotos, ergänzt um manuelle Hinweise, zum Beispiel ob die Person auf dem Foto extrovertiert ist, welches Hobby sie pflegt etc. Darauf basierend erkennt das System gewisse Muster.

Wenn ich diesem KI-System ein neues Porträtbild gebe, dann ist es einfach ein Bildvergleich mit dem, was das KI-System gelernt hat.

🚨 Korrelation (etwas kommt häufig vor)

Ein KI-System kann zum Beispiel zum Schluss kommen, dass Menschen mit dem Hobby Baseball in den USA mehr Chancen haben, einen Job zu erhalten, als Menschen mit einem anderen Hobby. Weshalb? In diesem Fall gibt es einfach zwei Merkmale – Hobby im Baseball und einen Job haben – die häufig im Datensatz vorkommen (eines von vielen Mustern).

Das eine Merkmale ist nicht die Ursache für das andere Merkmal. Es ist KEINE KAUSALITÄT (keine Ursache Wirkung).

🚨 Wahrscheinlichkeit

KI-Systeme liefern immer mehrere Ergebnisse und mit unterschiedlichen Wahrscheinlichkeiten. Zum Beispiel, dass man mit dem Hobby Baseball zu 83% mehr Chancen auf einen Job in den USA hat, mit dem Hobby Tennis 35% etc. Und diese Wahrscheinlichkeit bezieht sich immer nur auf jene Daten, die das KI-System gelernt hat.

Weshalb ist es ein echtes Problem, wenn KI für Anwendungen eingesetzt wird, wo sie nichts zu suchen hat? Drei Beispiele:

👩🏻‍💻 Vorurteile und Stereotypen

Weil es nur ein Bildabgleich ist, werden alle Menschen falsch eingeschätzt, die im Datensatz nicht vertreten, untervertreten oder zu wenig vertreten sind. Und das sind angesichts der Vielfalt an Menschen ganz schön viele! Ausserdem werden KI-Systeme mit vielen veralteten Daten trainiert, was weitere Vorurteile und Stereotypen begünstigt.

👩🏻‍💻 Äusserlichkeiten

Der Bildabgleich führt dazu, dass von Äusserlichkeiten auf den Charakter einzelner Personen geschlossen wird, zum Beispiel ob eine Person eine Brille anhat oder wie der Hintergrund des Bildes aussieht. Die KI erkennt Muster, die nicht relevant sind. Aussagekraft? 0

👩🏻‍💻 Pseudowissenschaften

Viele KI-Systeme basieren auf Pseudowissenschaften, die uns durch die Hintertüre wieder aufgetischt werden, zum Beispiel die Physiognomie (Face-Reading). Hier hat auch die Wissenschaft eine Verantwortung!

Zum Beispiel lassen sich sexuelle Orientierung, eine kriminelle Neigung, ob jemand lügt etc. nicht aus dem Gesicht ablesen. Leider ist das kein Witz und diese Beispiele zeigt, wie brandgefährlich es ist, wenn wir die Grenzen von KI nicht respektieren.

🙋‍♀️ KI-Systeme haben wahnsinnig viele Stärken. Sie können uns entlasten, unterstützen und unseren Handlungsspielraum erweitern. Was sie nicht können ist, unseren beruflichen Erfolg vorherzusagen oder etwas über unseren Charakter zu sagen.

In meinen Schulungen zu KI und zur Digitalen Ethik nutze ich diese wunderbare Recherche von BR-Journalist:innen, um dieses fragwürdige Beispiel zu thematisieren (Februar 2021): Fairness oder Vorurteil? Fragwürdiger Ersatz von Künstlicher Intelligenz bei der Jobbewerbung.

Anlass für diesen Post ist ein Artikel in der NZZ von heute auf Seite 25.