Der Think Tank für Digitale Ethik

Digitale Ethik – ein Top-Thema 2019

Digitale Ethik wird für Unter­nehmen ein immer wichtigeres Thema. Weshalb ich dieser Meinung bin, konnte ich im Online-Magazin Inside-IT in einem Gastbeitrag erklären.

Dank Big Data und Künstlicher Intelligenz herrscht in vielen Unternehmen Goldgräberstimmung, denn die Vorteile liegen auf der Hand: Tiefere Kosten dank automatisierten Prozessen sowie mehr Effizienz und ein besseres Kundenerlebnis dank massgeschneiderten Angeboten. Doch stimmt es wirklich, dass Kundinnen und Kunden davon profitieren?

Die Schlagzeilen der vergangenen Monate zeigen, dass nicht alles, was technologisch möglich ist, auch akzeptiert wird. Im Gegenteil: Das Vertrauen in einzelne Unternehmen hat stark gelitten, zum Beispiel nach dem Datenskandal bei Facebook.

Immer mehr Menschen sind besorgt darüber, wo ihre persönlichen Daten von Unternehmen und vom Staat überall genutzt werden. Deshalb ist für das renommierte Marktforschungsinstitut Gartner klar: Digitale Ethik gehört 2019 zu den zehn wichtigsten Technologiethemen von strategischer Bedeutung für Unternehmen. Sie müssen die Bedenken der Menschen ernst nehmen und ethisch handeln, sonst drohen weitere Vertrauensverluste sowie innovationsfeindliche Regulierungen. Dabei geht es nicht mehr um die Frage, ob etwas legal ist. Unternehmen müssen sich vielmehr fragen: Machen wir das Richtige? Die folgenden fünf Beispiele zeigen, dass sich Unternehmen in allen Bereichen mit ethischen Fragen auseinandersetzen müssen.

1) Automatisierte Entscheide

Der Einsatz einer Technologie erfolgt nie neutral, denn schlussendlich entscheidet immer ein Mensch, welche Daten einer Technologie zugrunde liegen und wofür sie eingesetzt wird. Um Kosten zu sparen und einen 24-Stunden-Service anzubieten, werden Entscheide zunehmend automatisiert. Doch wie lässt sich sicherstellen, dass die Qualität dieser Entscheide stimmt? Amazon musste zugeben, dass ihr durch Künstliche Intelligenz gestützter Selektionsprozess Frauen im Bewerbungsprozess diskriminiert. Und bei Flickr führte ein fehlerhafter Algorithmus dazu, dass dunkelhäutige Menschen auf Fotos mit Begriffen wie „Affe“ gekennzeichnet wurden. Unternehmen müssen sicherstellen, dass Menschen nicht diskriminiert werden.

2) Dynamische Preise

Dank Big Data lässt sich der ideale Preis für jeden Kunden, jede Kundin individuell bestimmen. Eine aktuelle Studie der Universität Köln zeigt, dass die Idee von unterschiedlichen Preisen grundsätzlich nicht gut ankommt. Gleichzeitig gibt es Hinweise, wann Preisunterschiede nicht als zu ungerecht empfunden werden: Dynamische Preise werden eher akzeptiert, wenn es dafür einen nachvollziehbaren Grund gibt. So leuchtet es beispielsweise ein, dass ein Skipass bei schönem Wetter mehr wert ist als bei schlechtem Wetter. Und wer früh eine Flugreise oder ein Hotel bucht, wird dafür mit einem Rabatt belohnt. Als nicht fair angesehen werden individualisierte Preise, die einzig der Gewinnmaximierung eines Unternehmens dienen, denn dies geht auf Kosten der Kundschaft. Ethisch fragwürdig ist beispielsweise, wenn kaufkräftigen Kunden günstige Angebote gar nicht erst angezeigt werden oder wenn ein dringend benötigtes Produkt überteuert angeboten wird. Unternehmen tun gut daran, ihre guten Kundenbeziehungen nicht leichtfertig aufs Spiel zu setzen.

3) Produktdesign

Immer mehr Unternehmen setzen auf Chatbots, um einfache Kundenanfragen zu beantworten. Ihre Fähigkeiten sind zwar noch beschränkt, denn es ist eine grosse Stärke des Menschen, den emotionalen Zustand des Gegenübers richtig zu erfassen und darauf zu reagieren. Doch die Maschinen holen rasch auf. So verspricht etwa das Startup Beyond Verbal, dass bereits wenige Tonschnipsel genügen, um das Burnout eines Mitarbeiters, erste Anzeichen von Alzheimer oder die Einsamkeit bei Senioren zu erkennen. Was in bestimmten Anwendungsbereichen sinnvoll sein kann, birgt viel Zündstoff, wenn es um den Schutz der Privatsphäre geht. Wie stellen wir sicher, dass die Stimme einer Person nicht ohne deren Einverständnis analysiert wird? Was ist zu tun, wenn ein Produkt mit schlechten Absichten genutzt wird? Vor wenigen Tagen wurde bekannt, dass das iPhone mit den kabellosen Apple-Ohrstöpseln als Wanze missbraucht werden kann. Solche Themen müssen bei der Entwicklung neuer Produkte verstärkt berücksichtigt werden.

4) Massgeschneiderte Produkte

In einer digitalisierten Welt sind massgeschneiderte Produkte und Dienstleistungen möglich. So wird auf Netflix oder Social Media etwa das angezeigt, was am besten zum Nutzerverhalten des Einzelnen passt. Basis dafür bildet der digitale Fussabdruck, den wir überall hinterlassen, etwa beim Surfen im Internet oder beim Bezahlen mit der Kundenkarte. Immer mehr werden wir zu „gläsernen“ Menschen. Bereits 2015 haben Forscher in den USA herausgefunden, dass sich aus 10 „Gefällt mir“-Angaben eines Facebook-Nutzers dessen Persönlichkeit bestimmen lässt. Diese Charakterisierung soll sogar zutreffender sein als jene von Freunden und Verwandten. Die Gefahr, dass wir in einer datengetriebenen Gesellschaft ein gewichtiges Stück Privatsphäre und damit die Kontrolle über unsere eigene digitale Identität verlieren, nimmt laufend zu. Wir wissen immer weniger, was mit unseren Daten alles passiert. Entsprechend wichtig sind Investitionen in die Digitalkompetenz des Einzelnen und eine transparente Kundeninformation. Der Zugriff auf die eigenen Daten, beispielsweise über ein Datencockpit wie es Google anbietet, ist ein erster wichtiger Schritt auf dem Weg zur informationellen Selbstbestimmung.

5) Personalisierte Werbung

Unternehmen können ihre Kundinnen und Kunden dank neuen Hilfsmitteln wie Sensoren, Gesichtserkennung und künstlicher Intelligenz viel gezielter und kostengünstiger erreichen: Personen lassen sich in Echtzeit über das Mobiltelefon erfassen, um ihnen standortbasierte Werbung zu übermitteln. Über intelligente Kameras lassen sich sogar Gesichter, das Alter oder das Verhalten einzelner Menschen analysieren, als Basis für die zielgruppengenaue Werbung. Ethisch fragwürdig ist insbesondere das emotionale Targeting, bei dem aus dem Gesicht der Gefühlszustand einer Person abgelesen und gespeichert wird, sei es für kommerzielle Zwecke oder zur Kontrolle und Überwachung. Der neueste Bericht des einflussreichen AI Now Institutes hat die Gesichtserkennung denn auch als ernsthaftes Problem für Gesellschaft und Politik identifiziert.

Fazit

Nicht alles, was dank neuen Technologien möglich ist, wird vom Einzelnen und der Gesellschaft auch akzeptiert. Deshalb müssen sich Unternehmen vermehrt mit ethischen Fragen auseinandersetzen. Datenbasierte Innovationen könnten einer internen Stelle für Digitale Ethik vorgelegt, in einem Ethik-Board besprochen oder deren Umsetzung wissenschaftlich begleitet werden. Eine transparente Kommunikation sowie der Dialog mit der Öffentlichkeit tragen ebenfalls dazu bei, das Vertrauen in neue, digitale Geschäftsmodelle zu stärken. Gleichzeitig reduziert es die Gefahr, dass innovationsfeindliche Regulierungen ergriffen werden, die nicht im Interesse der Wirtschaft sind. Sich mit Digitaler Ethik auseinanderzusetzen lohnt sich. (Cornelia Diethelm)

Hinweis: Dieser Gastbeitrag ist bei Inside-IT am 17. Januar 2019 erschienen mit Blick auf «meine» Konferenz Shift 2019. Es war die erste Durchführung der Konferenz Shift im X-TRA in Zürich.