Über unsMediaKontaktImpressum
Dr. Saskia Dörr 24. August 2021

Wertekodex für Chatbots

Corporate Digital Responsibility sichert Unternehmenswerte bei Künstlicher Intelligenz

Künstliche Intelligenz (KI) scheint ein abstraktes Thema zu sein. Und doch sind wir bereits von ihr umgeben. Ob Websuche, Online-Shopping, digitale Sprach"assistenten" oder automatische Übersetzungen, mit dem Smartphone ist die KI immer dabei. Und natürlich gehen die Anwendungen in Medizin, Produktion, Landwirtschaft und Verwaltung noch wesentlich weiter. Eine KI-Anwendung, die inzwischen weit verbreitet ist, sind die sog. Chatbots: "Ein Chatbot ist ein Computerprogramm, das es Menschen ermöglicht, Informationen von Maschinen in einer natürlichen, unterhaltsamen Art und Weise mit Hilfe von Text und Sprache zu erhalten." [1]

Häufig nutzen textbasierte Chatbots Messenger wie Slack oder Telegram. Sprachbasierte virtuelle Assistenten sind Alexa, Siri oder Cortana. Die meisten Chatbot-Anwendungen werden unternehmensspezifisch auf Basis unterschiedlicher Software implementiert.

Chatbots verändern das Serviceerlebnis

Typische Chatbot-Lösungen für jede Branche finden sich für folgende Funktionen [2]:

  • Im Kundenservice bei der Beantwortung von häufig gestellten Fragen oder Weiterleitung an das Supportteam.
  • Im Marketing bei der Empfehlung neuer Angebote oder der Sammlung von Kundeninformationen oder -feedback.
  • Im Vertrieb als Assistent:in von Vertriebspersonal zur Vereinfachung von Terminmanagement oder Leadgenerierung sowie Beantwortung einfacher Kundenanfragen oder bei Vereinfachung eines Bestellprozesses.
  • Im HR um transaktionale HR-Services zu vereinfachen oder beim Training von neuen Mitarbeiter:innen.
  • In der IT, um den IT-Helpdesk effektiver zu machen und Nutzerfragen zu beantworten.

Keine Frage: Chatbots verändern das Serviceerlebnis und Unternehmen planen, mit einem Chatbot ihren Service zu verbessern. Gartner sagt sogar voraus, dass zukünftig 85 Prozent der Interaktionen zwischen Konsument:innen und Unternehmen durch die intelligenten Bots erfolgen [3]. 2026 soll der globale Chatbot-Markt mehr als 10,5 Milliarden US-Dollar groß sein; das bedeutet eine jährliche Wachstumsrate von mehr als 26,2 Prozent im Prognosezeitraum 2021 bis 2026 [4]. Mit der Automatisierung von Kundenkommunikation gehen Erwartungen für signifikante Kostenvorteile und möglicherweise Service-Verbesserungen einher.

Ethische Herausforderungen von Chatbots und die "moralische Haftung" von Unternehmen

Doch der Boom lässt auf sich warten, denn in der Praxis zeigen die Bots neben Vorteilen auch Schwächen. Zu den Schwächen in der Praxis gehört der nicht unerhebliche zeitliche Aufwand, der in die Redaktion und Pflege des Chatbot-Systems einfließt. Weiterhin eignen sich Chatbots nicht für die Behandlung komplexerer Themen und Dialoge. Zudem wird die Erfahrung gemacht, dass die KI-Systeme aufgrund mangelhafter oder unvollständiger Trainingsdaten nicht das Gewünschte lernten. Ein Bot ist nur so gut, wie die Daten anhand derer er trainiert wird [3]. Und auch auf der Nutzerseite gibt es Barrieren: Die größte ist das fehlende Vertrauen in nicht-menschliche Konversationspartner:innen [5].

Neben diesen grundlegenden Herausforderungen der Usability, Funktionalität und der Wirtschaftlichkeit, werfen Chatbots jedoch auch umfangreiche ethische Fragen auf. Folgende Beispiele sind aus den Medien bekannt:

  • Chatbot Tay von Microsoft wurde in weniger als einem Tag von Twitter-Nutzer:innen "beigebracht", rassistisch zu sein. Damit wurde eindrücklich gezeigt, wie schnell ein Chatbot durch "falsches Training" missbraucht werden kann [6].
  • Chatbot Duplex von Google imitiert sehr bewusst die menschliche Konversation. Damit täuscht er vor, ein Mensch zu sein. Damit werden die menschlichen Dialogpartner:innen bewusst manipuliert. Google wurde für diese Missachtung des ethischen Anspruchs der Transparenz beim KI-Design hart kritisiert [7].
  • Chatbot Xiaoice von Microsoft hat "den brennenden Wunsch, Deine (ja, Deine) Freundin zu sein". 660 Millionen Menschen sind bereits mit dem Chatbot "befreundet" und führen intime Gespräche. Die Gestalter:innen und Vermarkter:innen des Chatbots nutzen weibliche Stereotype und Geschlechtsmerkmale. Sie verstärken so die Voreingenommenheit gegenüber Frauen und ihre Diskriminierung. Für ihre Nutzer, vorwiegend einsame männliche Chinesen aus ländlichen Gegenden, besteht die Gefahr der Abhängigkeit und der Offenheit der Ausbeutung. Weiterhin setzen sie sich dem Risiko aus, dass ihre Privatsphäre im Falle eines Daten-Leaks eklatant verletzt werden kann. Sozial kann die Nutzung des Chatbots langfristig zu mehr Einsamkeit und Ausgrenzung der Nutzer:innen führen [8].

Dies sind Beispiele für Rassismus, Manipulation, Diskriminierung, Verletzung der Würde der menschlichen Nutzer:innen und Missbrauch vulnerabler Personengruppen. Es gibt unterschiedliche Gründe für ethische Herausforderungen bei Chatbots.

  • Die "Anthropomorphisierung" des Chatbots durch die Nutzer:innen, d. h. die Zuschreibung menschlicher Eigenschaften. Dies ist von den Chatbot-Gestalter:innen gewünscht, denn es schafft eine größere Akzeptanz für den maschinellen Dialogpartner:innen. Die meisten Chatbots sind "weiblich" und reproduzieren Gender-Stereotype.
  • Das Training der Chatbots mit unerwünschten gesellschaftlichen Mustern, wie z. B. Gender-, religiösen oder ethnischen Diskriminierungen. Dies liegt in der Qualität der Datensätzen mit denen Chatbots trainiert werden und stellt ein Problem für alle KI-Systeme dar.
  • Der Schutz der Würde der menschlichen Nutzer:innen insbesondere Privatheit und Selbstbestimmung. Die Privatheit wird z. B. eingeschränkt, wenn personenbezogene Daten – womöglich sensible – ohne bewusste Zustimmung (weiter) genutzt werden. Selbstbestimmung wird z. B. eingeschränkt, wenn Verhalten der Nutzer:innen manipuliert wird.

Die Gestaltung von Chatbots im Rahmen der Gesetze und gesellschaftlichen Wertvorstellungen liegt in der Verantwortung der Unternehmen, die sie entwickeln. Die größten von ihnen sind aus den USA oder Indien [9]. Doch auch die Unternehmen, die Chatbots in Servicefunktionen einsetzen, tragen diese Verantwortung mit.

Unternehmen, die Chatbots einsetzen, haften – auch moralisch

Jenseits weitergehender Regulierung in der Europäischen Union, machen juristische Positionen bereits heute deutlich, dass das in Deutschland geltende Produkthaftungsrecht sowie die Produzentenhaftung auch für Produkte mit KI-Komponenten, also auch auf Chatbots, anwendbar ist [10].

Wie können Unternehmen sicherstellen, dass
ihre Chatbots die eigenen Unternehmenswerte repräsentieren?

Das heißt, Unternehmen, die Chatbots einsetzen, haften gegenüber den Nutzer:innen. Gleichzeitig übernehmen sie neben der rechtlichen auch die "moralischen Haftung" für die Chatbots. Wenn Chatbots Werte und gesellschaftliche Normen brechen, laufen die Organisationen Gefahr, Vertrauen von Öffentlichkeit, Kund:innen, Mitarbeiter:innen und Investor:innen zu verlieren. Daraus können erhebliche Reputationsschäden resultieren.

Die Herausforderung für Unternehmen ist groß: Moralisches Handeln, Purpose-Orientierung und Nachhaltigkeit werden von ihnen erwartet. Hohe Transparenz durch soziale Medien kann schnell zu Empörung führen. Kund:innen, die sich in Bezug auf ihre Werte nicht repräsentiert fühlen, stimmen immer häufiger "mit den Füßen ab". Wie können Unternehmen also sicherstellen, dass ihre Chatbots die eigenen Unternehmenswerte repräsentieren und umsetzen?

Chatbots sind ethisch zu überwachen

Bisher gibt es keine anerkannten Ethik-Audits oder -Zertifizierungen für Chatbots, die Konformität mit bestimmten rechtlichen Grundlagen oder gesellschaftlichen Werte sicherstellen. Sie sind jedoch in Entwicklung, z. B. durch "For Humanity", die als zivilgesellschaftliche Initiative unabhängige Zertifizierungsschemata für Künstliche Intelligenz entwickeln [11].

Dahingegen beschreiben viele Dutzend Ethik-Leitfäden als Selbstverpflichtung, welche Werte bei der Gestaltung von KI angesetzt werden sollten [12]. Diese gelten grundsätzlich auch für alle KI-basierten Chatbots. Eine Analyse von 84 dieser Dokumente zeigt, dass elf Werte darin erwähnt werden [13]. Diese sind: Transparenz, Gerechtigkeit und Fairness, Schadensverhütung, Verantwortung, Schutz der Privatsphäre/Datenschutz, Benefizienz (Gutes tun), Freiheit und Autonomie, Vertrauen, Nachhaltigkeit, Würde und Solidarität.

Aber: Die Begriffe werden in den unterschiedlichen Leitlinien nicht gleichbedeutend verwendet, ihre moralischen Ziele unterscheiden sich ebenso wie daraus abgeleitete Empfehlungen. Weitere Diskurse um Standardisierung gerade auch im Zusammenhang mit der EU-KI-Regulierung werden hier sicherlich in den nächsten Jahren Klarheit bringen. Zukünftig können dann Ethik-Audits und -Zertifizierungen für Chatbots, die möglicherweise Teil von KI-Zertifizierungen sind, grundlegende ethische Anforderungen an das System unabhängig überprüfen. Sie können Transparenz über die ethischen Aspekte des Chatbots gewährleisten und helfen, Risiken zu reduzieren. Sie werden wesentliche Voraussetzung für den Einsatz eines Chatbots sein.

Für Marken und Unternehmen, die auf ihre Reputation achten, reicht das nicht aus.

Ethik-Audits bilden jedoch nur einen Teil eines Systems, das Vertrauen in einen Chatbot ermöglicht. Ein weiterer Teil sind die organisatorischen Strukturen und Regeln sowie eine Unternehmenskultur, die ethisches Handeln ermöglicht. Gerade Unternehmen, die sich einer verantwortlichen Unternehmensführung, Nachhaltigkeit oder Purpose verpflichtet haben, stehen vor der Herausforderung, vertrauenswürdig beim Einsatz von KI-Systemen zu agieren.

Um Vertrauen in ethisches Handeln zu erzielen, müssen von diesen Unternehmen organisatorische Maßnahmen getroffen werden, die es den Führungskräften und Mitarbeiter:innen erlauben, bei Implementierung und Betrieb von KI-Systemen – oder auch Chatbots –  ethisch zu handeln. Dieses Handeln nur auf ein technisches System zu beziehen ist nicht ausreichend.

"Es ist unwahrscheinlich, dass externe einzelne KI-Systeme als "vertrauenswürdig" oder "nicht vertrauenswürdig" identifiziert werden; vielmehr gilt eine Organisation als vertrauenswürdig oder nicht und KI-Systeme erben den Ruf der Organisation." [14]

Es wird daher davon ausgegangen, dass nur organisatorische Maßnahmen im Sinne einer Corporate Digital Responsibility eine ausreichende Grundlage für Vertrauen in die vom Unternehmen eingesetzten KI-Anwendungen legen können. Dazu gehört auch, dass innovative technische Systeme wertekonform eingesetzt werden.

Corporate Digital Responsibility ermöglicht Vertrauen in Chatbots

Corporate Digital Responsibility bietet Lösungsansätze, um Glaubwürdigkeit der Unternehmenswerte beim Einsatz von Chatbots in Servicefunktionen zu erhalten.

"Corporate Digital Responsibility (CDR) gehört als Bereich zu einer umfassenden Unternehmensverantwortung (CR) in einer zunehmend digitalisierten Wirtschaft und Gesellschaft. Es handelt sich um "freiwillige unternehmerische Aktivitäten im digitalen Bereich, die über das heute gesetzlich Vorgeschriebene hinausgehen und die digitale Welt aktiv zum Vorteil der Gesellschaft mitgestalten."" [15]

Wie Corporate Responsibility (CR) richtet sich CDR  am Leitbild der Nachhaltigkeit aus und entsteht durch Übernahme von Verantwortung für die wirtschaftlichen, gesellschaftlichen und ökologischen Wirkungen des Unternehmenshandelns sowie durch Lösung der Zielkonflikte zwischen diesen. Zweck von CDR ist der Aufbau des Vertrauens unterschiedlicher Stakeholder des Unternehmens in die Digitalisierung [16]. CDR wird daher als ein Rahmen gesehen, um ethische KI-Governance(s) und -Strategien organisatorisch umzusetzen, Gerechtigkeit für alle Stakeholder zu gewährleisten, Vertrauen zu kodifizieren und Erwartungen an die gesellschaftliche Verantwortung von Unternehmen zu erfüllen [17]. Sie ermöglicht es den Individuen im Unternehmen – den Führungskräften und Mitarbeitenden – Verantwortung für Daten und KI zu übernehmen. Sie gibt Orientierung durch Selbstverpflichtungen gegenüber gesellschaftlichen Ansprüchen zur Nutzung von Daten und Digitalem. Dem Unternehmen als Ganzes erlaubt sie, nachvollziehbar und überprüfbar öffentlich Rechenschaft darüber ablegen zu können [18].

Ein "Werte-Kodex" für Chatbots als Ausgangspunkt für digitale Verantwortung

Ein Chatbot-Projekt kann einen guten Einstieg in die Corporate Digital Responsibility bieten. Der hier erstmals vorgestellte "Wertekodex für Chatbots" führt Fragen auf, die Unternehmen sich stellen können, wenn sie eine wertekonforme Nutzung eines Chatbots wünschen. Ausgehend von den gängigen Wertebegriffen einer KI-Ethik werden Fragen zu organisationalen Strukturen, Prozessen und Systemen für digitale Verantwortung aufgeworfen [13,19]. Diese sind:

  1. Zweck: Wem dient der Chatbot und welche Bedürfnisse deckt er ab?
  2. Usability: Wie schnell und einfach erreichen Nutzer:innen eine menschliche Servicekraft, wenn sie möchten?
  3. Transparenz: Wie erfährt der Nutzende, ob er mit einem Menschen oder einer Maschine spricht?
  4. Benefizienz: Wir wird vermieden, dass der Chatbot Nutzer:innen beschimpft oder anderweitig verbal schädigt?
  5. Diversität: Wie repräsentiert der Chatbot ihre Kundengruppen?
  6. Inklusion: Wer wird von ihrem Chatbot nicht angesprochen?
  7. Fairness: Agiert der Chatbot unvoreingenommen und diskriminierungsfrei?
  8. Datenschutz: Wie schützt der Chatbot die Privatsphäre der Nutzer:innen?
  9. Verantwortung: Wem gehören die Informationen, die der Chatbot entwickelt, und was geschieht mit ihnen?
  10. Transparenz: Wie können Nutzer:innen sich über den Chatbot beschweren oder Entscheidungen widersprechen?
  11. Sicherheit: Wie wird der Missbrauch des Chatbots verhindert?
  12. Arbeitsschutz: Wie werden die Mitglieder des Serviceteams in ihrer Privatsphäre geschützt?
  13. Umwelt- und Klimaschutz: Welche Umwelt- oder Klimaauswirkungen hat der Chatbot?
  14. Rechenschaftspflicht: Wie erhalten Nutzer:innen Informationen zur Überwachung des Chatbots, zu sensiblen Vorfällen, Fehlern oder Missbräuchen?
  15. Erklärbarkeit: Wie ist sichergestellt, dass die Entscheidungen bzw. Informationen des Chatbots nachvollziehbar und erklärbar sind?
  16. Humans-in-command-Approach: Ist klar, wer den Chatbot wie überwacht?

Dieser Wertekodex kann von Einkaufsabteilungen, aber auch den spezifischen Unternehmensfunktionen herangezogen werden, die einen Chatbot einsetzen möchten. Aus den Fragen wird deutlich, dass neben IT- und Digitalfunktionen auch Recht und Datenschutz, Compliance und Corporate Responsibility, Umwelt- und Klimaschutz sowie die Personalabteilung einbezogen werden müssen.

Chatbots passen zum Unternehmen, wenn sie die Werte der Organisation widerspiegeln

Ein Chatbot repräsentiert das Unternehmen und seine Werte. Je nach Wert im Vordergrund für das Unternehmen steht, ergeben sich unterschiedliche Schwerpunkte bei einer Beantwortung der Fragen, die der "Wertekodex für Chatbots" aufwirft. Beispiele sind Kundenorientierung, Diversität & Inklusion, verantwortliche Unternehmensführung sowie Datenschutz & Privatheit. Sie alle sind den Konzepten der unternehmerischen Nachhaltigkeit zuzuordnen [16].

Abb. 1 zeigt diese thematischen Schwerpunkte beispielhaft für die Unternehmenswerte Kundenorientierung, Diversität & Inklusion, verantwortliche Unternehmensführung sowie Datenschutz & Privatheit. Andere Profile sind denkbar und ergeben sich aus dem Werteprofil eines Unternehmens. Damit ein Chatbot zum Unternehmen passt, gilt es zunächst, auf diese zentralen Fragen technische und organisatorische Antworten zu finden. Zielkonflikte und ethische Dilemmata sind zu identifizieren und mit Hilfe der Geschäftsführung bzw. dem Vorstand konkret am praktischen Beispiel zu klären. Ausgehend von diesen konkreten Lösungen ist im Anschluss zu bewerten, ob Strukturen, Prozesse und Verantwortungen in der gesamten Organisation ausreichen, oder ob eine Transformation für digitale Verantwortung erfolgen sollte.

Zusammenfassung und praktische Handlungsempfehlungen

Chatbots sind aus der Unternehmenslandschaft und dem Nutzererlebnis nicht mehr wegzudenken. Aktuell bestehen noch funktionale Hürden, insbesondere zeigen sich aber ethische Herausforderungen. Ethik-Audits von Chatbots sind eine wichtige Grundlage, reichen jedoch für Marken und Unternehmen, die auf ihre Reputation Wert legen, nicht aus. Corporate Digital Responsibility bietet als neue Management-Disziplin die Methoden und Instrumente, um die organisatorischen Grundlagen für Vertrauenswürdigkeit zu schaffen.

Ziel ist es, Chatbots einzusetzen, die nicht nur die Erwartungen der Nutzer:innen erfüllen, sondern als vom Unternehmen gestaltete "Botschafter:innen" Vertrauen in das verantwortungsvolle Handeln der Organisation schaffen. Unternehmen, die bereits Chatbots einsetzen oder dies planen, wird daher zunächst folgendes empfohlen:

  • Eine CDR- oder Digitale-Ethik-Verantwortung in der Geschäftsführung oder dem Vorstand zu etablieren.
  • Einen Beauftragten für CDR oder digitale Ethik zu benennen und in das Chatbot-Kernteam zu integrieren.
  • Den "Wertekodex für Chatbots" durchzuführen und wesentliche Fragen zu identifizieren, deren Beantwortung an das Projektteam gegeben werden.
  • Nutzer:innen-Erwartungen an den Chatbot – insbesondere Barrieren zur Nutzung – aufnehmen und Lösungen dazu erarbeiten.
  • Weitere Stakeholder-Erwartungen an Chatbots, insbesondere der Beschäftigten bzw. Beschäftigtenvertreter aufnehmen.

Nach diesem ersten werteorientierten Chatbot-Projekt kann geprüft werden, inwieweit es weitere organisationale Anpassungen für die Übernahme von digitaler Verantwortung in der gesamten Organisation geben sollte.

Quellen
  1. Dilmegani C (2021): Chatbots: In-depth Conversational Bots Guide
  2. Dilmegani C (2021): 30+ Chatbot Usecases / Applications in Business in 2021
  3. Koelwel D (2020): Neue Studie zu Chatbots: Potenzial vor allem beim Kundenservice
  4. Industry ARC (2021): Chatbots Market - Forecast (2021 - 2026)
  5. statista (2017): Conversational Commerce: Wachstum – Entwicklung – Nutzung. Whitepaper E-Commerce & Retail.
  6. Vincent J (2016): Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. The Verge 24.03.2016.
  7. Lomas N (2018): Duplex shows Google failing at ethical and creative AI design. Techcrunch 10.05.2021
  8. Chin C, Robison M (2020): How AI bots and voice assistants reinforce gender bias. Brookings and the Italian Institute for International Political Studies (ISPI).
    Dormehl L (2018): Microsoft’s friendly Xiaoice A.I can figure out what you want — before you ask. Digitaltrends 18.11.2018
    Wanquing Z (2020): The AI Girlfriend Seducing China’s Lonely Men. Sixth Tone
  9. BotsCrew (2021): Top 10 Chatbot Development Companies in 2021
  10. Zentralverband Elektrotechnik-und Elektronikindustrie (2021): Haftung für Künstliche Intelligenz. Positionspapier
    Bitkom (2020): Stellungnahme. Rechtsfragen der digitalisierten Wirtschaft: Haftung für Systeme Künstlicher Intelligenz
  11. Carrier R (2021): Independent Audit of AI Systems. For Humanity
  12. AlgorithmWatch (2019): AI Ethics Guidelines Global Inventory
  13. Loi M (2020): People Analytics muss den Menschen zugutekommen. Hans Böckler Stiftung. Study Nr. 450
  14. McCarthy M, Byrd M (2021): How to build AI systems that a society wants and needs. World Economic Forum vom 02.07.20201
  15. Bundesministerium für Justiz und Verbraucherschutz (2018): Corporate Digital Responsibility-Initiative: Digitalisierung verantwortungsvoll gestalten – Eine gemeinsame Plattform
  16. Dörr S (2020): Praxisleitfaden Corporate Digital Responsibility. Springer Gabler, Berlin
  17. Elliott K, Price R, Shaw P, Spiliotopoulos T, Ng M, Coopamootoo K, van Moorsel A (2021): Towards an Equitable Digital Society: Artificial Intelligence (AI) and Corporate Digital Responsibility (CDR). Society. 2021 Jun 14:1-10
  18. Lobschat L, Mueller B, Eggers F, Brandimarte L, Diefenbach S, Kroschke M, Wirtz J (2021): Corporate digital responsibility. Journal of Business Research 122, S. 875-888
  19. Reddy T (2017): The code of ethics for AI and chatbots that every brand should follow.  Capgemini (2020): AI and the Ethical Conundrum. Report

Autorin

Dr. Saskia Dörr

Dr. Saskia Dörr ist eine anerkannte Expertin für Corporate Digital Responsibility und verantwortungsvolle Digitalisierung.
>> Weiterlesen
Das könnte Sie auch interessieren
Kommentare (0)

Neuen Kommentar schreiben