Über unsMediaKontaktImpressum
Dr. Olga Levina 14. Januar 2020

Ethik und Künstliche Intelligenz

Ethische Fragestellungen der Gestaltung und Anwendung von KI-basierten Systemen

Während informationstechnische Lösungen, die KI-Komponenten beinhalten, allmählich in immer mehr Branchen eingesetzt werden, wird auch der Bedarf an einer gesellschaftlichen und moralischen Diskussion ihrer Gestaltung und ihrer Effekte immer größer. Welche Rolle der Ethik innerhalb des Gestaltungszyklus der KI-basierten Systeme zukommt und warum die Nicht-Beachtung gesellschaftliche, wirtschaftliche und technische Konsequenzen haben kann, soll hier beschrieben werden.

Informationstechnische Anwendungen, die auf den Methoden der Künstlichen Intelligenz basieren, sind heute aus unserem Alltag kaum wegzudenken. Doch die Erleichterung, die sie uns bei der Interaktion mit unserer Umwelt (Mobilität) sowie bei der Informationssuche und -vielfalt (Internetsuchdienste, Content-Streaming-Dienste) anbieten, geht zunehmend mit wachsenden gesellschaftlichen Bedenken in Bezug auf diese Technologien einher. Die Komplexität der Systeme, die Undurchsichtigkeit der Ergebniswege sowie resultierender Aktionen führen dazu, dass die Kluft zwischen den Technologien und der Gesellschaft immer größer wird. Damit sinkt das Vertrauen in die Qualität, aber auch in den Nutzen der KI-basierten Lösungen.

Die Frage, wie die aufkommende Informationstechnologie die Gesellschaft sowie einzelne Personen beeinflusst, wurde bereits 1950 von Norbert Wiener in seinem Buch "The Human Use of Human Beings – Cybernetics and Society" gestellt [1]. Erst wieder im Jahr 2002 wurde das Value sensitive design (VSD) als ein Ansatz der Anwendungsentwicklung konzipiert, der ethische Aspekte sowie Werte in die Entwicklung von Informationssystemen einbezogen hat [2]. Bis jetzt hat sich dieser Ansatz jedoch in der Fach-Community nur wenig verbreitet. Obwohl die Integration von ethischen Aspekten in die IT-Artefakte zunehmend in der Gesellschaft thematisiert wird und zahlreiche Aufrufe zur Integration dieser Aspekte in die Systemgestaltung seitens der Forschung gibt, fehlt es aktuell an konkreten Methoden, insbesondere bei der Erstellung von Systemen, die Komponenten aus dem Bereich des maschinellen Lernens beinhalten.

Di Diskussion der ethischen Aspekte der KI-Technologien ist vielschichtig. Zum einen ist die Definition der Technologien, die unter dem Begriff der KI zusammengefasst werden, nicht eindeutig, weil es keine eindeutige Definition des Begriffes "Intelligenz" gibt. Es werden jedoch die Begriffe der schwachen und der starken Künstlichen Intelligenz verwendet, um algorithmische Systeme bzw. IT-Systeme, die nach Ansätzen des maschinellen Lernens konzipiert wurden, zu beschreiben.

Zum anderen begegnet KI gerade das, was jede aufkommende wissenschaftliche Disziplin erlebt: die Herausforderung, ihre ethischen Grenzen zu definieren. Forschungs-, Kosten- und Datenschutzfragen wecken Bedenken, mit denen Arbeitgeber, Produktanbieter, Entwickler*innen und politische Entscheidungsträger*innen auf Jahre hinaus konfrontiert werden. Zwar wurden die Verfahren des maschinellen Lernens, also das was heute häufig als "schwache KI" bezeichnet wird, bereits Anfang des 20. Jahrhunderts entwickelt und deren potenzielle Auswirkungen auf die Gesellschaft und einzelne Individuen bereits als Diskussionsfrage aufgeworfen. Doch hat die Disziplin und damit ihre gesellschaftlichen Auswirkungen erst durch eine rasante Verbreitung der angewandten Technologien in den letzten Jahren auch eine verstärkte Aufmerksamkeit der Öffentlichkeit erfahren.

In einer Zeit, in der sich die Verfahren der Automatisierung und Datenverarbeitung mit zunehmender Geschwindigkeit weiter entwickeln, steigt auch entsprechend die Anzahl ihrer gesellschaftsrelevanten Anwendungen. Mit diesen Fortschritten gehen jedoch auch moralische, wirtschaftliche und politische Dilemmata in Bezug auf die Entwicklung und Anwendung dieser Produkte einher. Diese Konflikte werden sich vervielfachen, wenn Gruppen mit sehr unterschiedlichen Standpunkten und Ressourcen wie große Industriekonzerne und Nichtregierungsorganisationen um die Ausrichtung der "richtigen" Anwendung der KI kämpfen.

Ethik und KI – wie passt das zusammen?

Die Ethik ist ein Teilgebiet der Philosophie und wird häufig auch als praktische Philosophie bezeichnet. Somit beschäftigt sie sich mit der Begründbarkeit und Reflektion der moralischen Grundsätze für das Verhalten oder Handeln einer Person oder Gruppe von Personen. Mit anderen Worten: unter diesem Begriff werden Regeln oder Entscheidungswege ausgehandelt, die dabei helfen sollen zu bestimmen, was als gut oder richtig in der jeweiligen Gesellschaft betrachtet wird.

Die Ethik der KI-basierten Systeme ist ein Teilbereich der angewandten Ethik und beschäftigt sich mit den Fragen, die durch die Entwicklung, Einführung und Nutzung von KI-basierten Systemen für das Handeln der Individuen in der Gesellschaft sowie für die moralischen Normen einer Gesellschaft aufgeworfen werden. Im Mittelpunkt steht also die Frage, inwiefern KI-basierte Systeme das Leben von Einzelpersonen der jeweiligen Gesellschaft verbessern können bzw. welche Bedenken dabei z. B. im Hinblick auf die Lebensqualität oder die für eine demokratische Gesellschaft notwendige Autonomie und Freiheit des Menschen aufgeworfen werden.

Die zahlreichen aktuellen Bemühungen von Staaten, Institutionen und Industrie, Richtlinien für die Gestaltung von "guten" [3] und "gesellschaftlich verträglichen" [4] KI-Systemen zu entwickeln, zeigen, dass dieses Thema in der Gesellschaft auf Fragen, Befürchtungen und Erwartungen trifft. Doch das Bedürfnis nach einer Diskussion der Werte, die bei der Entwicklung von KI-basierten Systemen wesentlich sind, besteht nicht nur auf der Seite der Anwendenden. So sahen sich im Jahr 2019 ca. 28 Prozent der Menschen, die im Bereich IT arbeiten, bereits mit Entscheidungen in ihrem Arbeitsalltag konfrontiert, die negative Konsequenzen für die Anwendenden oder die Gesellschaft haben können. Bei den Menschen, die KI-basierte Systeme entwickeln, waren es sogar 59 Prozent [5]. Diese Zahlen sind ein Indikator dafür, dass eine ethische Diskussion gerade im technischen Kontext notwendig und gewünscht ist.

Effekte der KI-basierten Systeme

Anwendungen, die auf den Verfahren des maschinellen Lernens basieren, haben das Potential, Entscheidungswege effizient zu gestalten, jedoch auch erheblichen Schaden anzurichten. Dabei liegt im Kontext von KI-basierten Systemen ein Schaden vor, wenn eine Vorhersage oder ein Endergebnis die Fähigkeit eines Individuums, seine rechtmäßige Persönlichkeit zu etablieren, negativ beeinflusst und dies im Ergebnis dazu führt, dass seine Fähigkeit, auf Ressourcen zuzugreifen, beeinflusst oder beeinträchtigt wird [6]. Dabei wird auch von sogenannten Repräsentationsschäden bzw. Allokationsschäden gesprochen. Mehrere Beispiele solcher Fälle wurden in den Medien bereits diskutiert und es kommen ständig neue Fälle hinzu. Es werden in der Berichtserstattung besonders Anwendungsfälle von KI-basierten Systemen beleuchtet, die auf verzerrten Daten basieren oder deren Datenkategorien so gestaltet sind, dass sich Korrelationen finden, die zu diskriminierenden Entscheidungen führen [7,8]. Ein prominentes Beispiel für Repräsentationsschaden ist das System, das Amazon zur Auswahl von Bewerbern und Bewerberinnen eingeführt hatte [9]. Die maschinell unterstützte Vergabe von Krediten sowie Versicherungspolicen kann entsprechend zu Allokationsschäden führen [10,11].

Ethische Fragen können auch wirtschaftliche Auswirkungen für die Unternehmen haben, die diese Verfahren anwenden. So hat Alphabet, die Muttergesellschaft von Google, und Microsoft vor kurzem ihre Investoren gewarnt, dass der Missbrauch von KI-Algorithmen oder schlecht gestaltete KI-Algorithmen ethische und rechtliche Risiken für die anwendenden Unternehmen darstellen [12].

Wie sieht eine gesellschaftsverträgliche KI aus?

Die EU hat als Teil ihrer KI-Strategie in April 2019 ethische Leitlinien für vertrauenswürdige KI herausgebracht und damit die Themen identifiziert, die die Gestaltung von ethischer KI dominieren werden [13]. Diese Themen werden in absehbarer Zeit weiterhin für Kontroversen sorgen und Drittanbieter, Anwendende sowie Unternehmen zwingen, sich mittelfristig mit den gesellschaftlichen Auswirkungen einiger oder aller dieser Themen zu befassen. Eine wichtige Forderung ist dabei, dass menschliche Handlungsfähigkeit und Aufsicht bei der Umsetzung der Systeme erhalten bleiben. Hiernach sollen KI-Systeme gerechte Gesellschaften ermöglichen, indem sie die menschliche Handlungsfähigkeit und Grundrechte unterstützen und nicht die menschliche Autonomie verringern, einschränken oder irreführen. Eine wichtige Rolle kommt hier Werten wie Transparenz und Informationsautonomie zu. Die Privatpersonen oder Unternehmen, die KI-basierte Systeme anwenden, müssen davon ausgehen können, dass die ermittelten Ergebnisse und  Vorschläge wohlwollend, zielführend und zweckentsprechend konzipiert wurden.

Eine weitere Voraussetzung für ein vertrauenswürdiges KI-basiertes System ist weiterhin, dass die Algorithmen sicher, zuverlässig und robust genug sind, um Fehler oder Inkonsistenzen während aller Lebensphasen dieser Systeme zu vermeiden. Gerade bei den verschiedenen Anwendungsgebieten eines Algorithmus können Kennzahlen wie der Prozentsatz an false positives ausschlaggebend für seine Verwendung sein.

Durch den Fortschritt der Digitalisierung in der Industrie und auch des individuellen Kommunikations- und Konsumverhaltens, fällt eine große Datenmenge an, die Basis neuer Geschäftsmodelle sein kann oder es bereits ist. Die so entstandenen Produkte gehen jedoch teilweise mit Kosten des Datenschutzes und der Datensicherheit einher. Dass die Gesellschaft diese jedoch nicht ohne Weiteres tragen möchte, zeigen auch die Anhörungen der Geschäftsführungen großer Technologieunternehmen vor politischen Gremien, deren Geschäftsmodelle auf Datenverarbeitung basieren [14].

Gesellschaftsverträgliche KI-Systeme sollten das gesamte Spektrum der menschlichen Fähigkeiten und Anforderungen berücksichtigen.

Dennoch sind Daten der Grundbaustein für das Trainieren und Ausführen von KI-basierten Systemen. Falls bei der Anwendung die generierten Daten verwendet werden, sollen die Anwendenden die volle Kontrolle über ihre eigenen Daten haben und es soll gewährleistet werden, dass die sie betreffenden Daten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren. In diesen Kontext gehört auch die Forderung nach Fairness und Vielfalt bei der Gestaltung der Systeme sowie ihrer Datenbasis. KI-Systeme sollten das gesamte Spektrum der menschlichen Fähigkeiten und Anforderungen berücksichtigen, den barrierefreien Zugang zu Ressourcen und Möglichkeiten gewährleisten sowie die Rückverfolgbarkeit von Ergebnissen und Entscheidungen erlauben. Dieses Prinzip der Transparenz bildet eine der wichtigsten Anforderungen an KI-basierte Systeme. Da digitale, aber vor allem algorithmische Systeme einen enormen Energiebedarf haben, muss bei der Gestaltung dieser Systeme auch der Aspekt der Nachhaltigkeit und der ökologischen Auswirkungen berücksichtigt werden. Um das Vertrauen in die KI-basierten Systeme zu stärken bzw. ihre Ergebnisse in die vorhandenen Abläufe zu integrieren, müssen zudem Mechanismen geschaffen werden, die es erlauben, die Verantwortung und Rechenschaftspflicht für die Systeme und deren Ergebnisse zu gewährleisten.

Diese doch allgemein verfassten Anforderungen bieten eine grobe Orientierung bei der konkreten Gestaltung bzw. beim Einsatz von KI-basierten Systemen. Nun gilt es, die in der Öffentlichkeit diskutierten Fragen, die sich häufig mit KI-basierten Systemen und der (ethischen) Qualität ihrer Entscheidungen beschäftigen, mit den ethischen sowie den ingenieurtechnischen Anforderungen zusammenzubringen.

Erkennen, Verarbeiten, Agieren: Arbeitszyklus eines KI-basierten Systems

Ein KI-basiertes System arbeitet in den Phasen: Erkennen, Verarbeiten und Agieren. Entlang dieser Phasen sollen die ethischen Anforderungen und die sich daraus ergebenden Konsequenzen für die Systemgestaltung diskutiert werden.

In der ersten Phase, dem Erkennen, stehen vor allem Daten, ihre Qualität und Passung für das anvisierte Problem im Vordergrund. Somit nehmen diese Aspekte bei der Entwicklung eine weitaus wichtigere Rolle als bei der Entwicklung von nicht KI-basierten IT-Systemen ein. Neben den Herausforderungen bei der Qualität und Sammlung von Daten spielen gerade in dieser ersten Phase die rechtlichen Fragen des Datenschutzes eine wesentliche Rolle. Es sollte sichergestellt sein, dass die Daten zweckgebunden und datenschutzkonform erhoben wurden. Die Nichtbeachtung der datenschutzrechtlichen Anforderungen am Anfang des Gestaltungsprozesses kann zu enormem Aufwand für die Umgestaltung des Systems führen. Basierend auf diesen Auswirkungen werden hier auch die Fragen nach Verantwortung bei und der Auflösung von potentiell resultierenden Konflikten aufgeworfen. Entsprechend spielen bereits hier die Aspekte der Transparenz wie die Verständlichkeit und die Erklärbarkeit der Modelle und Ergebnisse eine wichtige Rolle.

Die Daten dienen dazu, das algorithmische System für die Lösung eines bestimmte Problems zu trainieren. Im Bereich der regel-basierten Systeme erfolgt die automatisierte Aufgabenlösung durch das explizite Auskodieren von Regeln und Entscheidungspfaden im Programmcode. Einen anderen Weg schlägt das maschinelle Lernen ein. Hier soll das System anhand von zahlreichen Beispielen sowie unterstützt durch Korrekturaktionen seitens der Entwickelnden die Problemlösung "erlernen". Aus der Sicht der gesellschaftlichen Relevanz und ethischer Fragestellungen kommen hier also die Aspekte unter anderem der verzerrten (biased) oder unvollständiger Datensätze sowie unvollständiger oder unpassender Modelle zum Tragen. Die Quelle der Daten und ihrer Kategorisierung (labeling) werfen eigene Fragestellungen über Korrektheit, Angemessenheit sowie semantische Robustheit in den jeweiligen Verarbeitungskontexten auf. In einer plakativen Anwendung haben nun zwei Forscher potentielle Auswirkungen von nicht sorgfältig bzw. einseitig strukturierten Daten, in diesem Fall Bilddaten, aufgezeigt [15].

Diese Aspekte der Transparenz, Fairness, Robustheit etc. werden auf eine ähnliche Art und Weise beim Verarbeiten der Daten noch einmal aufgegriffen. Hier soll sowohl ein passendes Modell als auch ein Implementierungsansatz gefunden werden, der sich zur Beantwortung der vorliegenden Fragestellung unter Berücksichtigung der vorliegenden Daten, Funktionalitätsanforderungen und ethischen Forderungen eignen. Dabei gilt es nicht nur die Fehlerquote des Algorithmus gering zu halten, sondern auch den Problemlösungsprozess so nachvollziehbar wie möglich zu gestalten. Wird die Transparenzanforderung nicht erfüllt, senkt dieser Aspekt das Vertrauen in die vorliegende Lösung und damit die Anwendungsbereitschaft. Welche Methoden sich am besten dafür eignen und bei der Umsetzung effizient einsetzbar sind, muss anwendungsspezifisch bestimmt werden.

Die Komponente der Datenverarbeitung impliziert die Integration des Algorithmus in das IT-System und somit auch das Testen des Systems. Das KI-basierte System wird aktuell von den Entwickelnden als ein ganzheitliches IT-Artefakt betrachtet und somit primär auf seine Funktionalität und Präzision des Algorithmus in Bezug auf ein bestimmtes Problem getestet. Die Auswirkungen, die die Anwendung des Systems auf den Anwendenden haben können oder die Auswirkungen der Anwendung von algorithmischen Systemen auf die Gesellschaft, werden bisher als außerhalb des Fokus der Softwareentwicklung stehend betrachtet. Jedoch müssen diese Aspekte unmittelbar eine Rolle bei der Entscheidung spielen, ob das System bereit ist "live" zu gehen oder nicht. Denn die Komplexität der Systeme führt zur mangelnden Transparenz bei der Entscheidungsfindung und –erklärbarkeit. Dadurch wird das Nachvollziehen oder Nachjustieren der Entscheidungskriterien nicht unmittelbar möglich. Beim Anwendenden entsteht also der Eindruck, dass das System die Kontrolle und die Macht über die Informationen und Entscheidungen vom Nutzenden übernimmt und damit die Autonomie des eigenen Handelns verringert. Durch diese Verzahnung von Inputdaten, dem verarbeitenden Modell und den nur zum Teil vorhersehbaren Auswirkungen, stehen nun sowohl der Entwicklungsprozess dieser Systeme als auch die Entwickelnden im Fokus der Gesellschaft.

Ein weiterer ethikrelevanter Effekt der Einbindung von KI-basierten Systemen in die bestehenden Geschäftsprozesse ist die Mustererkennung auf einer großen Datenmenge, die die Grundlage für die generierten Entscheidungen bildet. Produkte und Systeme des maschinellen Lernens, die sorgfältig entworfen und getestet wurden, errechnen über ein Logikgeflecht aus Geschäftsregeln und gesellschaftlichen Regeln Entscheidungspfade und liefern so vorhersehbare Ergebnisse für definierte Eingaben. Diese Logik wird meist in den Anwendungsfall- oder Sequenzdiagrammen erfasst, die wiederum z. B. auf User Stories basieren. Dabei werden die Geschäftslogik und die Anwendungsszenarien so übernommen wie sie aktuell gelebt wurden und werden. In der Folge werden die aktuellen Geschäftspraktiken, die die Ethik des Unternehmens bzw. des Umsetzungsteams verkörpern, umgesetzt. Durch die Formalisierung und Konzentration der realisierten Logik in Algorithmen und die Realisierung ihrer Ergebnisse als Vorschläge oder Entscheidungen werden jedoch zugleich die bestehenden Vorurteile oder ggf. unbeabsichtigte diskriminierende Geschäftspraktiken manifestiert und demonstriert.

Diese Effekte entstehen als Ergebnisse der letzten Phase des KI-basierten Ablaufs eines IT-Systems, der des Agierens.

Neben den bereits erwähnten Repräsentations- und Allokationsschäden, die durch die getroffenen Entscheidungen jeweils einzelne Individuen betreffen, können als Aktionsergebnisse eines KI-basierten Systems auch Vorschläge wie bei der Auswahl von Musik oder Filmen, Entscheidungen wie bei Entscheidungsunterstützungssystemen oder direkte Aktionen wie bei Industrierobotern entstehen. Jeder dieser Ergebnistypen kann eigene gesellschaftliche Herausforderungen auslösen. So kann zunehmende Automatisierung zum Verlust von Arbeitsplätzen in den Bereichen mit der niedrigen Qualifikationsanforderungen führen. Auch die algorithmische Vorauswahl und Darstellung von Nachrichten und Informationen führt zu Effekten, die unter den Stichworten "Filterblase" sowie "fake news" in der öffentlichen Diskussion präsent sind. Das fehlende Vertrauen und die fehlende Transparenz der Kriterien für getroffene Entscheidungen sowie Transparenz der Abläufe im System führt zum einen dazu, dass die Akzeptanz der Informationstechnologie im Allgemeinen und der KI-basierten Systeme im Speziellen darunter leidet. Zum anderen können die algorithmischen Entscheidungen nicht immer nachvollzogen, korrigiert und angepasst werden. In vielen Fällen werden solche Systeme nach ihrer Implementierung und anhand der bereits getroffenen Entscheidungen angepasst. Dadurch entsteht der Eindruck, dass der eigentliche Livebetrieb zur Evaluation der Systemergebnisse verwendet wird. Gerade im Bereich der öffentlichen Verwaltung, wo Sozialleistungen, Versorgungsmaßnahmen etc. zugewiesen und verwaltet werden, ist das ein Weg, der sozial unverträglich ist [16].

Was ist aus der Sicht der IT zu tun?

Aus diesen Überlegungen wird sichtbar, dass Ethik und IT zusammengedacht und zusammengebracht werden müssen. Die konkreten Schritte bleiben aktuell den einzelnen Unternehmen bzw. Entwickler*innen überlassen. Aktuell sind die Richtlinien und Wertekodizes die Werkzeuge der Ethik. Diese sind jedoch im Alltag der Softwareentwicklung wenig wirkungsvoll, da sie für eine unmittelbare Umsetzung in ein Softwaresystem zu abstrakt gehalten sind. Eigenschaften wie Transparenz, Fairness und Nachvollziehbarkeit von Systemen und ihren Entscheidungen müssen also innerhalb des Entwickler- und Managementteams bereits im Zuge der Anforderungserhebung berücksichtigt und integriert werden. Ein divers aufgestelltes Team von Entwicklern und Entwicklerinnen ist bereits ein Schritt in die Richtung zur Gestaltung von Systemen, die nicht diskriminierend und fair gestaltet sind.

Ethische Fragen werden kontextabhängig unter den Beteiligten bzw. im Rahmen der gesellschaftlichen Konventionen ausgehandelt. Im Kontext der Entwicklung von KI-basierten Systemen dienen sie dazu, das Wohl der Gesellschaft und des Einzelnen voranzutreiben und Innovationen, die sich explizit mit diesen Fragen beschäftigen, anzustoßen. Für ihre Gestaltung bedeutet das, dass es wie auch bei Geschäftsregeln keine allgemeingültigen konkreten Umsetzungsmuster geben wird. Jedoch soll auf der Ebene der Entwicklungsphasen, der Domänenanwendung und speziellen Anforderungen auf Best Practices, Normen und Aspekte zurückgegriffen werden können. Jetzt geht es also darum, aktiv diese Beispiele und Werkzeuge zu gestalten. Die Auslotung und Integration der ethischen Aspekte in die digitalen Lösungen kann also nur durch andauernde Diskussion und durchgehende Zusammenarbeit mit den Anwender*innen und Entwickler*innen geschehen. Anderenfalls werden die technischen Lösungen unsere gesellschaftlichen Werte prägen und nicht umgekehrt.

Autorin

Dr. Olga Levina

Olga Levina promovierte an der Technischen Universität Berlin und forscht aktuell als PostDoc-Wissenschaftlerin am FZI Forschungszentrum Informatik in Berlin an Themen der Digitalisierung.
>> Weiterlesen
Das könnte Sie auch interessieren

Kommentare (0)

Neuen Kommentar schreiben