Mindsets und Methoden für eine praxisnahe digitale Ethik
Digitale Ethik ist ein aktuelles Thema. Die Unternehmensberatung Gartner nennt "Digital ethics and privacy" als eine ihrer zehn Top-Trends für 2019 [1]. Verbraucher sind beim Thema Ethik zunehmend besser informiert, engagierter und bewusster. Sie wollen genau wissen und mitentscheiden, was mit ihren Daten geschieht, und legen Wert auf nachhaltige Initiativen und Transparenz über deren Verwendung. Händler, Hersteller und Marken, die dieses Thema nicht ernst nehmen, können das Vertrauen des Konsumenten verlieren – so Gartner. Forrester Research und Forbes Innovation kommen zu ähnlichen Schlüssen.
Zukunftsforscher sagen sogar einen ethischen Kapitalismus voraus und spitzen zu, dass sich künftig nur noch auf diese Weise Geld verdienen lassen wird. Nicht nur die Technologien entwickeln sich weiter, sondern auch die Gesellschaft und deren Werteempfinden. Forderungen nach mehr Persönlichkeitsrechten im Internet, der Schutz von geistigem Eigentum und persönlichen Daten, Nachhaltigkeit im Sinne von Ressourcenverbrauch, sozialer Wertigkeit der eigenen Tätigkeit und vieles mehr sind Merkmale eines gesellschaftlichen Perspektivenwechsels.
Es steht zu vermuten, dass das Thema der ethischen Verantwortung gerade uns Digitalschaffende nicht so schnell loslassen wird. Schließlich sind wir als Software-Expert*innen Teil der Schlüsselindustrie dieses Jahrhunderts. Unser Tun kann gesellschaftliche und menschliche Kontexte zum Guten oder Schlechten beeinflussen. Ein entsprechendes ethisches Mindset ist hierbei die zentrale Komponente, um auf veränderte gesellschaftliche Anforderungen einzugehen und zugleich neue unternehmerische Handlungsfelder aufzugreifen.
Mindsets für digitale Ethik
Lassen Sie uns mit einem Gedankenexperiment im Bereich Digital Health beginnen. Mit ca. 328 Mrd. €/Jahr und 5,2 Mio. Beschäftigten ist das Gesundheitssystem einer der größten Wirtschaftsfaktoren Deutschlands. Im Silicon Valley gibt es Gründungen wie Helix oder 23andMe, die in der jungen Industrie der "Personal Genomics" zu Hause sind. Über 500 Millionen Dollar Risikokapital, unter anderem von der Google-Mutter Alphabet, flossen allein 2019 in 23andMe. Daten bedeuten Macht und Geschäft.
Stellen Sie sich einmal vor, Sie arbeiten als strategischer IT-Berater und werden von einem großen IT-Konzern beauftragt, deren Digitalisierungsinitiativen zu unterstützen. Ziel ist es, ein übergreifendes Ökosystem für Innovationen im deutschen Gesundheitswesen zu etablieren. Pharma-Industrie, Krankenhäuser, Krankenversicherungen und andere relevante "Player" sollen sektorenübergreifend zusammenarbeiten, um damit die enormen Kosten zu senken und die wirklich großen Probleme (Virus-Epidemien, Krebs, Diabetes, etc.) zu lösen.
Über ein ganzes Jahr hinweg konzipieren Sie ein Health Innovation Center und gestalten es technisch und rechtlich wasserdicht. Dann kommt ein kritischer Meilenstein im Projekt: Die Akteure müssen sich einig werden, in welchen Handlungsfeldern Innovation betrieben werden soll. Eine Serie von Alignment-Workshops verlaufen sehr zäh. Anscheinend will jeder nur seine eigenen Ziele erreichen. Der CDO aus der Pharma-Industrie tritt ausschließlich für Medikation ein, der Vertreter der gesetzlichen Krankenkassen dagegen für Versorgung, und so weiter. Es ist frustrierend. Immer mehr scheint es, dass nur Gewinn und Profit im Vordergrund stehen, und weniger die anfangs formulierten großen Ziele des Vorhabens.
Auf ein Innovationsfeld aber können sich alle Akteure schnell einigen. Millionen von anonymisierten Gesundheitsdaten mit detaillierten Krankheitsverläufen sollen (ohne Einverständniserklärung der Versicherten) für verschiedene Zweitverwertungen zur Verfügung stehen. Hier ist das Interesse der Beteiligten anscheinend so groß, dass man das für den einzigen und wahren Grund der Zusammenarbeit halten könnte. Was tun Sie als Berater, der sein Geld verdienen muss, aber auch ein Gewissen hat? Sie haben zwei Optionen:
- 50 Prozent Ihres Verdienstes hängt erfolgsabhängig davon ab, dass das Innovationscenter steht, alle Vertreter ein gemeinsames Handlungsfeld gefunden haben und ein gemeinsames Innovationsprojekt gestartet ist. Mit diesem Geld könnten Sie etwas richtig Sinnvolles tun – zum Beispiel Ihr lange geplantes eigenes Start-up für ethische Gesundheitsinnovationen gründen. Sie halten den Mund und bringen das Center zum Abschluss.
- Sie lassen sich einen Termin beim Deutschlandchef des IT-Konzerns geben und adressieren Ihre ethischen Bedenken. Die anonymisierten Daten können nicht ohne Einverständniserklärung verwendet werden. Der Fokus des Vorhabens muss wieder stärker auf den Nutzen für den Menschen gerichtet werden. Wenn er darauf nicht eingeht, ziehen Sie sich aus dem Projekt zurück und werden zum Wistleblower.
Halten Sie bitte einmal für 30 Sekunden inne und überlegen, wie Sie entscheiden würden – Option A oder B?
Wenn Sie glauben, dass dieser Fall komplett unrealistisch und konstruiert ist, dann haben Sie vermutlich noch nicht im Umfeld des deutschen Gesundheitswesens gearbeitet. Interessieren soll uns für diesen Artikel aber etwas Anderes: Was war Ihr erster Impuls beim Lesen der beiden Optionen? Es geht weniger um Ihre konkrete Entscheidung für Option A oder B, sondern Ihre Gedanken und Kriterien für die Entscheidung. Welche der nachfolgenden Optionen passt am ehesten zu Ihren eigenen Gedanken?
- Jeder muss schauen, wo er bleibt. Ich muss eine Familie mit schulpflichtigen Kindern ernähren. Auf andere Aspekte kann ich nicht groß Rücksicht nehmen.
- Ich gebe, um zu bekommen. Außerdem ist das der Vertrag, den ich unterschrieben habe.
- Die übergeordneten Aspekte des Nutzens für die Gesellschaft überwiegen. Für so viel Innovation beim Heilen von Krankheiten man mal auch ein paar sensible Daten zweckentfremden.
- Wozu kann ich authentisch stehen? Und wie fühlt sich meine Entscheidung für Andere an?
- Ist ein allgemeines Prinzip dahinter sichtbar, das auch für andere Entscheidungen gelten könnte?
- Woher weiß ich, dass ich es weiß und wirklich alle Fakten kenne? Unter welchen Voraussetzungen kann ich überhaupt eine Erkenntnis gewonnen haben?
Bei einem Konferenzvortrag haben wir das obige Gedankenexperiment mit den ca. 50 Teilnehmenden als Online-Voting gemacht. Etwa die Hälfte hat für Option 4 votiert, der Rest verteilte sich in etwa gleichmäßig auf die anderen Möglichkeiten. Die Optionen sind der Theoriewelt des Psychologen Clare Graves entlehnt. Sie entsprechen sechs verschiedenen "ethischen Mindsets".
- Egozentrisches Mindset: charakterisiert durch Macht, hierarchische Autorität, Ruhm, Dominanz. Die ethische Perspektive orientiert sich an Strafe und Gehorsam. Jeder ist sich selbst am nächsten. Sie ist die einzige ethische Instanz.
- Konformistisches Mindset: geprägt durch Disziplin, Tradition, Regeln, Gehorsamkeit. Die ethische Perspektive basiert auf personenbezogener Zustimmung. Ich gebe, um zu bekommen.
- Rationales Mindset: charakterisiert durch Materialismus, Konsumorientierung, Erfolg, Wachstum, rationaler Abwägung. Die ethische Perspektive ist geprägt durch Recht und Ordnung. Die übergeordneten Aspekte des Nutzens für die Organisation oder Gesellschaft überwiegen.
- Pluralistisches Mindset: basiert auf Gleichheit der Menschen, sozialer Empathie, Authentizität, Teilhabe, Verständnis. Die ethische Perspektive orientiert sich am legalistischen Sozialvertrag. Zu was kann ich authentisch stehen und wie fühlt sich meine Entscheidung für die anderen an?
- Nachhaltiges Mindset: charakterisiert durch ökologische Denkweise, Wunsch nach natürlichen Systemen, Selbstverwirklichung, multiple Perspektiven. Orientierung findet an selbst-reflektierten ethischen Prinzipien statt.
- Holistisches Mindset: bestimmt durch kollektiven Individualismus, Altruismus, Wandel im Großen, universelles Gemeinwohl, Hinterfragen vermeintlicher Gewissheiten – als universale gleichgewichtsorientierte Ethik.
Die Theorie der Entwicklung des Moralbewusstseins beim Menschen beruht auf einer über 25 Jahre laufenden Längsschnittstudie des Psychologen Lawrence Kohlberg [2]. Diese Theorie zur moralischen Urteilsentwicklung ist das Lebenswerk von Kohlberg, dass dieser beständig revidiert und erweitert hat. Jedes Mindset lässt sich mit einem ethischen Beweggrund assoziieren, da es seine eigenen ethischen Perspektiven mit bestimmten Denk- und Verhaltensmustern hat.
Es gibt Mischformen, Unschärfen und Überscheidungen, deren Diskussion den Rahmen dieses Artikels sprengen würden. Jede Entscheidung, die wir treffen, entspringt einer Mischung dieser Mindsets. Die Moralbegründung beim Holistisches Mindset beispielsweise orientiert sich am Prinzip der zwischenmenschlichen Achtung, dem Vernunftstandpunkt der Moral – hier ist auch der kategorische Imperativ von Kant angesiedelt. Nicht einmal 5 Prozent aller Menschen können diese Perspektive einnehmen.
Welches Mindset braucht eine Organisation, um Geschäftsmodelle ethisch richtig zu bewerten?
Wir wissen, dass die Realität weitaus komplexer ist als es dieses Klassifikationsraster nahelegt. Es mag Situationen geben, die ein egozentrisches Mindset gerechtfertigt erscheinen lassen. Ein Mensch kann in einem Bereich seines Lebens aus einer egozentrischen Perspektive leben, und in anderen aus einer nachhaltigen. Die Frage ist hier eher, welche Perspektive für einen Menschen dominant ist, und wie bewusst oder unbewusst ein Mensch in der Lage ist, Perspektiven zu wechseln. Vielleicht hilft dieser Artikel zumindest ein Stück weit dabei, sich selbst dessen bewusst zu werden.
Wie vertrauensvoll in unserem obigen Fallbeispiel mit persönlichen Kundendaten umgegangen wird, hängt vom ethischen Mindset ab. Welches Mindset braucht eine Organisation, um Geschäftsmodelle ethisch richtig zu bewerten? Dazu müssen Unternehmen das Mindset ihrer Kunden und Mitarbeiter besser verstehen. Unternehmen sollten sich über ihre ethischen Werte bewusster werden und abwägen, was für Kunden und Mitarbeiter vertretbar ist. Sonst verlieren sie nicht nur viele Kunden, sondern auch ihre fähigsten Mitarbeiter.
Digitale Ethik: Übervereinfachung und Risikofixierung
Wie kann man nun sein ethisches Mindset in praktisches Handeln umsetzen? Die aktuelle Debatte um digitale Ethik offenbart erstaunliche Lücken und blinde Flecken. Zunächst einmal wird das Thema oft mit "Datenschutz" gleichgesetzt. Es geht aber um mehr: In der Fachwelt hat sich der Begriff ELSI (ethical, legal and social impact) durchgesetzt. Er beschreibt die umfassenden Auswirkungen einer digitalen Anwendung auf ihren Kontext – rechtlich, sozial und ethisch-moralisch.
Ein Problem der aktuellen Diskussion ist Über-Vereinfachung. Augenfällig wird dies an vielen Check- und Regellisten (oft in der Form "Die n-Gebote der digitalen Ethik"), die von durchaus namhaften Organisationen bereitgestellt werden. Hier liegt eine Verwechslung der Begriffe "Moral" und "Ethik" nahe. Eine Moral ist ein Normensystem aus Regeln und Vorgaben. Sie ist das Ergebnis einer ethischen Reflektion. Ethik stellt demgegenüber das methodische Nachdenken über Moral dar, ist also sozusagen ein Werkzeugkasten zur Erarbeitung moralischer Entscheidungen. Wenn man sich auf vorgefasste Regelsysteme zurückzieht, übernimmt man einfach eine bestehende Moral. Der komplexe Prozess einer individuellen Auseinandersetzung mit einer bestimmten Fragestellung (etwa einer digitalen Anwendung) bleibt dabei auf der Strecke. Die nachfolgende Tabelle zeigt auf, welche Ebenen in eine solche ethische Reflektion hineinspielen.
Verschiedene Ebenen der ethischen Reflektion, nach Kaminsky [3]
Ebene | Bezug | Beispiele |
---|---|---|
abstrakt | unbedingt, überzeitlich, überörtlich | Theorien von Plato, Kant’scher Kategorischer Imperativ, … |
allgemein | gerahmt: in dieser Kultur und Gesellschaft | Prägung durch christlich-westliches Werteverständnis |
konkret kontextuel | in dieser Gesellschaft, in diesem Zusammenhang und in der Gegenwart | Bereichs-Ethiken wie etwa Medizin-Ethik, Code-of-Conducts von großen Firmen oder Organisationen |
konkret | unter den hier und jetzt unveränderlich gegebenen Bedingungen | meine ganz persönliche Entscheidungssituation |
Ein gutes Beispiel für die Über-Vereinfachung ethischer Reflektion findet man z. B. bei den Algo.Rules der Bertelsmann-Stiftung [4]. In neun Schritten werden Hinweise zur Gestaltung algorithmischer Systeme gegeben. Der Abwägungs-Prozess von Nutzen und Schaden eines Systems ist in einem Schritt zusammengedampft (Schritt 3: "Die Ziele und die erwartete Wirkung des Einsatzes eines algorithmischen Systems müssen vor dessen Einsatz dokumentiert und abgewogen werden."). Ja, wie macht man das denn? Zumal als Informatiker*in ohne eine vertiefte Ausbildung in Moralphilosophie, Jura und Sozialempirie?
Dabei gibt es durchaus Quellen, die einem bei diesem Prozess helfen. Die Philosophie-Professorin Jennifer Baker hat das in ihrem Blogpost "To Facebook or Not to Facebook: How Virtue Ethics Could Help Make Up Your Mind." [2] für die (vermeintlich simple) Entscheidung durchgespielt, ob man bei Facebook sein sollte oder nicht. Dafür hat sie ein Gleichnis von Epictet (50 – 138 n.Chr.) aufgegriffen und auf diese Frage angewendet. In ein Flussdiagramm verwandelt, ergibt sich die Entscheidung aus nicht weniger als sechs Einzelprüfungen.
Programmierteams brauchen solche differenzierenden Betrachtungswerkzeuge, denn keine zwei digitalen Anwendungen und Anwendungskontexte sind gleich. Wir werden das anhand von zwei Beispielen vorführen.
Fallstudie 1: Digitale Patientenakte
Vor dem schon geschilderten Hintergrund des boomenden Digital-Health-Markts möchten wir in diesem Artikel ein Innovationsprojekt näher beleuchten, das ein erstes Tätigkeitsfeld des oben geschilderten hypothetischen Health Innovation Centers sein könnte: die digitalen Patientenakte, eine der größten Datendrehscheiben des zukünftigen Gesundheitswesens.
Das E-Health-Gesetz sieht ab 2021 für jeden Krankenversicherten der gesetzlichen Krankenversicherung eine elektronische Gesundheitsakte vor, in der sämtliche Diagnosen, Therapien, Impfungen, Arztbesuche und weitere gesundheitsbezogene Daten gespeichert werden. Eine solche Akte soll den behandelnden Ärzten und Therapeuten ein umfassendes Bild eines Patienten geben und die Versorgung verbessern. Sie verspricht mehr Effizienz durch schnelleren Überblick über die Krankheitsgeschichte von Patienten, eine Reduktion der Doppeluntersuchungen und die Vermeidung von Unverträglichkeiten. Zusätzlich soll sie helfen, die exorbitant hohen Kosten des Gesundheitswesens um 80 Mrd. € zu senken.
Vermarktet wird die digitale Patientenakte als Patienten-Empowerment: Der Patient wird aus einer passiven in eine aktive Rolle versetzt. Früher hatten nur die Ärzte Zugriff und damit die Kontrolle. Jetzt hat der Patient selbst die vollständige Entscheidungsgewalt über seine Daten und bestimmt, wer diese interpretieren und verwenden darf. Das Smartphone spielt dabei eine wichtige Rolle, denn damit wird der Zugriff via App gesteuert und Links auf die Daten in einer SGB-geschützten Cloud freigeben.
Viele Menschen sammeln – bewusst oder unbewusst – täglich große Mengen weiterer Daten durch die Verwendung von Apps oder Wearables. Eine große deutsche gesetzliche Krankenversicherung bietet schon heute Bonusprogramme und Rabatte an, um solche weitergehenden Gesundheitsdaten über Fitnessarmbänder und Gesundheitstracker in eine spezielle App zu übertragen. Somit könnten diese Daten zukünftig automatisiert im Hintergrund mit Daten aus der Patientenakte verknüpft werden. Das Interesse an den Daten ist insgesamt riesengroß, insbesondere für pharmazeutische Firmen und Versicherungen. Bei all der Euphorie muss hinterfragt werden, ob man sich wegen der Patienten freut oder wegen der guten Absatzmärkte, die hier eröffnen.
Algorithmen errechnen, was wir tun, was wir denken und wie wir uns fühlen – vielleicht besser als wir selbst.
Es gibt einen boomenden Daten-Schwarzmarkt. Auf diesem werden für einen Streaming-Account ca. 10 Dollar bezahlt und für vollständige Kreditkarteninformationen zwischen 25 und 45 Dollar [5]. Eine Patientenakte dürfte auf dem Schwarzmarkt deutlich mehr als diese Summe wert sein. Was mag erst ein Genom-Datensatz auf dem Schwarzmarkt kosten? Ein Berater einer bekannten Unternehmensberatung hat uns hinter vorgehaltener Hand gesagt, dass der Schwarzmarkt-Preis hier im vierstelligen Bereich liegen würde. Welches Mindset brauchen wir, um mit dieser Versuchung umzugehen?
Ansatzweise versuchen Google, Facebook & Co. schon heute diese Daten zu erfassen. Pro Minute senden wir Hunderttausende personalisierte Google-Anfragen und Facebook-Posts. Sie verraten, was wir denken und fühlen. Algorithmen errechnen, was wir tun, was wir denken und wie wir uns fühlen – vielleicht sogar besser als unsere Freunde und unsere Familie, ja – als wir selbst.
Eine pragmatische "ELSI-by-Design"-Methode
Wie kann eine komplexe Anwendung wie die gerade beschriebene digitale Patientenakte sinnvoll ethisch bewertet werden? Ethikvoten oder Datenschutzgutachten (als gängige Instrumente einer ethischen Prüfung) stehen in der Regel außerhalb des Entwicklungsprozesses einer digitalen Anwendung. Dadurch haben sie häufig einen unfreiwillig verhindernden Charakter, vor allem wenn Bewertung nach Abschluss der Entwicklung erfolgt. Für massive Änderungen ist es dann zu spät, und man kann die Anwendung bei Problemen nur ganz zurückziehen. Die ethische Reflektion sollte daher begleitend zur Anwendungsentwicklung geschehen, am besten durch das Programmierteam selbst. So kann das Team laufend ELSI-konforme Änderungen an Design und funktionalen Eigenschaften vornehmen.
Für eine solche "ELSI-by-Design"-Methode gibt es brauchbare Ansätze, beispielsweise Ethical OS Toolkit [7] oder MEESTAR [8]. Allerdings – und das ist eine durchgehende Schwäche – genügt es nicht, allein die Risiken zu betrachten. Ein Programmierteam muss auch die potentiellen Nutzeffekte mit seiner Applikation berücksichtigen, sonst hat es kein ganzheitliches Bild der Auswirkungen und kann keine sinnvollen (moralisch besseren) Änderungsszenarien für die eigene Software betrachten.
Man kann die Nutzendimension aber leicht ergänzen – gerade das genannte MEESTAR eignet sich hierfür gut. Die nachfolgenden Dimensionen von MEESTAR (Nr. 1 – 7) spannen einen "Wirkungsraum" auf, in dem die zu erstellende Software ein Potential an positiven wie negativen Effekten hat. In diesem Wirkungsraum lassen sich die Ebenen Individuum, Organisation und Gesellschaft unterscheiden. Wir haben die originale MEESTAR-Liste noch um drei wirtschaftlich ausgerichtete Dimensionen (8 – 10) ergänzt. So kann man die Auswirkungen einer digitalen Anwendung auf wirklich alle Stakeholder – von der unmittelbaren Zielgruppe bis hin zu Betreiber und Hersteller – klassifizieren.
- Sicherheit bedeutet den Schutz gegen physische oder mentale Bedrohungen. Dies schließt auch das subjektive Gefühl ein, gut geschützt zu sein.
- Fürsorge wird ausgeübt, indem eine Person mit Einschränkungen Hilfestellung bei Handlungen erhält, die sie in dieser Form nicht (mehr) alleine durchführen kann.
- Autonomie bedeutet Freiheit, eigenständig zu entscheiden und zu handeln.
- Teilhabe steht für das Recht einer Person, mit anderen Menschen in der Gesellschaft gemeinschaftlich Erlebnisse zu teilen, und für den Zugang zu Diensten und Mitteln hierfür.
- Privatheit umfasst das Recht auf Transparenz, Zweckbindung, Integrität und Vergessen bei der Verarbeitung der persönlichen Daten, geht aber noch weiter: Jede Person verfügt über eine unverletzbare, schützenswerte "private Zone", die dem Zugriff anderer entzogen ist.
- Gerechtigkeit bedeutet, dass dieselben Standards für alle angewendet werden, und dass Ressourcen entsprechend der Bedürftigkeit zugeteilt werden.
- Selbstverständnis schließlich steht für die Freiheit über das eigene mentale Modell und die Art, wie man sich sieht und bewertet. Gerade alte und kranke Menschen werden oft sehr massiv "fremdbewertet" durch betreuende Institutionen (die es durchaus gut mit ihnen meinen).
- Verantwortung beschreibt, in welcher Weise das System Aufwand (Zeit, Geld, Verpflichtungen) erzeugt oder vermindert.
- Profitabilität bezieht sich auf die Fähigkeit einer Organisation, seine operativen Prozesse und strategische Entwicklung aus den eigenen Einnahmen zu bestreiten.
- Strategische Gelegenheit umfasst alle nicht-monetären Aspekte einer Organisation (Innovationen vorantreiben, strategische Position oder Marktanteil ausbauen, etc.).
Die Idee des hier vorgestellten ELSI-by-Design-Ansatzes ist es, mögliche Nutzeffekte und Risiken einer digitalen Anwendung in einer Matrix zu erfassen, die alle Stakeholder (Zeilen) und die obigen 10 Dimensionen (Spalten) erfasst. Die Dimensionen helfen dabei, mögliche Auswirkungen in Workshops mit der Fachseite oder künftigen Nutzern einzusammeln. Diese Matrix stellt eine Potentialmatrix dar: Es ist weder gesagt, dass alle Risiken eintreten, noch dass alle Nutzeffekte realisiert werden.
Im nächsten Schritt formuliert man dann konkrete funktionale oder nicht-funktionale Anforderungen an das System, mit deren Hilfe man entweder ein Risiko vermeidet, oder einen Nutzeffekt realisiert. Erst die daraus entstehende Realisierungsmatrix beschreibt dann die wirklichen Auswirkungen des zukünftigen Systems. In dem Prozess kann man mit Szenarien arbeiten, die das Design der Anwendung oder sogar das geplante Geschäftsmodell variieren. Damit gewinnen Produkt Owner und Entwicklungsteam ein pragmatisches und flexibles Instrument, um ELSI-Aspekte direkt in der Entwicklung berücksichtigen zu können.
Für die digitale Patientenakte haben wir nur eine Online-Umfrage im Rahmen des schon erwähnten Konferenzvortrags vorgenommen, noch keine detaillierte Analyse mithilfe eines Tools. Es lässt sich aber erkennen, dass das 10-Kriterien-Schema bei der Bewertung sinnvoll einsetzbar ist.
Fallstudie 2: Independent Life Assistant (ILA)
Zur Anwendung in einem kleineren, überschaubareren Fallbeispiel haben wir die Methode in Form eines Excel-Sheets mit VBA-Makros prototypisch umgesetzt.
Zur Verprobung wurde die (eher kleine) Anwendung ILA (Independent Life Assistent) gewählt, deren Idee aus einem Lehr-Forschungsprojekt mit einer Krankenkasse entstanden ist. Es handelt sich um ein GPS-Tracker-basiertes Unterstützungssystem für Demenzerkrankte, das im Fall von nicht lebensbedrohlichen Notsituationen (Desorientierung, Angstanfälle) einen Hilferuf an eine versorgende Kontaktperson absetzt und damit dem Demenzerkrankten wieder mehr Bewegungsfreiheit in einer abgesicherten Umgebung ermöglicht.
Für die Potentialmatrix wurden 74 potentielle Nutzen und Risiken erhoben. Man erkennt Schwerpunktrisiken bei Privatheit und Verantwortung (Liability). Für die Realisierungsmatrix wurden dazu 68 Anforderungen formuliert, die die Risiken weitgehend ausschließen. Allerdings funktioniert dies nur in Szenarien, bei denen das Geschäftsmodell angepasst wird (Anbindung von ILA an ein bestehendes Hausnotrufsystem, Finanzierung durch Krankenkasse, Vorhandensein mehrerer Kontaktpersonen).
Damit konnte die Sinnhaftigkeit der Methode gut belegt werden: Nicht nur war es durch sie relativ leicht, gezielt ELSI-bezogene Anforderungen zu formulieren, die Methode zeigte auch ethische bedenkliche Schwachstellen im Geschäftsmodell auf. Wer möchte, kann dies gern selbst im Detail nachvollziehen. Das Excel-Sheet findet sich, zusammen mit begleitenden Material, auf einem öffentlichen Github-Repo [9].
Fazit
Die Eingangsfragen dieses Artikels lauteten: Welches Mindset braucht eine Organisation, um Geschäftsmodelle ethisch richtig zu bewerten? Welches Mindset brauche ich als Digitalschaffender, um moralisch zu rechtfertigende Produkte zu gestalten?
Eine eindimensionale ethische Perspektive hilft bei der Beantwortung dieser Fragen wenig weiter. Das Mindset der Mitarbeiter einer Organisation – die Kultur – ist ausschlaggebend dafür, ob Daten zweckentfremdet und mit Geschäftsmodellen rein egoistische Interessen verfolgt werden, oder ob auch weitergehende Abwägungen Platz haben. Unternehmen müssen das Mindset ihrer Kunden und ihrer Mitarbeiter verstehen und sich über ihre ethischen Werte bewusst werden. Sonst könnten sie nicht nur viele Kunden, sondern auch Ihre fähigsten Mitarbeiter verlieren.
Aber wo anfangen? Natürlich bei dem Mindset der Organisation, der Mitarbeiter, der Kunden von heute und morgen. Die notwendige ethische Perspektive, die ein Unternehmen heute braucht, kann nur von innen organisch wachsen. Und das geschieht auf Augenhöhe, von Mensch zu Mensch. Dieser Artikel zeigt einige Sichtweisen, Mindsets und Werkzeuge auf, die auf diesem Weg behilflich sein können.
Was wir Ihnen mitgeben möchten, ist die folgende Frage: Mit welchem ethischen Mindset möchten Sie Ihre eigene Zukunft gestalten?
- K. Panetta (2018): Gartner Top 10 Strategic Technology Trends for 2019
- L. Kohlberg: Die Psychologie der Moralentwicklung. Suhrkamp, Frankfurt am Main 1996
- C. Kaminsky (2019): Digitale Ethik – Ein Terrain ohne Landkarte? Vortrag auf dem Thementag des Forschungsschwerpunkt DITES, TH Köln
- Algo.Rules - Regeln für die Gestaltung algorithmischer Systeme. Bertelsmann-Stiftung
- J. Baker: To Facebook or Not to Facebook: How Virtue Ethics Could Help Make Up Your Mind
- C. McFarland, F. Paget & R. Samani (2015): The Hidden Data Economy. McAfee Report
- Ethical OS Toolkit
- K. Weber (2015). MEESTAR: Ein Modell zur ethischen Evaluierung sozio-technischer Arrangements in der Pflege- und Gesundheitsversorgung
- Github Repo für das Methoden-Excel-File