KI mit Weitblick: Künstliche Intelligenz mit Verantwortung in KMU umsetzen
Die Einführung von Künstlicher Intelligenz (KI) beschleunigt sich
Die Anzahl der auf Künstlicher Intelligenz (KI) basierenden Tools, die für Standard-Produktivitätsaufgaben in Verwaltung und Management genutzt werden können, steigt rasant. Mitte Mai 2024 verzeichnete die Webseite "There’s an AI for that" über 12.500 Einträge. Diese Zahl umfasst jedoch nicht die vielen spezialisierten KI-Anwendungen für Juristen, das Controlling, die Betrugsaufdeckung, das Recruiting, das Talentmanagement in der Produktion und viele weitere Bereiche.
Immer mehr Unternehmen setzen auf KI
Dies verdeutlicht, dass KI zunehmend in den Fokus der Unternehmensstrategien rückt. Während der tatsächliche Einsatz von KI stetig zunimmt, bleibt die Planung und Diskussion um den Einsatz von KI ein dynamischer Prozess. Es wird immer deutlicher, dass die Mehrheit der Unternehmen die Relevanz von KI erkannt hat, da immer weniger Unternehmen angeben, dass KI für sie kein Thema ist [1].
- Steigender KI-Einsatz: Laut einer Bitkom-Studie aus dem Jahr 2023 setzen immer mehr Unternehmen in Deutschland KI aktiv ein, was auf eine zunehmende Akzeptanz und Integration dieser Technologie hinweist. Zuletzt lag der Anteil bei 15 %.
- In Planung: Der Anteil der Unternehmen, die den Einsatz von KI planen oder diskutieren, zeigt Schwankungen, lag aber zuletzt bei 28 %.
- Abnehmende Ignoranz: Der Anteil der Unternehmen, für die KI kein Thema ist, nimmt kontinuierlich ab.
Führungskräfte wollen vom Produktivitätsgewinn profitieren
Der Einsatz von KI lässt signifikante Produktivitätsgewinne erwarten. Eine Studie von Dell'Acqua und Kollegen aus dem Jahr 2024 zeigte frappierende Ergebnisse: Wissensarbeiter, die KI nutzen und geschult sind, erledigen im Durchschnitt 12 % mehr Aufgaben, sind 25 % schneller und erzielen 40 % bessere Ergebnisse als ohne KI. Besonders profitieren Menschen mit geringerer oder mittlerer Leistungsfähigkeit, was zu einer Angleichung der Leistung unter den KI-Nutzenden führt [2].
Mehr als Technologie: Eine Verpflichtung für die Zukunft
Es geht also nicht mehr um die Frage, ob KI in Unternehmen angewendet wird. Mit dem Wissen um die umfangreichen Risiken und negativen Wirkungen von KI auf Mensch, Gesellschaft und die Umwelt geht es um die Frage, wie sie angewendet wird. Die wahre Herausforderung liegt darin, KI so zu gestalten und zu nutzen, dass sie ethischen Standards entspricht und langfristig positive Auswirkungen auf Gesellschaft und Unternehmen hat. Fehlende ethische und nachhaltige Qualität in KI-Systemen führt nicht nur heute zu Problemen, sondern birgt auch verstärkte Herausforderungen für kommende Generationen. Deshalb handeln verantwortungsbewusste Unternehmer jeder Größe bereits heute und integrieren verantwortungsvolle Prinzipien fest in die Entwicklung von KI.
Das Prinzip Autonomie
Was genau unter Künstlicher Intelligenz (KI) verstanden wird, ist unterschiedlich und auch die Definitionen variieren. Laut David Poole, Alan Mackworth und Randy Goebel in ihrem Werk Computational Intelligence: A Logical Approach (1998) wird ein autonomes System als eines definiert, "das seine Umgebung wahrnimmt und Maßnahmen ergreift, die seine Chancen auf das Erreichen seiner Ziele maximieren." Das Prinzip der Autonomie ist ein zentraler Aspekt moderner KI-Systeme und bezieht sich auf die Fähigkeit eines Systems, unabhängig zu handeln, ohne menschliches Eingreifen [3]. Diese Fähigkeiten ermöglichen es ihnen, flexibel und adaptiv auf verschiedene Situationen zu reagieren, ohne dass ein menschlicher Operator ständig eingreifen muss.
Vorteile der Autonomie in KI-Systemen:
- Effizienz: Autonome Systeme können Aufgaben schneller und effizienter erledigen.
- Komplexität: Sie sind in der Lage, Aufgaben zu lösen, die für Menschen zu komplex oder zeitaufwendig wären.
- Repetitive Aufgaben: Sie übernehmen repetitive Aufgaben, wodurch menschliche Ressourcen für wichtigere Tätigkeiten frei werden.
KI ist nicht IT: Kontinuierliches Lernen und dynamische Anpassungsfähigkeit
KI-Systeme zeichnen sich durch kontinuierliches Lernen und dynamische Anpassungsfähigkeit aus. Beispiele dafür sind:
- SelbstständigeEntscheidungsfindung: Ein autonomes Fahrzeug sammelt Daten über seine Umgebung und trifft in Echtzeit Entscheidungen, um sicher und effizient an sein Ziel zu gelangen, ohne dass ein Mensch direkt eingreifen muss.
- ZielorientiertesHandeln: Ein KI-optimiertes Supply-Chain-Management-System kann eigenständig Entscheidungen treffen, um den Lagerbestand zu verwalten, Bestellungen aufzugeben und Lieferzeiten zu optimieren.
- Lernfähigkeit: Ein personalisierter Empfehlungsalgorithmus auf einer Streaming-Plattform lernt kontinuierlich aus den Vorlieben und dem Verhalten der Nutzer.
- EffizienzundSkalierbarkeit: Ein KI-basiertes System zur Überwachung von Netzwerkverkehr kann automatisch Bedrohungen erkennen und darauf reagieren, um Sicherheitsvorfälle in Echtzeit zu verhindern.
Unvorhersehbarkeit in der KI-Welt
KI-Systeme passen sich kontinuierlich an neue Daten und Umstände an, was zu unvorhersehbaren Ergebnissen führen kann. Diese Dynamik bringt Herausforderungen für Kontrolle und Steuerung mit sich:
- Dynamische Anpassungen: KI-Systeme reagieren flexibel auf Veränderungen in ihrer Umgebung.
- Black-Box-Charakter: Viele KI-Modelle sind Black Boxes, deren interne Entscheidungsprozesse nicht direkt nachvollziehbar sind.
- Unvorhersehbare Ergebnisse: KI-Systeme können unerwartete oder nicht intuitiv nachvollziehbare Ergebnisse liefern.
Einige Beispiele im Folgenden:
- Gesichtserkennung: Gesichtserkennungssysteme zeigen häufig eine höhere Fehlerrate bei der Erkennung von Gesichtern bestimmter ethnischer Gruppen.
- MedizinischeDiagnosen: Ein KI-System zur Hautkrebsdiagnose hat seltene Hauterkrankungen falsch interpretiert und fälschlicherweise als Krebs diagnostiziert.
- MaschinelleÜbersetzungen: Google Translate hat in der Vergangenheit unvorhersehbare und manchmal unangemessene Übersetzungen geliefert.
- Fehlentscheidungenin der Strafjustiz: Das COMPAS-System in den USA tendierte dazu, People of Color fälschlicherweise als hoch riskant einzustufen.
"Don’t blame the AI!"
Der weit verbreitete Einsatz von ChatGPT & Co. scheint unvermeidlich zu sein, aber in seiner jetzigen Form könnte ein unvorsichtiger, unkontrollierter Einsatz sowohl für die Gesellschaft als auch für Unternehmen langfristig problematisch sein. Die ethischen und nachhaltigen Herausforderungen, die mit der Nutzung von ChatGPT und ähnlichen KI-Systemen verbunden sind, wurden von Bernd Carsten Stahl und Damian Eke systematisch in "The ethics of ChatGPT" (2024) betrachtet und in vier Hauptkategorien unterteilt: Soziale Gerechtigkeit und Rechte, individuelle Bedürfnisse, Kultur und Identität sowie ökologische Wirkungen [4].
Risikofeld: Soziale Gerechtigkeit und Rechte
Der Einsatz von ChatGPT beeinflusst gesellschaftliche Strukturen und individuelle Rechte erheblich. Wichtige Aspekte sind die potenzielle Verdrängung von Arbeitsplätzen durch Automatisierung und die Verstärkung sozialer Ungleichheiten durch ungleichen Zugang zu KI-Technologien. Es ist wichtig, dass KI-Systeme fair agieren und diskriminierungsfreie Entscheidungen treffen, da fehlende ethische Leitlinien negative Auswirkungen auf soziale Institutionen und Strukturen haben könnten.
Risikofeld: Individuelle Bedürfnisse
Die Nutzung von ChatGPT wirft Fragen zur Kontrolle über persönliche Daten und zum Schutz der Nutzerrechte auf. Nutzer müssen entscheiden können, wie ihre Daten verwendet werden und klar über deren Nutzung informiert sein. Zudem besteht das Risiko psychischer Schäden und sozialer Isolation, da KI menschliche Interaktionen ersetzen könnte, was das soziale Gefüge beeinträchtigen könnte.
Risikofeld: Kultur und Identität
ChatGPT kann kulturelle und individuelle Identitäten erheblich beeinflussen. KI-Systeme könnten Vorurteile verstärken und soziale Segregation fördern, indem sie diskriminierende Muster aus Trainingsdaten übernehmen. Zudem könnte die Fähigkeit zur Entwicklung und Ausdruckskraft eigener Gedanken durch den Einfluss von KI eingeschränkt werden, was die kulturelle Vielfalt bedroht.
Risikofeld: Ökologische Wirkungen
Der Einsatz von KI-Technologien hat erhebliche ökologische Auswirkungen. Der hohe Energiebedarf für das Training und den Betrieb von Modellen wie GPT-3 trägt zum Klimawandel bei. Die Produktion und Entsorgung von Hardwarekomponenten für KI-Systeme stellt ein weiteres Umweltproblem dar. Ohne nachhaltige Ansätze verstärkt der ökologische Fußabdruck der KI-Technologie die Klimakrise.
Im "Auto-Modus" in die falsche Richtung?
Die Art und Weise, wie wir heute KI gestalten, hat tiefgreifende und langfristige Auswirkungen auf unsere Gesellschaft und Umwelt. Fehlende ethische und nachhaltige Qualität in KI-Systemen kann nicht nur aktuelle Probleme verschärfen, sondern auch in der Zukunft vervielfachen und Menschen auf vielfältige Weise beeinträchtigen. Die langfristige Multiplikation von Bias und Diskriminierung ist ein zentrales Risiko. Wenn KI-Systeme heute auf voreingenommenen Daten trainiert werden, können diese Vorurteile in Zukunft verstärkt und auf neue Anwendungen übertragen werden, was zu systematischer Diskriminierung führt.
Auch die Nachhaltigkeit und die damit verbundenen Umweltbelastungen sind kritisch. Der Energieverbrauch von KI-Systemen wächst exponentiell mit der Komplexität und dem Umfang der Modelle. Ohne nachhaltige Ansätze kann dies zu erheblichen Umweltbelastungen führen. Zudem könnte die Machtkonzentration in den Händen großer Technologiekonzerne zunehmen, was kleinere Akteure verdrängt und die digitale Spaltung vertieft. Dies führt zu einer zunehmenden Konzentration von technologischem und wirtschaftlichem Einfluss.
Gesellschaftliche Spaltung und soziale Ungerechtigkeit sind weitere Risiken. Fehlende ethische Leitlinien bei der KI-Entwicklung könnten bestehende soziale Ungleichheiten verstärken und neue Formen der Ausgrenzung schaffen. Die fehlende Diversität bei der Entwicklung von KI-Systemen, sowohl innerhalb der Gesellschaften als auch weltweit, trägt ebenfalls zu diesen Problemen bei. Schließlich besteht das Risiko eines toxischen Outputs, der die Faktenfindung erschwert und zur Verbreitung von Desinformation beiträgt.
Die Vielzahl der ethischen Risiken und negative Wirkungen auf die Nachhaltigkeit beim Einsatz von KI und ihre Langfristigkeit sind überwältigend. Aber was das wichtigste ist: Sie sind, wie dieser Text zeigt, bekannt und werden zukünftig noch tiefer und besser erforscht. Noch liegen die Lösungswege nicht auf dem Tisch. Dennoch gilt: "Don't blame the AI!" Wir können nicht "der KI" die Schuld geben, falls wir in einigen Jahren feststellen müssten, dass wir gesellschaftlich im "Auto-Modus" in die falsche Richtung gesteuert sind.
Die fehlende ethische und nachhaltige Qualität von KI heute hat das Potenzial, sich in der Zukunft zu vervielfachen und weitreichende negative Auswirkungen auf Individuen und die Gesellschaft zu haben. Es ist daher unerlässlich, dass wir bereits heute verantwortungsvolle und nachhaltige Prinzipien in die Entwicklung und Implementierung von KI integrieren. Nur so können wir sicherstellen, dass KI-Technologien langfristig zum Wohl der Menschheit und der Umwelt beitragen und nicht zu einer Verschärfung bestehender Probleme führen.
Corporate Digital Responsibility: Verantwortung für KI und Digitales im Unternehmen
Wunsch versus Realität: Verantwortungsvolle KI in Unternehmen
Viele Unternehmen erkennen die Bedeutung von verantwortungsvoller Künstlicher Intelligenz (KI), setzen diese jedoch nicht effektiv um. Laut einer Studie von MIT Sloan und BCG praktizieren zwar 52 % der Unternehmen in gewissem Maße verantwortungsvolle KI ("Responsible AI"), aber 79 % dieser Unternehmen geben zu, dass ihre Implementierungen begrenzt sind [5].
Die Kernideen, die die Verantwortung für KI und Corporate Digital Responsibility (CDR) miteinander verknüpfen, umfassen die Vermeidung von Vorurteilen, Transparenz und Fairness sowie den Schutz der Privatsphäre und Persönlichkeit. Diese Prinzipien sind bereits integraler Bestandteil der sozialen Verantwortung von Unternehmen und sollten selbstverständlich in ihre KI-Bemühungen integriert werden.
Viele der Kernideen, die hinter verantwortungsvoller KI stehen, wie z. B. die Vermeidung von Vorurteilen, Transparenz und Fairness, sind bereits mit den Grundprinzipien der sozialen Verantwortung von Unternehmen abgestimmt. Daher sollte es für ein Unternehmen bereits selbstverständlich sein, seine KI-Bemühungen damit zu verknüpfen.
Nitzan Mekel-Bobrov, Chief AI Officer, eBay
Nitzan Mekel-Bobrov, Chief AI Officer bei eBay, betont im MIT Sloan Management Review, dass viele der Kernideen, die hinter verantwortungsvoller KIstehen, bereits mit den Grundprinzipien der sozialen Verantwortung von Unternehmen abgestimmt sind. Daher sollte es für ein Unternehmen bereits selbstverständlich sein, seine KI-Bemühungen damit zu verknüpfen.
Management-Grundlagen für verantwortungsvolle KI
Der Aufbau einer KI-bezogenen Unternehmenspolitik, die mit den Grundwerten des Unternehmens verbunden ist, ist entscheidend. Die Geschäftsführung muss klären, welche Kernwerte des Unternehmens bei der Nutzung von KI betroffen sind und für welche Zwecke KI eingesetzt werden soll. Ein operativer Rahmen, der festlegt, wie KI im gesamten Unternehmen eingesetzt wird, ist notwendig. Dies umfasst nicht nur das Technologieteam, sondern auch die Compliance-, Rechts- und andere Funktionsteams.
Ein wesentlicher Aspekt ist die Fairness und Erklärbarkeit bei der Entwicklung von KI-Tools. Wenn KI eine Entscheidung trifft oder einem Menschen hilft, eine Entscheidung zu treffen, muss klar sein, wie diese Entscheidung zustande gekommen ist. Ein Beispiel hierfür ist ein Autoversicherungsunternehmen, das KI für die Schadensregulierung einsetzt. Es müsste erklären, wie das System die Schäden prüft und Schätzungen vornimmt. Transparenz und Rechenschaftspflicht gegenüber dem Verbraucher sind hierbei essenziell.
Klarheit darüber, wann KI eingesetzt wird, ist ebenfalls wichtig. Zukünftige Vorschriften könnten erfordern, dass Unternehmen ihre KI-Nutzung deklarieren und sowohl für den Verbraucher als auch für die Regulierungsbehörden transparent machen.
CDR erweitert die Unternehmensverantwortung
Corporate Digital Responsibility (CDR) hat sich aus der Corporate Social Responsibility (CSR) heraus entwickelt und geht über die traditionelle CSR hinaus. CDR umfasst Praktiken und Verhaltensweisen, die Unternehmen unterstützen, Daten und digitale Technologien sozial, wirtschaftlich und ökologisch verantwortungsvoll zu nutzen. Sie fördert eine unternehmerische Strategie für eine nachhaltige und faire Digitalisierung.
Verantwortungsvolle KI und CDR sind durch gemeinsame Kernideen verknüpft. Führende Unternehmen erweitern ihr Fundament der unternehmerischen Verantwortung, indem sie die Werte und Prinzipien, die ihr verantwortungsvolles Handeln bestimmen, auf ihre gesamte Technologie-, System- und Prozesspalette anwenden. Dabei geht es weniger um eine bestimmte Technologie als vielmehr um das Unternehmen selbst.
Unternehmensbeispiele
Führende Unternehmen setzen diese Prinzipien bereits erfolgreich um und zeigen, wie verantwortungsvoller Umgang mit KI aussehen kann. Folgende Beispiele sind in den CDR-Berichten der CDR Initiative des Bundesministeriums für Umwelt- und Verbraucherschutz zu finden [6]:
- KI-Leitlinien bei der Telekom: Die Deutsche Telekom betont, dass KI unterstützend für Menschen wirken muss. Ihre KI-Leitlinien stellen sicher, dass KI die menschlichen Fähigkeiten erweitert und ergänzt, sie jedoch keinesfalls einschränkt. Dies zeigt, wie Unternehmen durch klare Prinzipien eine verantwortungsvolle Nutzung von KI sicherstellen können.
- Weiterbildung bei Zalando: Der Online-Modehändler Zalando hat ein umfassendes Weiterbildungsprogramm für seine Mitarbeiter eingeführt, um ihnen den Umgang mit KI näherzubringen. Durch gezielte Schulungen und Workshops stellt das Unternehmen sicher, dass seine Belegschaft auf die Herausforderungen und Möglichkeiten der KI-Technologie vorbereitet ist
- Gesellschaftlicher Dialog bei Otto Group: Der Handelskonzern Otto setzt auf Aufklärung und Thought Leadership durch Veranstaltungen, bei denen Expert*innen und unterschiedliche Akteure zu KI und Ethik zusammenkommen. Solche Initiativen fördern den Austausch von Wissen und bewährten Praktiken und tragen zur Entwicklung einer ethischen KI-Strategie bei.
Diese Beispiele illustrieren, wie Unternehmen durch klare Prinzipien und gezielte Maßnahmen die Herausforderungen der digitalen Transformation meistern und gleichzeitig ihre Verantwortung gegenüber Mitarbeitern, Kunden und der Gesellschaft wahrnehmen können. Die Integration von CDR-Prinzipien in die Unternehmensstrategie ist somit ein wesentlicher Schritt, um das Vertrauen der Stakeholder zu gewinnen und langfristig zu erhalten.
KI verantwortlich umsetzen in vier Schritten
Eine Vorgehensweise, unterteilt in vier Phasen, ist bei der verantwortlichen Umsetzung von KI für Unternehmen hilfreich, so Michael Wade und Tomoko Yokoi im Harvard Business Review. Jede Phase beschreibt spezifische Maßnahmen zur Implementierung ethischer und nachhaltiger KI-Praktiken [7]. Hier ist eine detaillierte Beschreibung der einzelnen Schritte:
Schritt 1: Übersetzen
Der erste Schritt besteht darin, oft abstrakt formulierte ethische Prinzipien und Richtlinien in praktische, anwendbare Anleitungen und spezifische Leitlinien für die KI-Entwicklung umzuwandeln. Ziel ist es, ethische Prinzipien greifbar und umsetzbar zu machen, damit Entwickler und andere Beteiligte diese Prinzipien in ihre täglichen Arbeitsprozesse integrieren können. Ein Beispiel hierfür ist die Entwicklung von Richtlinien zur KI-Implementierung, die klare Anweisungen und Standards für die Praxis bieten.
Schritt 2: Integrieren
Der zweite Schritt bedeutet, Überlegungen zur digitalen Verantwortung direkt in den KI-Design- und Entwicklungsprozess zu verankern. Dazu gehören die Anpassung bestehender Verfahren und die Implementierung neuer Praktiken, um Verantwortungsaspekte frühzeitig zu berücksichtigen. Ziel ist es, ethische Probleme zu antizipieren und zu vermeiden, bevor sie auftreten, indem ethische Überlegungen von Anfang an in die Entwicklung einfließen. Ein Beispiel hierfür ist die Integration ethischer Überlegungen in den KI-Design- und Entwicklungsprozess, um sicherzustellen, dass ethische Prinzipien bei jeder Entscheidung berücksichtigt werden.
Schritt 3: Kalibrieren
Dieser Schritt umfasst die Anpassung und Feinabstimmung von KI-Lösungen an lokale (rechtliche) Bedingungen und sich ändernde Technologien. Dies erfordert kontinuierliche Überwachung und Anpassung, um sicherzustellen, dass die Lösungen relevant und wirksam bleiben. Governance und Prozesse müssen entsprechend aufgebaut oder angepasst werden. Ziel ist es, die langfristige Relevanz und Effektivität von KI-Lösungen sicherzustellen und deren verantwortliche Nutzung zu gewährleisten. Ein Beispiel hierfür ist die Einführung eines Monitoringsystems zur Erkennung und Behebung von Fehlern in Echtzeit.
Schritt 4: Verbreiten
Der letzte Schritt bezieht sich auf die Förderung eines Lern- und Austauschumfelds innerhalb der Organisation, um verantwortungsvolle KI-Praktiken und Erkenntnisse zu skalieren und zu teilen. Ziel ist es, eine Kultur der kontinuierlichen Verbesserung und des Lernens zu schaffen, in der verantwortliche KI-Praktiken weit verbreitet und tief verankert sind. Ein Beispiel hierfür ist die Durchführung von Workshops zu verantwortlicher KI für alle Mitarbeitenden, um das Bewusstsein zu schärfen und Wissen zu verbreiten. Durch diese strukturierte Vorgehensweise können Unternehmen sicherstellen, dass ihre KI-Systeme nicht nur technisch leistungsfähig, sondern auch ethisch vertretbar und nachhaltig sind.
Sustainable AI Radar – KI ohne Kompromisse bei Mensch und Planeten
Insbesondere der erste Schritt "Übersetzen" stellt für KMU eine Herausforderung dar, da Spezialisten-Kenntnisse zu KI-Ethik oder Corporate Digital Responsibility dort eher selten sind. Diese Lücke soll der Sustainable AI Radar von WiseWay schließen. Er bietet Unternehmen ein praktisches Werkzeug, um ihre KI-Initiativen nachhaltig zu gestalten.
Ein Tool zur Entwicklung nachhaltiger KI-Anwendungen
Das Ziel des Modells für nachhaltige KI ist es, Organisationen und Unternehmen dabei zu unterstützen, ihre KI-Initiativen so zu gestalten, dass sie nicht nur technologisch fortschrittlich, sondern auch sozial verantwortungsbewusst und ökologisch nachhaltig sind. Dies trägt zur Förderung einer verantwortungsvollen Technologie-Zukunft bei, in der KI-Anwendungen sowohl dem Planeten als auch den Menschen dienen, heute und in Zukunft. Der Sustainable AI Radar wurde von WiseWay als Werkzeug entwickelt, um sicherzustellen, dass nachhaltige KI nicht nur ein Konzept bleibt, sondern aktiv in Arbeitsprozesse und Workshops integriert wird. Er hilft Unternehmen, ihre KI-Initiativen nachhaltig zu gestalten, indem er die Hauptkomponenten und Features der KI in den Fokus rückt und für mehr Transparenz sorgt. Der Radar bietet einen 360-Grad-Blick auf die Verantwortung von KI und umfasst alle wesentlichen Stakeholder-Perspektiven. Dabei berücksichtigt er die gesamte Lebenszyklus-Betrachtung von der Entwicklung über den Betrieb bis hin zur Bereitstellung und Überprüfung. Die drei Dimensionen der Nachhaltigkeit – ökologisch, ökonomisch und gesellschaftlich – sind ebenfalls integriert.
Ebenen des Sustainable AI Radars
Der Sustainable AI Radar besteht aus drei Ebenen, die Unternehmen helfen, ihre KI-Initiativen nachhaltig zu gestalten (vgl. Abb. 1):
- Start-Voraussetzungen: Diese Ebene prüft grundlegende Anforderungen vor dem Start einer KI-Initiative, wie die Klärung des Zwecks, die Nützlichkeit, die Erforderlichkeit der KI, das Risiko-Nutzen-Verhältnis und die Rechtskonformität. Ziel ist es sicherzustellen, dass die Grundlagen für eine verantwortungsvolle KI gelegt sind
- Nachhaltigkeitspotenziale: Diese Ebene beleuchtet die Möglichkeiten, die eine KI-Anwendung bietet, um Nachhaltigkeitsaspekte umzusetzen, z.B. durch effizienteren Ressourcenverbrauch, Förderung nachhaltiger Produkte und Verbesserung der Produktqualität. Dies stellt sicher, dass die KI-Anwendung positive ökologische und soziale Auswirkungen hat.
- EingebetteteNachhaltigkeitskriterien: Diese Ebene bezieht sich auf die Integration von Nachhaltigkeitskriterien in die KI-Entwicklung und -Anwendung, unter umfassender Berücksichtigung verschiedener Stakeholder-Gruppen wie Management, Entwickler, Nutzer und die Gesellschaft insgesamt. Ziel ist es, die langfristige Relevanz und Effektivität der KI-Anwendungen sicherzustellen.
Der Sustainable AI Radar besteht aus rund 50 Prüffragen, die in Workshops und anderen Evaluierungsprozessen verwendet werden können. Beispiele für solche Fragen sind:
- Ist der Zweck der KI klar und verständlich
- Stiftet die KI Sinn und ist nützlich für die breite Masse?
- Ist eine KI tatsächlich notwendig?
- Stehen Risiken und Nutzen im Verhältnis?
- Zielt die KI darauf ab, Ressourcen effizienter einzusetzen?
- Stärkt die KI nachhaltige Produktion und Konsum?
- Verbessert die KI Produktqualität oder -lebensdauer?
- Wie offen und nachvollziehbar sind KI-Verfahren?
- Wie wird gewährleistet, dass die KI sicher ist und qualitativ hochwertige Daten verwendet?
- Wie beeinflusst die KI die Arbeitsbedingungen der Mitarbeiter?
Weitere Informationen zum Sustainable AI Radar unter Wiseway [8].
Praxisbeispiel: Menschenzentrierte KI-Prinzipien bei einem mittelständischen Unternehmen
Die Prior 1 GmbH, ein mittelständisches Unternehmen aus St. Augustin, das Rechenzentren für den deutschen Mittelstand baut, stand Ende 2023 vor der Herausforderung, KI in ihre Prozesse zu integrieren, um das Unternehmen weiterhin innovativ auszurichten. Prior 1 hat sich als Unternehmen eine nachhaltige Agenda gegeben und ist Teil der Gemeinwohlökonomie.
Herausforderung: Skepsis gegenüber KI
Die Hauptsorge der Geschäftsführung bei Prior 1 war die Frage, inwieweit eine KI-Anwendung den Unternehmenswerten entsprechen kann sowie die Skepsis der Mitarbeitenden gegenüber der neuen Technologie. Die Geschäftsführung formulierte die Herausforderung klar: Es sollten Prinzipien entwickelt werden, die den Mitarbeitenden Sicherheit im Umgang mit der KI bieten würden und Ängste abbauen sollten. Der Sustainable AI Radar, der genau für solche Herausforderungen entwickelt wurde, um eine nachhaltige und vertrauenswürdige Implementierung von KI zu gewährleisten, überzeugte die Geschäftsführung. Er diente nun als Kompass und Unterstützung für die Entwicklung von werteorientierten KI-Prinzipien.
Ansatz: Partizipation mit dem Sustainable AI Radar
Der Sustainable AI Radar, ein Werkzeug zur Evaluierung und Implementierung menschenzentrierter und nachhaltiger KI-Prinzipien, wurde in einem Workshop vorgestellt. Einzelne Mitarbeitende wurden aktiv in den Prozess einbezogen, um ihre Bedenken und Vorstellungen zu adressieren und einzubinden. Dies geschah durch die Anwendung des Sustainable AI Radars, der die Hauptkomponenten und Eigenschaften der KI in den Fokus rückt und mehr Transparenz schafft. Die Darstellung und Benennung der Handlungsfelder auf einen Blick sorgte für eine Übersicht. Der Radar gab dem Team keine Lösungen vor, aber er regte an, sich bestimmte Themenfelder vorzunehmen und unternehmensspezifische Antworten darauf zu entwickeln.
Ergebnis: Vertrauen & Innovation
Durch diese Maßnahmen konnte Prior 1 eine Balance zwischen Innovation und Verantwortung schaffen. Die Skepsis gegenüber der KI wurde erfolgreich reduziert, und es entstand ein höheres Maß an Vertrauen und Innovationsbereitschaft im Unternehmen. Mitarbeitende fühlten sich sicherer im Umgang mit der neuen Technologie und waren motivierter, sich aktiv an der Implementierung und Weiterentwicklung der KI-Lösungen zu beteiligen.
Das Beispiel von Prior 1 zeigt, wie wichtig es ist, Mitarbeitende bei der Einführung neuer Technologien aktiv einzubeziehen und ihre Bedenken ernst zu nehmen. Der Sustainable AI Radar von WiseWay erwies sich als wertvolles Instrument, um eine menschenzentrierte und verantwortungsvolle KI-Implementierung zu gewährleisten. Durch einen strukturierten und partizipativen Ansatz konnte das Unternehmen nicht nur technologische Fortschritte erzielen, sondern auch das Vertrauen und die Unterstützung der Beschäftigten gewinnen.
KI verantwortungsvoll einsetzen – Aufruf und Checkliste zur Umsetzung
Die Einführung von KI in KMU beschleunigt sich rasant, und immer mehr Unternehmen erkennen die Vorteile und den Produktivitätsgewinn durch den Einsatz von KI-Technologien. Die tatsächliche Herausforderung liegt jedoch nicht in der Implementierung von KI, sondern in der verantwortungsvollen Nutzung und Gestaltung dieser Technologien.
Autonome Systeme und KI-basiertes Lernen bieten zahlreiche Vorteile, erfordern jedoch eine sorgfältige Kontrolle und Anpassung, um unvorhersehbare Ergebnisse und ethische Konflikte zu vermeiden. Unternehmen müssen sicherstellen, dass ihre KI-Systeme nicht nur effizient und produktiv, sondern auch ethisch vertretbar und nachhaltig sind.
Checkliste für verantwortungsvolle KI in vier Schritten
Diese Checkliste hilft Ihnen dabei, eine strukturierte und umfassende Vorgehensweise zur Implementierung von verantwortungsvoller KI in Ihrer Organisation zu gewährleisten.
1. Übersetzen
- Ethische Prinzipien definieren:
- Identifizieren Sie die ethischen Grundsätze, die für Ihr Unternehmen und Ihre KI-Entwicklungsprojekte relevant sind.
- Entwickeln Sie klare ethische Leitlinien und Standards, die für alle Beteiligten verständlich sind.
- Praktische Anleitungen erstellen:
- Wandeln Sie die definierten ethischen Prinzipien in konkrete, anwendbare Anweisungen und Leitlinien für die tägliche Arbeit um. Nutzen Sie dabei ggf. den Sustainable AI Radar von WiseWay [8].
- Dokumentieren Sie diese Anleitungen und machen Sie sie für alle Teammitglieder zugänglich.
- Partizipation umsetzen:
- Organisieren Sie partizipative Workshops, um sicherzustellen, dass alle Mitarbeitenden die ethischen Prinzipien verstehen und anwenden können.
2. Integrieren
- Ethik in den Designprozess einbinden:
- Integrieren Sie ethische Überlegungen in den gesamten KI-Design- und Entwicklungsprozess.
- Stellen Sie sicher, dass ethische Aspekte bei jeder Entscheidung berücksichtigt werden.
- Verfahren anpassen:
- Überprüfen und aktualisieren Sie bestehende Verfahren, um sicherzustellen, dass sie Verantwortungsaspekte frühzeitig berücksichtigen.
- Implementieren Sie neue Praktiken, die ethische Probleme antizipieren und vermeiden.
- Ethik- oder CDR-Beauftragte ernennen:
- Ernennen Sie Ethik- oder CDR-Beauftragte oder ein Ethikkomitee, die den Entwicklungsprozess überwachen und sicherstellen, dass ethische bzw. Verantwortungs-Richtlinien eingehalten werden.
3. Kalibrieren
- Anpassung an lokale Bedingungen:
- Passen Sie KI-Lösungen an lokale rechtliche und regulatorische Anforderungen an.
- Überwachen Sie kontinuierlich Änderungen in den rechtlichen Rahmenbedingungen und passen Sie Ihre Lösungen entsprechend an.
- Feinabstimmung und Monitoring:
- Implementieren Sie ein Monitoring-System zur kontinuierlichen Überwachung und Anpassung von KI-Lösungen.
- Erkennen und beheben Sie Fehler in Echtzeit.
- Governance-Strukturen aufbauen:
- Entwickeln Sie klare Governance-Strukturen und Prozesse zur Sicherstellung der langfristigen Relevanz und Wirksamkeit von KI-Lösungen.
4. Verbreiten
- Lern- und Austauschumfeld fördern:
- Schaffen Sie eine Kultur der kontinuierlichen Verbesserung und des Lernens innerhalb der Organisation.
- Fördern Sie den Austausch von Best Practices und Erkenntnissen zur verantwortungsvollen KI.
- Workshops und Schulungen anbieten:
- Organisieren Sie regelmäßig Workshops und Schulungen zu verantwortlicher KI für alle Mitarbeitenden.
- Schärfen Sie das Bewusstsein für verantwortungsvolle KI-Praktiken und verbreiten Sie das Wissen im gesamten Unternehmen.
- Erfolgsgeschichten teilen:
- Teilen Sie Erfolgsgeschichten und positive Beispiele verantwortungsvoller KI-Anwendungen innerhalb und außerhalb des Unternehmens, um das Engagement und die Akzeptanz zu fördern.
Mit der Nutzung des Sustainable AI Radars können Unternehmen ihre KI-Initiativen nachhaltig gestalten und sicherstellen, dass sie sowohl technologisch fortschrittlich als auch sozial und ökologisch verantwortungsbewusst sind. Unternehmen wie die Prior 1 GmbH zeigen, wie wichtig es ist, Mitarbeitende bei der Einführung neuer Technologien aktiv einzubeziehen und ihre Bedenken ernst zu nehmen. Es liegt nun an den Führungskräften, diese Prinzipien in ihren Unternehmen umzusetzen und sicherzustellen, dass KI-Technologien nicht nur zum wirtschaftlichen Erfolg, sondern auch zu einer positiven gesellschaftlichen und ökologischen Entwicklung beitragen.
Handeln Sie als Entscheider*in verantwortungsvoll und gestalten Sie die Zukunft Ihrer Unternehmen mit KI, die ethisch vertretbar und nachhaltig ist. Jetzt ist der Zeitpunkt gekommen, Verantwortung zu übernehmen und KI mit Weitblick umzusetzen.
- Dr. Ralf Wintergerst, Bitkom
- Dr. Holger Schmidt, Linkedin
- David Poole, Alan Keith Mackworth, Randy Goebel: Computational Intelligence: A Logical Approach
- Bernd Castle Stahl, Damian Eke: The Ethics of ChatGPT - Exploring the Ethical Issues of an Emerging Technology
- Elizabeth M. Renieris, David Kiron, and Steven Millsm: To Be a Responsible AI Leader, Focus on Being Responsible
- Corporate Digital Responsibility Initiative CDR-Kodex und -Berichte
- Michael Wade, Tomoko Yokoi: How to Implement AI — Responsibly
- WiseWay