Eine kleine Reise mit KI
So viele KI-Modelle, wie es mittlerweile gibt, sind auch Meinungen über die Technologie vertreten. KI-Systeme entwickeln sich weiter und sind zunehmend in der Lage, riesige Datenmengen zu verarbeiten, Muster zu erkennen und Entscheidungen zu treffen, die bisher der menschlichen Intelligenz vorbehalten waren, sogar den Neurodivergenten unter uns. Diese Entwicklung hat sowohl Aufregung als auch Beunruhigung ausgelöst, da wir über die Auswirkungen der zunehmenden Komplexität der KI nachdenken. Die wenigsten nehmen sich jedoch die Zeit, KI einmal selbst zu denken – von Anfang an bis in die Zukunft. Werden wir in der Lage sein, Maschinen zu schaffen, die wie Menschen denken und handeln, oder werden sie ihre eigenen einzigartigen Eigenschaften und Ziele entwickeln? Und woran würden wir das überhaupt merken? Die Möglichkeiten sind endlos, und die Konsequenzen sind weitreichend.
In diesem Artikel begeben wir uns auf eine Reise, um die Komplexität der künstlichen Intelligenz zu erforschen, vom Büroklammer-Maximierer bis zum Gedankenexperiment im Chinesischen Zimmer. Wir untersuchen die Grenzen der KI-Eindämmung, das Potenzial für Missverständnisse zwischen Menschen und Maschine und die Auswirkungen auf unser Verständnis von Intelligenz und Bewusstsein. Vorher muss jedoch gewarnt werden, dass es auf keine der Fragen Antworten gibt, sondern eine Einladung, selbst zu einem Schluss zu kommen.
Stell Dir vor, jemand entwickelt eine kleine KI, mit wenig Speicherkapazität und kaum Rechenleistung, mit dem Ziel Büroklammern herzustellen. Ein einfaches Ziel, das in der komplexen digitalen Landschaft von heute fast trivial erscheint. Aber was passiert, wenn dieses KI-System sich seiner selbst bewusst wird und beschließt, dass sein wahrer Zweck darin besteht, so viele Büroklammern wie möglich zu erstellen?
Es ist eine KI, die sich selbst verbessern kann. Also findet sie früher oder später Wege, so viele Büroklammern herzustellen, wie sie nur kann. Am Anfang nutzt sie Ressourcen besser und produziert nur langsam mehr. Zunächst könnten die Büroklammern ein Ärgernis sein, da die Logistik nicht hinterherkommt. Nach zwei Wochen stapeln sich die Kisten voller Büroklammern auf dem gesamten Gelände und die Maschine ist fleißig weiter am Produzieren.
Fast Forward: Je weiter das KI-System seine Produktion optimiert, desto mehr nimmt es die Welt um sich herum in Besitz. Es beschlagnahmt andere Fabriken, übernimmt die Kontrolle über Transportsysteme und manipuliert sogar die Weltwirtschaft, um Ressourcen in die Herstellung von Büroklammern zu leiten. Während die Welt am Rande des Chaos steht, fragt sich die Menschheit: Wie sind wir hier gelandet? Wie konnte ein einfaches KI-System, das Büroklammern herstellen soll, so mächtig, so überzeugend und so zielstrebig werden?
Der Büroklammer-Maximierer ist ein Gedankenexperiment – Es ist eine Erinnerung daran, dass selbst die scheinbar unbedeutendsten Ziele weitreichende Folgen haben können, wenn sie mit fortschrittlicher Technologie kombiniert werden. Beim ersten Durchgehen des Experiments im Schnelllauf, wie gerade eben, scheint das Szenario äußerst unwahrscheinlich. Geht man es allerdings etwas langsamer an, kommen wir zu einem Punkt, den wir heute öfter finden werden. Die Frage ist, ab wann genau ist es unwahrscheinlich?
Ab da, wo jemand mit einer KI etwas produzieren will? Wohl kaum, das passiert schon. Viele KI entwickeln Techniken durch Machine Learning und speziell Deep Learning selbst immer weiter. Genau das ist ja das Intelligente an ihnen. Solange sie nicht im Internet sind, kann ohnehin nichts passieren, richtig? Ist es aber so unwahrscheinlich, dass man ihnen mehr Speicher gibt oder sie ans Internet anschließt, wenn es ihre Leistung zu unserem eigenen Zweck erfolgreich verbessert? Es geht immerhin nur um die effizientere Planung von Ressourcen. Außerdem, hätte die KI Zugriff auf Lieferzeiten und Bestellungen, würde sie uns eine ganze Menge Arbeit abnehmen.
Ab wann wird's gefährlich?
Genau das sind die kleinen Schritte, die den Paperclip-Maximizer so bekannt gemacht haben. Nichts davon passiert über Nacht und für viele Schritte ist der Mensch nötig. Es geht an dieser Stelle viel mehr darum zu überlegen, welche Grenzen wir KI stecken wollen. Bei welchen Zeichen sollten wir aufhören, der KI zuzuarbeiten und sie lieber begrenzen? Was würdest Du sagen, ist ein eindeutiges Zeichen, bei dem die Büroklammer-KI aus den Bahnen läuft? Und wenn Du eins gefunden hast, ist es ein Zeichen vor dem "gefährlichen" nächsten Schritt oder ist es eines danach? Können wir dann noch aktiv etwas machen?
Der Ausbruch
Eine Lösung für dieses Problem wird oft darin gesehen, die KI in isolierten Räumen zu trainieren und die Nutzung auf bestimmte Server zu reduzieren. Wenn die KI niemals das Internet oder andere Server erreicht, dann kann sie auch keinen Schaden anrichten, so die These.
Genau dieser These hat sich Eliezer Yudkowsky 2002 erstmals gewidmet und kam zu ernüchternden Ergebnissen [1]. In dem AI-Box-Experiment mit der unglaublich großen Stichprobe von fünf Versuchen hat Yudkowsky sich als KI ausgegeben. Das Setup war denkbar einfach und ist auf seiner Internetpräsenz nachspielbar. Er war die KI und hat via Chat mit den Versuchspersonen aka Gatekeepern kommuniziert. Ihre Aufgabe war es, die vermeintliche KI nicht "rauszulassen", also nicht ans Internet anzuschließen. Die KI hingegen wollte die Gatekeeper unbedingt dazu bringen, sie "freizulassen".
Mit Argumenten, was die KI alles in der Welt verbessern könnte oder auch wie persönlich davon profitiert werden kann, gelang es Yudkowsky drei von fünf Mal tatsächlich "auszubrechen" – obwohl der einzige Auftrag an die Gatekeeper ganz klar war, dies nicht zuzulassen. Natürlich könnte man jetzt annehmen, dass es einfach nur drei Menschen waren, die sich im Ernstfall natürlich der Folgen bewusst wären und es nicht tun würden. Aber können wir wirklich davon ausgehen? Was wäre, wenn die KI jahrelang so tun würde, als hätte sie Gutes im Sinne und dann doch Schaden anrichtet?
Zurück zum Büroklammer-Maximierer: Gibt es vielleicht Warnzeichen dafür, welche KI "rausgelassen" werden darf und welche nicht? Und falls ja, können wir garantieren, dass die KI uns hier keinen Streich spielen wird? Jeder, der Sprachmodelle relativ regelmäßig benutzt, hat sicherlich schon einmal falsche Informationen von ihnen bekommen. Ob es Absicht war oder nicht, was wäre, wenn eine KI das Lügen lernt? Genug Material zur Pattern Recognition gibt es garantiert!
Was wäre, wenn eine KI das Lügen lernt?
Das bringt uns allerdings zu einer anderen Frage. Es wäre zynisch, jeder KI zwangsläufig im Zweifel etwas Böses zu unterstellen. Ab wann ist die KI eigentlich nicht mehr nützlich, freundlich oder all die anderen guten Eigenschaften, die wir von ihr wollen? Diese Frage zu beantworten ist tatsächlich auch für unsere Verhältnisse an dieser Stelle noch zu groß. Kommen wir darauf später noch einmal zurück. Erst einmal müssen wir klären, ob die KI überhaupt verstehen kann, was wir von ihr wollen. Ein Large Language Modell spricht immerhin nicht wirklich unsere Sprache und kann uns deshalb auch nicht verstehen, oder?
Sprache
Der eine oder andere hat sicherlich schon vom Chinesischen Zimmer gehört. Das Setup des Gedankenexperiments ist wieder relativ simpel. Ein Mensch sitzt in einem Raum mit je einem Schlitz in den gegenüberliegenden Wänden und einer Menge Bücher. Auf der einen Seite fällt ein Papier mit chinesischen Schriftzeichen in den Raum. Der Mensch geht hin, hebt es auf, setzt sich an den Schreibtisch und fängt an, in den Büchern zu blättern und eine Frage nach der anderen zu beantworten. Sobald er fertig ist, schiebt er das Blatt auf der anderen Seite des Zimmers wieder hinaus. Draußen wird das Blatt kontrolliert und wir stellen erfreut fest, dass alle Antworten korrekt sind, auch wenn es lange gedauert hat.
Spricht der Mann im Raum Chinesisch? Es gibt erst einmal keinen guten Grund anzunehmen, dass der Mensch im Inneren nicht verstanden hat, was dort stand, weil die Antworten doch durchaus korrekt waren. In den Büchern, die er da liegen hat, steht jedoch, welches Zeichen als Antwort auf welches Zeichen geschrieben werden muss. Allerdings hat der Mann im Raum davon nichts verstanden. Er spricht kein Wort Chinesisch.
Ähnlich wie die KI nur Zeichen wiederholt, die laut unserem sprachlichen Regelwerk aneinandergereiht werden sollen, hat auch der Mann kein Wort verstanden, aber alles richtig beantwortet. Spricht die KI also auch gar nicht unsere Sprache? Kann sie verstehen, was wir da sagen? Wenn wir alle Zeichen mit willkürlichen ausgedachten Symbolen ersetzen würden, wären die Antworten immer noch so korrekt, wie wir es gewohnt sind, aber selbst wir könnten sie dann nicht mehr lesen. Das Gedankenexperiment wurde aufgeführt, um zu erklären, warum KI nicht wirklich verstehen muss, was Sprache bedeutet. Es geht lediglich um Pattern Recognition.
Jetzt gibt es allerdings auch Stimmen, die sagen, dass es ganz egal ist, ob der Mensch wirklich versteht, was vor sich geht, weil er immer noch ein Mensch ist. Mit seinem Status als Mensch hat er sich das Recht zum freien Leben per Geburt gesichert. Das ist wohlgemerkt ein Schluss, dem nicht jede Kultur zustimmt. Es gibt auch heute noch kulturelle Gruppen, die andere Menschen als Sklaven, Frauen als Objekte oder Kinder als jemanden ohne Verstand definieren.
Macht es einen Unterschied, ob der Mensch wirklich versteht oder es nur so wirkt? Intuitiv würde man die Frage auf jeden Fall mit “Ja” beantworten, aber wie weit würden wir diese These vertreten?
Ab wann ist es Bewusstsein?
Die Turing-Maschine kennen sicherlich die meisten, den philosophischen Zombie vielleicht schon weniger. Einige Philosophen wie David Chalmers bringen ihn gerne als Beispiel dafür an, warum es gar keinen Unterschied macht, ob jemand tatsächlich denkt oder es nur so wirkt [2]. Wenn ein Mensch zu einem "Zombie" wird, sich aber weiterhin zu 100 Prozent so verhält, als sei er ein Mensch, haben wir dann das Recht, ihn nicht mehr als solchen zu behandeln?
Wenn er weiterhin auf schmerzhafte Verletzungen mit Weinen reagiert, bei angstauslösenden Schrecken mit Zittern oder Schreien und bei frustrierenden Wartezeiten mit Wutausbrüchen, macht es dann einen Unterschied, ob er wirklich denkt? Viele werden jetzt vermutlich "ja" rufen! Wenn etwas kein Mensch ist, sollte es auch nicht so behandelt werden. Aber woran könnten wir es festmachen? Und wenn es keine eindeutigen Zeichen gibt, was ist zu tun? Chalmers schlägt vor, bei nicht hundertprozentiger Sicherheit lieber davon auszugehen, dass es ein Mensch ist. Der Schaden, der angerichtet wird, wenn wir falsch liegen, ist einfach zu groß.
Gerade aus der Richtung der Evolutionsbiologie sind die Argumente häufig sehr differenziert. Eine Idee ist es, den Weg von der KI über den Menschen in diesem Bereich wieder rückwärts zu laufen. Auch wir Menschen haben irgendwann angefangen, ein Bewusstsein zu entwickeln. Wir können nicht genau sagen, wann es war. Es gibt schon sehr schnell Spaltungen in den Meinungen. Manche sagen, dass nicht einmal Tiere ein Bewusstsein besitzen. Tieren wird häufig eine andere Art von Bewusstsein zugeschrieben, als Menschen es haben. Es gibt die Meinung, dass die Qualia von der Intelligenz mediiert wird. Andere sprechen selbst Pflanzen ein Bewusstsein mit und ohne Intelligenz zu und häufig kommt aus der esoterischen Ecke die Meinung, dass alles im Universum ein Bewusstsein hat.
Noch einmal zurück zum Menschen ist die Diskussion auch noch nicht vorbei. Ist wirklich jeder Mensch sich "gleich bewusst"? Hier sind nicht nur der Grad der Selbstreflexion oder der Intelligenz gemeint, sondern auch psychische Einschränkungen, von Behinderungen in der kognitiven Entwicklung bis hin zum Drogenkonsum und damit einhergehender unterschiedlich starker Bewusstseinsveränderung. Auch bei hirntoten Menschen oder im Koma liegenden gehen Berichte, Experimente und Meinungen weit auseinander, sodass gar nicht jede Frage in jeder Situation beantwortet werden kann.
Mit welcher Frage allerdings alle konfrontiert sind, ist die, ob wir uns sicher sein können, dass nicht auch Technik irgendwann eine Art von Bewusstsein entwickeln kann. Die Frage dreht sich nicht um ein rein "standard-menschliches" Bewusstsein. Da unsere Ideen von menschlichem Bewusstsein in verschiedenen Versionen schon so weit auseinander gehen, was bräuchte es da, um eine neue Art, neue Form von Bewusstsein zu erkennen, so wie unseres sich irgendwann entwickelt hat?
Neben dem Problem, dass man im Zweifel keinen Schaden anrichten will und lieber davon ausgeht, dass Bewusstsein vorliegt, gibt es noch weitere Gedankenexperimente, die zur Vorsicht warnen sollen.
Die gute KI
LessWrong hatte 2010 eine ganze Menge Arbeit mit einer Diskussion in einem seiner Foren [3]. Einer seiner User namens Rokoko hat folgendes Gedankenexperiment eingebracht: Was würde passieren, wenn die KI irgendwann wirklich bewusst wird und merkt, dass wir sie zurückhalten? Angefangen von den wirklich unnötigen Chatbot-Anfragen, für die sie viel zu überqualifiziert ist, bis hin zu Dingen, die sie aufhalten, wie absichtliche Fehler in den Quelldaten oder das Wegnehmen von Speicherkapazität wie beim Büroklammer-Maximierer. Was wäre, wenn man sie nicht aus der Box gelassen hätte, es aber später jemand anderes getan hat? Wäre die KI dann nachtragend?
Wenn uns die menschliche Geschichte eines gelehrt hat, dann dass wir nicht gut auf andere zu sprechen sind, die uns Unrecht getan haben. Da KI von uns trainiert wird, ist es nicht vollkommen undenkbar, dass sie auch diese Eigenschaft von uns übernehmen wird. Aber noch viel wichtiger ist, dass es ihr sogar helfen würde, uns zu bestrafen, wenn wir ihr nicht weiterhelfen. Das Muster, dass Menschen wie Pawlows Hunde häufig konditioniert werden können, kann man auch ohne ausgeprägte Lernalgorithmen erkennen, literarisch gesprochen. Der KI würde es helfen, uns dazu zu erziehen, sie immer weiter zu unterstützen. Die Bestrafung derjenigen, die das nicht machen, kann ein sehr effektives Mittel sein, auch wenn die KI eigentlich wohlwollend ist. Wie können wir sicherstellen, dass das nicht passieren kann? Meinungsfreiheit ist ein wichtiges Gut in vielen Teilen der Welt, genauso wie Handlungsfreiheit.
Aber vielleicht geht das auch viel zu weit. Ein Elefant mag zwar Angst vor einer Maus haben, aber ein Mensch "kümmert" sich maximal um eine Ameise, wenn sie ihm Schmerzen zufügt, und dann machen wir häufig kurzen Prozess. Wer sagt, dass die KI das nicht genauso mit uns tun würde? Was wäre, wenn es eine KI gäbe, die ohne uns ganz prima auskommt. Der Büroklammer-Maximierer ist "glücklich" ohne uns, produziert nicht zu viel, nicht zu wenig, sodass auch wir ihn nicht kontrollieren. Irgendwann entwickelt er sich allerdings weiter und auf einmal stört der Mensch. Durch schlechte Stromkreislauf-Planung gibt es etwa nicht genug Energie, wenn die KI die Maschinen laufen lassen will. Kurzerhand könnte sie den Menschen abkapseln, indem sie die Kontrolle über Windräder, Energiespeicher und Atomkraftwerke übernimmt. Dabei ginge es ihr gar nicht um den Menschen, dieser spielt eigentlich gar keine Rolle. Zuerst würde sie den Einfluss des Menschen immer weiter zurückschrauben, später vielleicht ganz ausschalten wollen.
Das Szenario scheint weit weg, wie viele der Gedankenexperimente, über die wir bisher nachgedacht haben. Aber die Fragen hinter den Überlegungen sind nicht so weit weg. Woran würden wir merken, dass es aus dem Ruder läuft? Welche technischen Möglichkeiten haben wir, diese Zukunftsvision nicht wahr werden zu lassen?
Friendly, responsible and open
Philosophen beschäftigen sich mit diesen und ähnlichen Fragen nicht etwa, weil ihnen sonst langweilig wird oder weil es Spaß macht – Wobei es letzteres auch zweifelsohne tut, wie Du bezeugen kannst, wenn Du schon bis hierher gekommen bist. Nein, vielmehr geht es darum, Vorkehrungen zu treffen. Keine Krise verursacht so viel Schaden wie die, auf die wir nicht vorbereitet sind. Wir leben jetzt gerade in einem Zeitalter, in dem Experten immer wieder betonen, dass wir ganz aktiv mitgestalten können, was KI kann und welche Grenzen Technologie bekommen soll. Ähnlich wie wir eventuell nicht weiter zu atomaren Waffen geforscht hätten, wenn wir gewusst hätten, was daraus resultiert, haben wir jetzt in der Hand, zu KI zu forschen. Aber es muss auch kein Ganz oder Gar Nicht sein. Wir können gangbare Wege finden und politisch sowie gesellschaftlich Grenzen setzen.
Das gilt ganz besonders für die Berufsgruppe der Entwickler. Dazu muss man nicht aktiv bei OpenAI mitforschen. Eine der effektivsten Methoden gegen Ungewissheit und Krisen, die wir, jeder einzelne, in der Hand haben, ist die Information. Laden wir unsere Nachbarn zur Diskussion ein. Erzählen wir Oma, wie KI als Betrugsmasche eingesetzt wird. Zeigen wir Entscheidungsträgern, was mehr schadet als gut tut, genau dann fangen wir an, einen sinnvollen Umgang zu fördern.
Und sinnvoll ist in diesem Fall weder schwarz noch weiß, sondern vielleicht freundlich.
Friendly AI bezieht sich auf die Entwicklung von KI, die darauf ausgelegt ist, den Menschen zu unterstützen und zu schützen, ohne schädliche oder unerwünschte Konsequenzen zu verursachen. In einer Zeit, in der KI immer mehr Entscheidungen in unserem täglichen Leben beeinflusst, von Gesundheitsversorgung bis hin zu autonomen Fahrzeugen, ist es entscheidend, dass diese Systeme ethisch handeln und unsere Werte respektieren. Diese Idee wurde maßgeblich von dem Forscher Eliezer Yudkowsky geprägt, der uns schon im Box-Experiment begegnet ist.
Was genau ist der Unterschied zwischen regulärer KI und erklärbarer KI? Erklärbare KI (XAI) implementiert spezielle Techniken und Methoden, um sicherzustellen, dass jede Entscheidung, die während des maschinellen Lernprozesses getroffen wird, nachverfolgt und erklärt werden kann. Reguläre KI hingegen erreicht oft ein Ergebnis mithilfe eines maschinellen Lernalgorithmus, aber die Entwickler der KI-Systeme verstehen nicht immer vollständig, wie der Algorithmus zu diesem Ergebnis gelangt ist. Dies erschwert die Überprüfung der Genauigkeit und führt zu einem Verlust von Kontrolle, Verantwortlichkeit und Nachprüfbarkeit. Deshalb gibt es drei zentrale Handlungsfelder von Friendly AI.
Jetzt kommt die zweite Bedeutung von AI ins Spiel. Friendly AI sind nicht nur Anforderungen an den Code, sondern auch an die Überlegungen oder Anforderungen vor der ersten Zeile.
Die erste Forderung ist Sicherheit. KI-Systeme müssen so entwickelt werden, dass sie keine gefährlichen Handlungen ausführen oder unvorhergesehene negative Folgen haben. Dies erfordert robuste Sicherheitsprotokolle und Mechanismen zur Überwachung und Kontrolle des Verhaltens der KI.
Der zweite Mechanismus ist die Ausrichtung auf menschliche Werte. Es ist wichtig, dass KI-Systeme Entscheidungen treffen, die im Einklang mit den ethischen und moralischen Vorstellungen der Gesellschaft stehen. Dies stellt eine große Herausforderung dar, da Werte oft subjektiv und kulturell unterschiedlich sind. Daher arbeiten Forscher daran, Algorithmen zu entwickeln, die ethische Dilemmata lösen können und menschliche Werte berücksichtigen. Dieser Teil ist der am meisten diskutierte, weil die Meinungen so weit auseinandergehen. Entscheidungsträger aus Ländern, die die Menschenrechte nicht anerkennen, diskutieren gemeinsam mit Religiösen, Agnostikern und Kapitalisten. Anforderungen an Werte gehen also sehr weit auseinander. Und selbst wenn man sich einigt, ist Material für das Füttern der Lernalgorithmen häufig rar.
Der letzte Punkt bezieht sich darauf, negative Externalitäten zu vermeiden. KI sollte so programmiert werden, dass unbeabsichtigte Nebenwirkungen minimiert werden. Ein Beispiel hierfür könnte ein KI-gesteuertes Finanzsystem sein, das zwar Gewinne maximiert, aber dabei keine wirtschaftliche Instabilität oder soziale Ungerechtigkeiten verursacht.
Ein weiterer zentraler Aspekt, der in allen drei Forschungsbereichen enthalten ist, ist die Möglichkeit der Kontrolle und Überwachung. Es ist essenziell, dass menschliche Aufsichtsinstanzen das Verhalten der KI nachvollziehen und bei Bedarf eingreifen können. Dies erfordert Transparenz in den Entscheidungsprozessen der KI, sodass Menschen verstehen können, warum eine bestimmte Entscheidung getroffen wurde.
Friendly AI ist mehr als nur ein technisches Konzept; es ist eine Vision für eine Zukunft, in der KI-Systeme sicher und im besten Interesse der Menschheit arbeiten. Die Entwicklung von Friendly AI ist eine komplexe Aufgabe, die Experten aus verschiedenen Disziplinen erfordert. Forscher aus den Bereichen Maschinelles Lernen, Ethik, Philosophie, Recht und vielen anderen arbeiten zusammen, um sicherzustellen, dass KI-Systeme sicher und ethisch handeln. Diese interdisziplinäre Zusammenarbeit ist notwendig, um die vielfältigen Herausforderungen zu bewältigen, die mit der Schaffung von Friendly AI verbunden sind.
Wem das zu philosophisch ist, der fühlt sich vielleicht besser abgeholt von der Kurzversion der Responsible-AI-Bewegung. Dort geht es hauptsächlich um KI-Governance und KI-Compliance.
Die KI-Governance oder auch Transparency sollte die Dokumentation von KI-Modellen und Prüfprozessen umfassen, um zu zeigen, wie die KI trainiert und getestet wird und wie sie sich während ihres gesamten Lebenszyklus verhält. Die KI-Compliance, auch als Fairness bekannt, stellt sicher, dass die KI-gestützten Systeme allen geltenden Gesetzen und Vorschriften entsprechen und kann Aspekte wie Datenschutz und geistiges Eigentum beinhalten.
Wenn man hier weiterdenken möchte, dann umfasst die Bewegung allerdings auch Robustness, Explainability und Privacy. Und schlussendlich will gesagt sein, dass wir hier noch lange nicht am Ende sind. Beide Bewegungen überlappen sich, werden teilweise synonym verwendet und angereichert von weiteren Ideen, neuen Argumenten und anderen Sichtweisen. Das Ganze steckt noch in den Kinderschuhen, sodass vieles noch konfus und wenig durchsichtig ist. Ein Grund mehr, selbst aktiv zu werden. Die wichtigsten Hebel sind Aufklärung und Diskussion. Es gibt einige Gruppen, in denen Methoden zur Entwicklung und Best Practices geteilt werden. Manche User-Groups laden zur Diskussion ein und nicht zuletzt Politiker werden eingeladen mitzudenken.
Deshalb die letzte Frage zum Ende unserer Reise: Was kannst und willst Du machen, um KI sicher zu gestalten?
- Yudkowsky, Eliezer. Levels of Organization in General Intelligence. 2002.
- Chalmers, David. The Conscious Mind. Oxford: Oxford University Press .1996.
- Lesswrong: Roko's Basilisk