Über unsMediaKontaktImpressum
13. September 2018

Künstliche Intelligenz mit Vorurteilen

Aus großen Datenmengen lernen und durch Kommunikation klüger zu werden: Das Grundkonzept, eine Künstliche Intelligenz zu entwickeln, scheint erstmal nur positive Resultate herbeizuführen. Eine neue Studie zeigt jedoch, dass auch bei KI Vorurteile entstehen. 

Der Versuch von Microsoft, im März 2016 einen Chatbot namens Tay von Twitter-Nutzern lernen zu lassen, schlug innerhalb von wenigen Stunden fehl. Tay sollte sich durch den Austausch mit anderen weiterentwickeln und vor allem schlauer werden, doch anstatt dessen passierte genau das Gegenteil. Wegen rassistischer Äußerungen und Verschwörungstheorien wurde der Versuch innerhalb von 24 Stunden beendet. Microsoft musste die Erfahrung machen, dass durch diese Art von Experimenten schnell sogenannte "Trolle" angelockt werden. 

Nicht nur dieses Projekt macht deutlich: In der Softwareentwicklung übernimmt KI die Vorurteile seiner Programmierer oder Dateneingeber. Im Beispiel des Chatbots Tay waren es gezielte Angriffe, die dabei halfen, Vorurteile aufzunehmen und wiederzugeben.

Eine aktuelle Untersuchung von Wissenschaftlern der Universität von Cardiff hat nun herausgefunden, dass selbst reine "Maschinen-Gesellschaften" nicht frei von Vorurteilen sind. Wie das Handelsblatt berichtet, ließen die Wissenschaftler rund um den Informatiker Roger M. Whitaker in Computersimulationen 100 intelligente Bots miteinander interagieren. Die erschienene Studie in der Fachzeitschrift Scientific Reports untersuchte ein "Geben und Nehmen"-Verhalten. Die Bots wurden in verschiedene Gruppen eingeteilt und sollten entweder einem Mitglied der eigenen Gruppe oder einem Bot aus einer anderen Gruppe eine Belohnung zukommen zu lassen. Bei der tausendfachen Wiederholung der Simulation konnten die Forscher eine zunehmende Bevorzugung der eigenen Gruppe feststellen. Die Maschinen bildeten, so die Wissenschaftler, mit der Zeit Vorbehalte gegenüber Fremden aus. "Indem wir die Simulationen tausende Male wiederholten, konnten wir allmählich verstehen, wie sich Vorurteile entwickelten und welche Verhältnisse diese Entwicklung begünstigten", äußerte sich Whitaker. Das Experiment zeigte, dass die Maschinen das Verhalten besonders erfolgreicher Gruppenmitglieder, also jener, die in kurzer Zeit viele Belohnungen erhielten, kopierten. Außerdem stellten die Forscher fest, dass die entwickelten Vorurteile der Künstlichen Intelligenz in den Simulationen besonders groß waren, wenn weniger Gruppen vorhanden waren. Je mehr Untergruppen die "Maschinen-Gesellschaft" aufwies, desto weniger Vorurteile konnten sich etablieren. Whitaker wagte zudem einen Blick auf die wachsende KI-Industrie: "In Zukunft könnten also auch autonom agierende Maschinen anfällig sein für das aus menschlichen Gesellschaften bekannte Phänomen Vorurteil." Damit spielt er auf KI-Systeme, etwa im Straßenverkehr oder im aufsteigenden Markt rund um Smart Home, an. 

LG

Sie möchten zukünftig per Newsletter der Informatik Aktuell informiert werden? Hier können Sie sich anmelden.

Das könnte Sie auch interessieren