Über unsMediaKontaktImpressum
Prof. Dr. Christian Bauckhage 04. September 2018

Maschinelles Lernen – Wie geht es weiter?

Seit einiger Zeit erlebt die Künstliche Intelligenz immer neue Höhenflüge. Beeindruckende Systeme wie AlphaGO, Google Duplex oder IBM Debater sind in aller Munde. Möglich werden solche Leistungen vor allem durch lernende Algorithmen, die mittels Big Data trainiert werden, kognitive Aufgaben zu lösen. Was aber ist, wenn Trainingsdaten verzerrt oder fehlerhaft sind oder schlicht nicht in der Menge vorliegen, die nötig wäre, um robust lernen zu können? Wie kann sichergestellt werden, dass die Entscheidungen eines komplexen Algorithmus für Anwender nachvollziehbar sind? Hier ergeben sich Herausforderungen für das maschinelle Lernen, die gelöst werden müssen, um möglichen Risiken oder der Monopolisierung der Künstlichen Intelligenz zu begegnen.

Im Zuge der rasch voranschreitenden Digitalisierung von Wirtschaft und Gesellschaft hält Künstliche Intelligenz (KI) zunehmend Einzug in unseren Alltag. Routenplaner, Sprachassistenten auf dem Smartphone oder Chatbots im webbasierten Kundenservice sind mittlerweile Standardprodukte. Aber auch in professionellen Anwendungen, etwa in der medizinischen Diagnostik, in der industriellen Qualitätskontrolle oder in autonomen Fahrzeugen, werden KI-Systeme mit großem Erfolg eingesetzt.

Momentan wird diese Entwicklung vor allem durch Techniken des maschinellen Lernens getrieben und insbesondere Deep Learning und künstliche neuronale Netze haben zuletzt zu deutlichen Fortschritten geführt. Vereinfacht gesagt bestehen solche auf Computern implementierte neuronale Netze aus kleinen, miteinander vernetzten Recheneinheiten, die die Funktionsweise der Neuronen im Gehirn simulieren. Jedes einzelne Neuron berechnet eine vergleichsweise einfache, parametrisierte mathematische Funktion seiner Eingaben und übermittelt seine Ergebnisse an andere Neuronen, die damit weitere Berechnungen anstellen. Um komplizierte Aufgaben lösen zu können, muss ein neuronales Netz zum einen aus sehr vielen Neuronen bestehen, die heutzutage typischerweise in vielen aufeinanderfolgenden Schichten angeordnet werden, wodurch das Netz tief wird. Zum anderen muss jedes seiner Neuronen lernen, was es genau berechnen soll. Dazu werden die Parameter des Netzes zunächst zufällig initialisiert. Anschließend werden dem Netz in einer Trainingsphase Eingabedaten präsentiert, zu denen es Ausgaben berechnet. Falls diese vom gewünschten Ergebnis abweichen, werden die Parameter durch statistische Optimierungsalgorithmen so lange justiert, bis der durchschnittliche Ausgabefehler klein genug ist, um das Netz sinnvoll nutzen zu können.

An dieser Stelle stellt sich die Frage, wieso künstliche neuronale Netze in den letzten Jahren plötzlich so populär und gut geworden sind. Denn schließlich sind die zugrundeliegenden Ideen keinesfalls neu, sondern reichen bis in die 1940er Jahre zurück. Die Antwort ist fast banal: im Wesentlichen sind es vier Phänomene, die die Leistung dieser Technologie befeuert haben: Big Data, günstige Rechenleistungen, Open-Source-Bibliotheken und beträchtliche Investitionen in Know-how.

Je größer ein neuronales Netz ist, desto schwierigere Aufgaben kann es lösen. Gleichzeitig braucht es aber auch umso mehr Trainingsdaten, um seine Aufgabe optimal zu lernen. Im Zeitalter von Big Data sind Trainingsdaten für viele Anwendungen jedoch oft massenhaft vorhanden. Zugleich ist der Trainingsprozess für große Netze sehr rechenintensiv und dauerte früher wochen- oder monatelang. Seit einiger Zeit lassen sich die erforderlichen Berechnungen aber insbesondere dank leistungsstarker Grafikkarten in einem Bruchteil dieser Zeit durchführen. Zudem wird Software zum Training neuronaler Netze heutzutage in Open-Source-Projekten entwickelt, wodurch sich die Nutzung dieser Technologie vereinfacht und verbreitet, was Innovationen erleichtert. Und nicht zuletzt haben die Technologie-Giganten wie Google, Amazon oder Facebook das praktische Potential moderner neuronaler Netze frühzeitig erkannt und in den letzten Jahren Milliarden in Start-ups und Experten investiert, die ihre Arbeiten vermehrt wissenschaftlich publizieren und zu Open-Source-Projekten beitragen.

Big Data allein ist nicht genug, was modernes maschinelles Lernen braucht ist Thick Data.

All diese Entwicklungen und der einfache Zugang zu entsprechenden Technologien lassen ein weiterhin rasantes Fortschreiten der KI und eine zunehmende Automatisierung kognitiver Aufgaben erwarten. Gleichzeitig wird jedoch deutlich, dass die aktuelle Verfahrensgeneration in vielen praktischen Szenarien außerhalb der IT-Industrie an Grenzen stößt. Eines der fundamentalen Probleme ist, dass keineswegs immer genügend große, vorklassifizierte Trainingsdaten zur Verfügung stehen. Oft stellen insbesondere Unternehmen, die anfangen möchten, KI für ihre Prozesse und Produkte zu nutzen, fest, dass sie zwar massenhaft Daten haben, diese aber nicht in einer Form vorliegen, die ohne weiteres für maschinelles Lernen genutzt werden könnte. Während die Betreiber webbasierter sozialer Netzwerke oder ähnlicher Services annotierte Daten von ihren Nutzern quasi umsonst geliefert bekommen (man denke an die vielen Millionen mit Text versehenen Fotos, die jeden Tag bei Facebook oder Instagram hochgeladen werden), ist es für traditionelle Branchen oft mit erheblichem Aufwand verbunden, Daten so aufzubereiten, dass genügend Ein-/Ausgabepaare für das Training tiefer Netze vorliegen. Mit anderen Worten, Big Data allein ist nicht genug – was modernes maschinelles Lernen braucht ist Thick Data. Viele potentielle Nutzer verfügen tatsächlich aber nur über Thin Data.

Ein weiteres fundamentales Problem ist, dass Trainingsdaten fehlerhaft oder verzerrt sein können. Selbst die Giganten des Silicon Valleys sind hiervon betroffen. Legendär ist etwa ein Zwischenfall aus dem Jahr 2015 als Google-Fotos ein Bild, auf dem dunkelhäutige Menschen zu sehen waren, als "Gorilla" klassifizierte; die Entwickler der entsprechenden Bilderkennungssoftware hatten schlicht vergessen, nicht nur Bilder hellhäutiger Menschen in ihre Trainingsdaten aufzunehmen. Sobald das Problem erkannt war, ließ es sich durch entsprechendes Nachtraining einfach lösen. Generelle Methoden, die es erlauben würden, automatisch festzustellen, ob Trainingsdaten verzerrt sind, gibt es allerdings noch nicht. Dies ist durchaus kritisch, denn ein geflügeltes Wort besagt "garbage in, garbage out"; datengetriebene KI ist immer nur so gut, wie die Daten, mit denen sie trainiert wurde. Im schlimmsten Fall wäre es denkbar, dass ein Anbieter eines KI-Systems bewusst mit verzerrten Daten trainiert, beispielsweise in der Finanzbranche, wo auf diese Art und Weise Kaufs- oder Verkaufsentscheidungen manipuliert werden könnten. Dieses eher hypothetische Szenario zeigt unmittelbar das letzte fundamentale Problem auf.

Rein datengetriebene KI-Systeme sind oft Black Boxes, deren interne Berechnungen nicht unmittelbar transparent oder nachvollziehbar sind. Anders gesagt ist zwar sehr gut verstanden, wie ein neuronales Netz rechnet und funktioniert, welche seiner Millionen gekoppelten Berechnungen letztendlich konkret dazu führen, dass eine gewisse Ausgabe produziert wird, ist im praktischen Einsatz aber typischerweise nicht zu erkennen. Dies ist immer dann problematisch, wenn KI-Technologien dort genutzt werden sollen, wo Entscheidungsfindungsprozesse aufgrund rechtlicher Vorgaben zwingend nachvollziehbar sein müssen, etwa in der Kreditvergabe oder bei der Steuerung kritischer Anlagen oder Infrastrukturen. Zwar gibt es hier Bestrebungen, mit Methoden der "Neural Network Tomography" die inneren Prozesse neuronaler Netze zu visualisieren und anschaulicher zu machen, das generelle Problem bleibt aber bestehen. Es reicht schlicht nicht aus, zu erkennen, dass ein bestimmtes Neuron in den Tiefen eines Netzes bei einer bestimmten Art von Eingabe immer besonders aktiv ist. Regelartige Erklärungen lassen sich daraus (noch) nicht ableiten.

Diesen Problemen muss sich Forschung und Entwicklung zum maschinellen Lernen stellen, um künftig eine möglichst breitflächige und möglichst risikolose Nutzung zu ermöglichen. In der Tat rückt das Problem der erklärbaren KI (explainable AI) zunehmend in den Fokus der Forschung. In Bezug auf das maschinelle Lernen ergeben sich hier mehrere Ansätze. Hinsichtlich des Problems geringer Trainingsdaten werden etwa sogenannte Transfer-Learning-Verfahren untersucht, die es erlauben, Systeme auf einer Domäne, für die es viele Daten gibt, anzulernen und dann mit vergleichsweise wenig Daten auf das eigentliche Problem anzupassen. Eine andere Idee, mit wenig Trainingsdaten umzugehen und gleichzeitig größere Robustheit und bessere Nachvollziehbarkeit zu erreichen, ist Informed Machine Learning.

Noch ist maschinelles Lernen nicht so universell nutzbar, wie es wünschenswert wäre.

Hier ist die Beobachtung, dass Anwender in der Praxis oft sehr viel über den Bereich wissen, in dem ein KI-System eingesetzt werden soll. Es gilt also dieses Expertenwissen zu nutzen, um hybride KI-Systeme zu entwickeln, die sowohl daten- als auch wissensgetrieben funktionieren. Auch diese Idee ist nicht neu, jedoch ergeben sich auch hier dank jüngster Fortschritte, etwa im Bereich der semantischen Technologien oder der Meta-Lernverfahren, neue Möglichkeiten. Besonders erfolgsversprechend sind dabei Methoden, bei denen Reinforcement Learning eingesetzt wird, um zu lernen, welche vorformulierten und bewährten funktionalen Module auf welche Art und Weise zu einem größeren System komponiert werden könnten, um ein neuartiges Problem zu lösen oder um verschiedene Lösungen zufällig – aber gezielt – zu erzeugen und zu bewerten.

Zusammenfassend bleibt festzustellen, dass maschinelles Lernen mittlerweile eine Alltagstechnologie ist, die in vielen Bereichen unseres professionellen und privaten Lebens erfolgreich eingesetzt wird. Nach der Euphorie der letzten Jahre hat aber insbesondere bei Praktikern mittlerweile eine gewisse Ernüchterung eingesetzt, denn noch ist maschinelles Lernen nicht so universell nutzbar, wie es wünschenswert wäre. Probleme etwa in Bezug auf Verlässlichkeit und Robustheit sind nun jedoch gut verstanden und werden weltweit aktiv beforscht. Es bleibt also weiterhin spannend, vor allem da weitere Disruptionen jederzeit möglich sind, etwa durch künftige bahnbrechende Entwicklungen im Bereich des Quantencomputings, die viele der harten Berechnungsprobleme im maschinellen Lernen deutlich vereinfachen würden.

Autor

Prof. Dr. Christian Bauckhage

Prof. Dr. Christian Bauckhage ist Professor für Informatik an der Universität Bonn, wissenschaftlicher Direktor des Fraunhofer-Zentrums für Maschinelles Lernen und Lead Scientist für Maschinelles Lernen am Fraunhofer-Institut für...
>> Weiterlesen
Das könnte Sie auch interessieren
botMessage_toctoc_comments_9210