KI-Algorithmen

Roboter trainieren im Dunkeln

Von Christian Raum · 2019

Menschlich aussehender Roboter
KI-Algorithmen werden nach dem Training in die Roboter implementiert. Foto: iStock/PhonlamaiPhoto

Künstliche Intelligenzen können bei Geschäftsprozessen, Analysen oder Vorhersagen häufig die klassischen Methoden übertreffen. Die Aufgabe von Datenanalysten und Softwareentwicklern ist herauszufinden, welche Algorithmen dies leisten können und wie diese mathematischen Modelle für ihre Aufgaben vorbereitet werden sollen.

Am Anfang eines Projektes stehen unsortierte Rohdaten. Der Auftrag an den Data-Scientist ist es, über diese Daten hinweg eine Künstliche Intelligenz zu konstruieren. Deren Aufgabe ist zu „lesen“ und zu analysieren, welche Inhalte in den Daten stecken.

Als „Künstliche Intelligenz“ bezeichnen Datenanalysten und Softwareentwickler häufig die komplette Pipeline von Entwicklung und Training – also von den Rohdaten bis zur Vorhersage – und bis zur Implementierung der erstellten Software.

Wichtige Schritte auf diesem Weg sind die Auswahl und die Vorverarbeitung der Daten, die Qualitätssicherung. Auch die Analyse verschiedener mathematischer Modelle und die Entscheidung, welches Modell am Ende für die definierte Aufgabe ausgewählt wird, fällt für die Praktiker unter die Bezeichnung „KI“. 

Supercomputing ist Vorbild

Der entscheidende Teil der Softwareentwicklung ist allerdings das sogenannte „Training“ der Algorithmen. Das hierzu genutzte neuronale Netz basiert auf dem Konzept des Supercomputings. Die Software wird in einzelne Pakete zerlegt und im nächsten Schritt über hunderte Prozessoren verteilt. Die bisherige Logik des linearen Rechnens wird durchbrochen. Mit dem parallelen Einsatz der Prozessoren nutzen Datenanalysten eine bislang nicht vorstellbare Rechenleistung. 

In diesem Prozessorennetzwerk lernen die Algorithmen je nach beauftragter Anwendung Inhalte von Bildern oder auch Muster in Daten zu erkennen und zu unterscheiden. Dieser Prozess wird mehrmals wiederholt, geprüft, verfeinert, neu angestoßen und wieder überprüft. Schließlich kommt der Punkt, an dem das Entwicklerteam die Vorhersagegüte nicht weiter verbessern kann; die Softwareentwicklung ist abgeschlossen. 

Der Algorithmus wird als die neue Künstliche-Intelligenz-Anwendung in einem Rechenzentrum, auf einem Smartphone oder einem Analysegerät installiert. Hier macht er Vorhersagen oder generiert Sprache oder kann Bilder erkennen.

Wichtig ist das Vertrauen der Verantwortlichen in die neue Anwendung. Denn sie werden häufig feststellen, dass ihre Künstliche Intelligenz zu verschiedenen Dingen eine eigene Meinung hat. Sie nimmt die Wirklichkeit womöglich anders wahr und liefert neue, überraschende Erkenntnisse.

KI-Algorithmen: Risiken und Chancen

Natürlich gibt es immer einen Vergleich von alten und neuen Methoden, von Vorteilen und Risiken, von den Vorschlägen und Erkenntnissen einer Künstlichen Intelligenz: Vor einem Projekt sollte es immer eine Abwägung zwischen den Vorteilen von maschinellem Lernen im Vergleich zu den bisher angewendeten „klassischen“ Methoden geben. Bringen die neuen mathematischen Modelle tatsächlich einen Mehrwert?

Bei ihrer Aufgabe Informationen zu extrahieren, können KI-Algorithmen sehr komplexe Sachverhalte darstellen. Aber wie sollen Entwickler reagieren, wenn die Algorithmen Ergebnisse darstellen, mit denen kein Mensch gerechnet hat und die ein grundsätzlich anderes Herangehen an bestimmte Probleme nahelegen?

Eine weitere Stärke – allerdings auch das größte Risiko – ist, dass Algorithmen nicht lineare Zusammenhänge sehen und zeigen. Weil aber ein neuronales Netz eine Blackbox ist, wird kein Mensch erfahren, was die Systeme warum gelernt haben. Eine weitere ungeklärte Frage ist: Was passiert, wenn es zwischen den gelernten Mustern offensichtlich keinen Zusammenhang gibt? 

Und auch in winzig kleinen Signalen, die Menschen nicht sehen oder fast für Rauschen halten, können Algorithmen eine Bedeutung sehen. Doch auch hier ist die Trennlinie unscharf. Es gibt das Risiko, dass ein Algorithmus anfängt Netzrauschen zu lernen. Wird also das neuronale Netz scheitern, wenn es im Netzrauschen Muster „vermutet“, die es gar nicht gibt? 

Schlechte Daten bringen falsche Ergebnisse

Am Ende sind es also doch wieder menschliche Mitarbeiterinnen und Mitarbeiter, die die Ergebnisse interpretieren und einordnen müssen. Sie sollten den Gedanken nicht vernachlässigen, dass es nicht nur die Algorithmen sind, die das Ergebnis bestimmen. Wichtig sind die Daten selbst und deren Vorverarbeitung für das Training. Allzu häufig können sie schlechte und offensichtlich falsche Ergebnisse bis zu der ungenügenden Qualität der Datensätze nachverfolgen. Denn Algorithmen sind nicht so intelligent, dass sie berichten könnten, was ihnen in den neuronalen Netzen antrainiert wurde – und wo „Lücken“ oder Fehlerquellen zu vermuten sind. 

Array
(
    [micrositeID] => 54
    [micro_portalID] => 25
    [micro_name] => Künstliche Intelligenz
    [micro_image] => 4597
    [micro_user] => 1
    [micro_created] => 1526545484
    [micro_last_edit_user] => 1
    [micro_last_edit_date] => 1567517696
    [micro_cID] => 2186
    [micro_status] => 1
    [micro_cache] => 0
    [deleted] => 0
)