Kluge Maschinen sind auf dem Vormarsch

Shallow Learning und Deep Learning

Häufig kommen beim maschinellen Lernen künstliche neuronale Netze (KNN) zum Einsatz, die die Informationsverarbeitung im Gehirn zum Vorbild haben. Wie dort lernen diese Netze, indem Verbindungen zwischen Neuronen verstärkt oder unterdrückt werden, sich die Gewichtung der Neuronen ändert, neue Neuronen hinzukommen oder inaktive abgebaut werden. Je nach Komplexität der verwendeten neuronalen Netze spricht man dabei von Shallow Learning oder Deep Learning. Beim Shallow Learning kommen nur ein oder wenige Neuronen zum Einsatz, Deep-Learning-Verfahren wie rekurrente oder "gefaltete" neuronale Netze, sogenannte Convolutional Neural Networks, basieren auf komplexeren, mehrschichtigen Strukturen und können mehr als 1000 Neuronenschichten enthalten.
Neuronale Netze sind aber nicht die einzige Methode für maschinelles Lernen. Lernende Filter, etwa zur Spam-Erkennung, basieren beispielsweise meist auf dem Satz von Bayes (Bayes-Theorem), mit dem sich bedingte Wahrscheinlichkeiten berechnen lassen. So zieht die Machine auch mit unsicherem Wissen Schlussfolgerungen.
Bei Klassifizierungen oder Kategorisierungen beispielsweise von Texten, Bildern oder numerischen Werten kommen häufig weitere Machine-Learning-Methoden wie die logistische Regression, Support Vector Machine (SVM), Relevance Vector Maschine (RVM), Entscheidungsbäume (Decision Trees), Bootstrap Aggregating (Bagging), Stochastic Gradient Descent (SGD) oder Random Forests zum Einsatz.

Eigene Machine-Learning-Projekte

Machine Learning bietet faszinierende Möglichkeiten und hat sich in den vergangenen Jahren rasant weiterentwickelt. Jürgen Wirtgen, Data Platform Lead bei Microsoft, warnt dennoch vor unrealistischen Erwartungen: "Der am meisten verbreitete Mythos ist, dass Machine Learning Antworten liefert, ohne dass Fragen gestellt werden." Am Anfang eines Projekts müssten deshalb eine klare Zieldefinition und die da­raus abgeleiteten richtigen Fragen stehen, so Wirtgen weiter.
Sind diese Fragen gefunden, ist das System zu trainieren - ein weiterer Punkt, der Probleme mit sich bringen kann, weiß AWS-Director Herbrich: "Oft sind weder genügend Daten noch Daten von ausreichend guter Qualität direkt verfügbar." Dabei müssen die Daten nicht nur aus den verschiedenen Quellsystemen extrahiert und zusammengeführt, sondern auch für die Analyse aufbereitet, transformiert und auf die relevanten Parameter reduziert werden.
“"Wir sehen eine große Nachfrage in Vertriebs- und Marketing­abteilungen, die mit Hilfe historischer Daten das Kaufverhalten des Kunden vorhersagen wollen."„
Jakob Rehermann
Geschäftsführer
bei Datapine
Es gibt bereits erste Software-Lösungen am Markt, die Daten analysieren und Anpassungen vorschlagen, sagt Data­pine-Chef Rehermann. "Generell aber ist die Aufbereitung der Daten stark abhängig vom angewendeten Algorithmus und kann nur bedingt automatisiert werden."
Eine weitere Frage, die sich nicht ohne Weiteres automatisiert klären lässt, ist die nach der Kostenfunktion. Der Zusammenhang zwischen Nutzen und Aufwand kann beispielsweise linear, progressiv, degressiv oder auch sprunghaft sein. "Beim Einsatz von Machine Learning (…) ist die Kostenfunktion zu finden, die am besten zum Geschäftsproblem passt, das gelöst werden soll", sagt AWS-Director Herbrich. Bei der Betrugserkennung beispielsweise muss man die Kostenfunktion finden, die Betrugsfälle minimiert, ohne inakzeptabel viele Fehlalarme auszulösen.
Zwei weitere typische Probleme beim Einsatz von Machine Learning sind die Auswahl des geeigneten Algorithmus sowie die Interpretation der Ergebnisse. Die größte Schwierigkeit dabei ist es, unter einer Vielzahl von Ansätzen den sinnvollsten Algorithmus für den aktuellen Anwendungsfall zu finden. „Basierend auf der dabei zugrunde liegenden Logik muss evaluiert werden, wie das Ergebnis interpretiert wird beziehungsweise wie aussagekräftig dieses ist“, sagt Jakob Rehermann von Datapine.




Das könnte Sie auch interessieren