Zurück zum Blog

Die vier „reinen“ Lernstile im maschinellen Lernen - Strukturierung von ML-Konzepten

Menschen beginnen zu erkennen, dass einige Techniken, die zuvor als Unsupervised Learning angesehen wurden, zutreffender als Self-Supervised Learning bezeichnet werden sollten. Lassen Sie uns das näher erläutern.

20. Mai 2020

AI

Industry

Industry

part 1 graphic image
part 1 graphic image
part 1 graphic image

Hinweis: Dieser Artikel wurde erstmals auf Towards Data Science Medium veröffentlicht.

In der Kolumne „Structuring Machine Learning Concepts“ versuche ich, Konzepte aus dem Bereich des Machine Learning (ML) in neue, potenziell ungewöhnliche Rahmen zu übertragen, um neuartige Perspektiven zu bieten. Der Inhalt richtet sich an Menschen in der Data-Science-Community sowie an technisch versierte Personen, die sich für das Gebiet des ML interessieren.

Einführung

Im Jahr 2015, als ich begann, ML in Stanford aufzugreifen, waren die Konzepte und Definitionen darum herum ziemlich strukturiert und leicht zu verstehen. Mit dem rasanten Wachstum des Deep Learning in den letzten Jahren hat die Vielfalt der verwendeten Begriffe und Konzepte enorm zugenommen. Dies kann Neulinge auf dem Gebiet, die mehr über das Thema erfahren möchten, frustrieren und verwirren.

Der Auslöser für das Schreiben dieser Ausgabe von „Structuring Machine Learning Concepts“ war die Konzeptverwirrung, die die jüngsten Durchbrüche in Natural Language Processing (NLP) und Computer Vision auf den Tisch gebracht haben. Die Menschen beginnen zu erkennen, dass einige Techniken, die zuvor als Unsupervised Learning angesehen wurden, besser als Self-Supervised Learning bezeichnet werden sollten. Lassen Sie uns darauf näher eingehen.

Überwachtes, selbstüberwachtes, unbeaufsichtigtes und Verstärkungslernen

Wenn Menschen über die verschiedenen Formen des maschinellen Lernens sprechen, beziehen sie sich normalerweise auf Überwachtes Lernen (SL), Unbeaufsichtigtes Lernen (UnSL) und Verstärkungslernen (RL) als die drei Lernstile. Manchmal fügen wir Halbüberwachtes Lernen (SemiSL) hinzu, das Elemente von SL und UnSL kombiniert. Im Jahr 2018 begann eine neue Art von NLP-Algorithmen an Popularität zu gewinnen und führte dazu, dass der berühmte Forscher Yann LeCun 2019 das Konzept des selbstüberwachten Lernens (SelfSL) prägte.

Leichte Definitionen — die ursprünglichen vier Lernstile

  • SL: Wir verwenden einen Datensatz, bei dem wir ein bestimmtes Ziel vorhersagen möchten, basierend auf anderen Merkmalen (z.B. eine Tabelle) oder rohen Eingaben (z.B. ein Bild). Dies könnte in Form einer Klassifikation (Vorhersage eines kategorischen Wertes — „Ist das eine Katze oder ein Hund?“) oder einer Regression (Vorhersage eines numerischen Wertes — „Wie katzenhaft ist dieses Bild?“) erfolgen.

  • UnSL: Angenommen, wir haben nur die Rohdaten (z.B. nur einige Benutzerdaten in Tabellen ohne Ziel oder viele Bilder ohne zugehörige Informationen). Unser Ziel ist es, nach bisher unentdeckten Mustern zu suchen, z.B. Clustern oder Strukturen, die neue Einsichten geben und unsere Entscheidungsfindung leiten können.

  • RL: Hervorheben tut sich RL normalerweise, da es nicht an einem vorab gesammelten Datensatz arbeitet, sondern versucht, eine Aufgabe in einer Umgebung durch das Ergreifen von Maßnahmen und das Beobachten der Belohnung zu meistern. Bis wir explizit eine Belohnungsfunktion festlegen, um den Agenten dazu zu motivieren, sich entsprechend zu verhalten, hat er keine Ahnung, was er in der gegebenen Umgebung tun soll. Videospiele sind ein perfektes Beispiel: Der Spieler (Agent) versucht, seine Punktzahl (Belohnung) zu maximieren, indem er mit dem Videospiel (Umgebung) interagiert.

  • SemiSL: Wird oft als vierter Lernstil hinzugefügt, der an einem Datensatz mit festgelegten Zielen arbeitet und an einem anderen, häufig größeren, ohne Ziele. Das Ziel ist es, die Etiketten unbeschrifteter Datenpunkte mithilfe des Wissens aus den beschrifteten Datenpunkten abzuleiten und so das bestmögliche Modell zu erstellen, um Eingaben den Zielen zuzuordnen. Stellen Sie sich vor, Sie hätten Zugang zu Datenpunkten einer Produktionsmaschine, die in zwei Cluster gruppiert werden können. Aus dem beschrifteten Datensatz wissen Sie, dass alle unbekannten Datenpunkte, die mit einem Fehler in Verbindung stehen, in Cluster „A“ fallen und alle normalen Zustände in Cluster „B“ landen; daher die Annahme, dass alle Punkte in „A“ kritisch sind und die in „B“ nicht.

SemiSL fallen lassen für SelfSL

Zu den vier Lernstilen gibt es zwei Dinge zu erwähnen:

Wie bereits angedeutet, wird das meiste der in der Computer Vision und NLP kürzlich durchgeführten UnSL besser als SelfSL beschrieben. Dieser neue Lernstil wird nicht mithilfe einer gegebenen Ground-Truth überwacht, sondern mithilfe der in den Trainingsdaten enthaltenen Informationen. Es gibt jedoch immer noch Teile der „alten Familie“ der UnSL-Algorithmen, die wirklich unbeaufsichtigt sind und einen Nähe- oder Ähnlichkeitsmaß zwischen Datenpunkten verwenden, um zu entscheiden, was eine gute Passform ist (und unsere Verlustfunktion zu leiten).

Außerdem sollte man bedenken, dass SemiSL kein Teil dieser „reinen“ Lernstile sein sollte. Erstens ist es eher ein Mix aus zwei „reinen“ Lernstilen und zweitens involviert sein Grundaufbau den Besitz von zwei verschiedenen Datensätzen, einen beschrifteten und einen unbeschrifteten. Daher bewahren wir SemiSL für den nächsten Beitrag der Serie „Structuring Machine Learning Concepts“ auf, in dem wir detaillierter über die Verarbeitung unbeschrifteter Daten sprechen werden.

Leichte Definitionen — eine neue Aufteilung

  • SelfSL: Wir haben nur Rohdaten (z.B. Bilder oder viel Text) und wollen die impliziten Informationen daraus erfassen. Wir tun dies, indem wir (Teile der) Rohdaten als Ziel verwenden. In einem Autoencoder verwenden wir den „Rekonstruktionsverlust“, d.h. wir vergleichen das dekodierte Bild mit der ursprünglichen Eingabe. In großen Sprachmodellen „verstecken“ wir Teile des Satzes, um sie dann als Vorhersageziel zu verwenden, nur unter Verwendung der umgebenden Wörter (z.B. Marry ____ ihren Mann → [liebt]).

  • UnSL (überarbeitet): Im Gegensatz zu SelfSL messen wir nicht die „Passform“ unseres Modells basierend auf einer „versteckten“ Ground-Truth, sondern die implizite Nähe der „transformierten Eingabe“, d.h. den Abstand von Datenpunkten im Merkmalsraum. Wir können beeinflussen, wie diese Passform definiert wird, z.B. wenn wir erwarten, dass die Cluster dicht sind oder kontinuierlich verknüpft, aber das Näheziel bleibt unangetastet. Ein Beispiel wäre das Clustern von Nutzern nach Verhalten auf einer bestimmten Plattform und die Verwendung der zugewiesenen Cluster zur Steuerung Ihrer Marketingstrategien.

Die 2x2 Matrix

2x2 matrix mapping SL, UnSL, SelfSL and RL

Ich schlage eine einfache 2x2 Matrix vor, die SL, UnSL, SelfSL und RL auf zwei Achsen abbildet, die folgende Fragen beantworten:

Existiert die Ground-Truth?

Ja
Für SL und SelfSL gibt es eine Ground-Truth, die wir benutzen, um unsere Verlustfunktionen und Metriken zu erstellen. Sei es das „Katzen“-Label auf einem Bild für SL, das den „kategorialen Kreuzentropie-Verlust“ und die „Genauigkeit“ antreibt, oder das „versteckte“ Wort in einem Satz (Marry [liebt] ihren Mann) für SelfSL, wo wir „negative Log-Likelihood“ als Verlust verwenden und „Perplexität“ messen.

Nein
Für UnSL und RL gibt es keine solche Ground-Truth. Wir haben Maßnahmen, die „gute Passform“ oder „erwünschtes Verhalten“ beschreiben, aber nichts Vergleichbares zur „Genauigkeit“. Bei „k-means Clustering“ von UnSL können wir beispielsweise den „durchschnittlichen Abstand zum Cluster-Mittelwert“ messen und im RL versuchen wir, die „kumulative Belohnung“ zu maximieren, die wir aus der Umgebung erhalten.

Ist das Ziel explizit oder implizit gegeben?

Explizit
In SL und RL haben wir eine explizite Wahl, was wir aus den Daten oder unserem Agenten herausholen möchten. Für SL ist es unsere Wahl, ein „Katzen- und Hundearten-Klassifikations“-Problem in ein einfaches „Katzen- und Hunde-Klassifikations“-Problem zu verwandeln, indem wir die Labels neu zuweisen. Beim Einsatz von RL zum Meistern von Multiplayer-Computerspielen können wir wählen, ob wir unseren Agenten dazu motivieren, als Teamspieler zu agieren, indem wir die für den Gruppennutzen getroffenen Maßnahmen belohnen, oder als Egoist zu handeln, indem wir ausschließlich individuelle Maßnahmen belohnen.

Implizit
Wir können jedoch nicht extrinsisch die Natur eines Bildes oder einer Sprache in SelfSL diktieren. Wir können sicherlich einige Details ändern, aber der „Rekonstruktionsverlust“ wird immer zwei Bilder vergleichen, und für Sprachmodelle werden wir immer mit Lerntasks herauskommen, die die Sätze selbst betrachten. Mit klassischem UnSL sind wir implizit damit beschäftigt, Datenpunkte zu finden, die nah beieinander liegen, z.B. zwei Nutzer, die auf sozialen Medienplattformen ein ähnliches Verhaltensmuster hinterlassen.

Abschluss

In diesem Beitrag haben wir die „reinen“ Lernstile im ML neu definiert, indem wir UnSL und SelfSL voneinander trennen und SemiSL aus der Gleichung herauslassen. Dies führt uns zu den vier Konzepten von SL, UnSL, SelfSL und RL, die wir in einem einfachen Rahmen anordnen können (offenlegungspflichtig: Ich habe eine Weile in der Beratung gearbeitet). Die 2x2 Matrix strukturiert sie danach, ob eine Ground-Truth existiert und ob das Ziel explizit oder implizit gegeben ist.

Wenn Sie andere unkonventionelle Zuordnungen, Gedanken zu diesem Thema haben oder an unserer Arbeit bei Luminovo interessiert sind, würde ich mich freuen, von Ihnen zu hören. Sie können einen Kommentar hinterlassen oder mich auf Linkedin erreichen.

Bleiben Sie für die nächsten Artikel auf dem Laufenden.

Weitere Blog-Artikel

Neueste Blog-Artikel

Sebastian Schaal
Inga Schwarz
Patrick Perner

Kostenfreie Demo buchen

Lassen Sie sich von unseren Produktspezialisten durch die Plattform führen, alle für Ihren individuellen Anwendungsfall relevanten Funktionalitäten ansprechen und alle Ihre Fragen direkt beantworten. Oder sehen Sie sich ein 5-minütiges Video der wichtigsten Funktionen an.