Zurück zum Blog

Mythenentschlüsselung: 7 Häufige Mythen über KI

Künstliche Intelligenz ist eines der am meisten gehypten Themen der letzten Jahre. Natürlich hat viel oberflächliches Wissen seinen Weg in die Presse und das Bewusstsein der breiten Öffentlichkeit gefunden. In diesem Beitrag möchte ich einige dieser Missverständnisse aufdecken.

6. Juni 2018

AI

Industry

Industry

image of zeus the mythic god
image of zeus the mythic god
image of zeus the mythic god

Künstliche Intelligenz ist eines der meist gehypten Themen der letzten Jahre. Natürlich hat eine Menge oberflächliches Wissen seinen Weg in die Presse und die Köpfe der breiten Öffentlichkeit gefunden. In diesem Beitrag möchte ich einige dieser Missverständnisse aufdecken.

Mythos #1: Künstliche Intelligenz, Machine Learning, Deep Learning ist im Grunde alles dasselbe

AI, ML and Deep Learning Graph

Es ist nicht leicht, sich im Dschungel der Schlagworte rund um Künstliche Intelligenz (KI) zu orientieren. Neben KI sind zwei weitere Begriffe, die häufig auf Startup-Präsentationen und in Zeitungsartikeln auftauchen: Machine Learning (ML) und Deep Learning (DL). Obwohl sie oft synonym verwendet werden, sind diese drei keine Synonyme.

KI löst eine Aufgabe, die üblicherweise menschliche Intelligenz erfordert.
ML löst eine spezifische KI-Aufgabe durch Lernen aus Daten, und stellt somit eine strikte Untermenge der KI dar.
DL löst ein ML-Problem unter Verwendung von neuronalen Netzwerken (NNs) als Algorithmus. Erneut haben wir eine strikte Untermenge, wie in der Illustration zu sehen ist.

Wenn wir KI ohne ML verwenden, setzen wir normalerweise regelbasierte Methoden ein, die Aufgaben wie automatisierte Planung oder Suche übernehmen.
Wenn man ML ohne DL betreibt, spricht man oft von traditionellem ML, wobei man sich überwiegend auf gut erforschte statistische Methoden stützt.

Mythos #2: KI lernt von selbst

Reinforcement learning in AI

Viele Menschen denken, dass eine KI etwas Magisches ist, das sich automatisch immer weiter verbessert. In den meisten der heute verwendeten ML-Systeme wurde das System auf historischen Daten trainiert, d.h., es wurden ihm viele vergangene Beispiele gezeigt und daraus ein allgemeines Verständnis geschaffen. Bei Einsatz in der Produktion nutzt es dieses Wissen, um Einschätzungen über neue, noch nie gesehene Beobachtungen zu treffen. Und oft ist das dann auch das Ende davon.

Wenn man die Gelegenheit hat, diese Einschätzungen (z.B. Vorhersagen) mit der (möglichen zukünftigen) Realität abzugleichen, erhält man Feedback darüber, wie gut das Modell abgeschnitten hat. Im Idealfall kann man, wenn man viel Feedback sammeln kann, schließlich sein Modell neu trainieren, um frühere Fehler zu verbessern. Doch in den meisten Fällen geschieht dies nicht automatisch und in Echtzeit, sondern erfordert einen Ingenieur und einige zusätzliche Anpassungen, um wirksam zu sein.

Dem Mythos am nächsten kommt das Konzept des Verstärkungslernens, bei dem ein Agent durch Interaktion mit einer Umgebung und Beobachtung der Ursachen seiner Handlungen lernt.

Mythos #3: Neuronale Netzwerke sind wie das menschliche Gehirn

Biological Neuron

Oft wird die Leistung künstlicher NNs damit gerechtfertigt, dass sie wie das menschliche Gehirn arbeiten. Wenn man dies in einem Gespräch mit jemandem mit biologischem Hintergrund erwähnt, wird es ihm wahrscheinlich die Augen rollen lassen.

Biologische NNs mit Neuronen als Kerneinheit sind unglaublich komplexe Systeme, die wir gerade erst beginnen zu verstehen. Sie existieren in vielen verschiedenen physischen Strukturen, erfüllen unterschiedliche Aufgaben im menschlichen Körper, z.B. als Sensor oder Motor. Neuronen übertragen Informationen und speichern ihren inneren Zustand über elektrische Impulse und ihr elektrisches Potential. Wenn ein bestimmter Potentialwert im Zellkörper überschritten wird, entlädt sich das Neuron über ein Aktionspotenzial und überträgt Informationen an benachbarte Neuronen. Diese Übertragung kann in regelmäßigen, schnellen oder explodierenden Mustern stattfinden.

In NNs vergleicht ein Neuron die gewichtete Summe seiner Eingänge (Aktionspotenzial benachbarter Neuronen) mit seinem Bias-Term (Schwellenwertpotential). Wenn die Differenz positiv ist, sendet das Neuron die Informationen durch eine Nichtlinearität oder Aktivierungsfunktion (versuchend, das Aktionspotenzial eines biologischen Neurons zu imitieren). Das ist wahrscheinlich das Weiteste, das wir mit dieser Analogie gehen können. Abgesehen davon, dass einige der komplexeren Funktionen fehlen, kommen NNs nicht annähernd an die Leistung des menschlichen Gehirns heran. Besonders in Bezug auf Effizienz sind unsere Gehirne Lichtjahre von allem Menschengemachten entfernt.

Mythos #4: Wir sind nahe an der Superintelligenz

AI solving math problems

Es gibt viele hochgeschätzte Menschen, die nicht aufhören können, vor der KI-Apokalypse, der Singularität, dem Aufstieg von Superintelligenz oder Künstlicher Allgemeiner Intelligenz (AGI) zu warnen. Um fair zu sein, ist es schwer, korrekt vorherzusehen, was passieren wird, wenn eine Maschine zum ersten Mal intelligenter ist als ihr Schöpfer. Aber bis dahin ist es noch ein weiter Weg.

Vom Machbarkeitsstandpunkt aus liegt AGI irgendwo zwischen der Besiedlung des Mars und dem Teleportieren (was physikalisch unmöglich ist, soweit wir heute wissen). Für das Erstere wissen wir ziemlich gut, welche Herausforderungen wir überwinden müssen, um es möglich zu machen, z.B. effizientere Raketen bauen und einen Weg finden, nachhaltig Nahrung anzubauen. Bei AGI gibt es keinen solchen Plan. Niemand weiß, welche zusätzlichen Herausforderungen wir überwinden müssen, bis wir AGI erreichen, aber wir wissen auch, dass es nicht physikalisch unmöglich ist. Jedenfalls sollten wir keine Angst davor haben, morgen von den Maschinen gestürzt zu werden.

Mythos #5: Man braucht eine gigantische Menge an Daten

Neural network: pre-trained model and Nanonet

Oft sagt man, dass man Zugriff auf große Mengen an Daten haben muss, damit ML effektiv ist. Es stimmt, dass mehr Daten (mit hoher Qualität) fast immer bessere Leistung bringen. Und es stimmt auch, dass das Training eines tiefen NN von Grund auf (z.B. für Computer Vision) Millionen von Bildern erfordern kann.

Diese Millionen von Bildern müssen jedoch nicht alle aus Ihrem Datenarchiv stammen und spezifisch für Ihr Problem sein. Besonders im Bereich der Computer Vision funktioniert das Konzept des Transfer Learning sehr gut, bei dem man mit einem Netzwerk beginnt, das auf einem großen Datensatz vortrainiert wurde, um ein ähnliches Problem zu lösen. Nun kann man nur die letzten Teile seines Netzwerks (im Bild als NanoNet bezeichnet), die sehr spezifisch für den Anwendungsfall sind, erneut trainieren. Statt ein paar zehntausend Bilder pro Ereignis, das Sie erkennen möchten, benötigen Sie nur ein paar hundert.

Mythos #6: KI ist eine Blackbox

Deep Neural network and it's visualisations of its intermediate representations

Zurück zu Mythos #1 haben wir bereits gelernt, dass der Teil der KI, der nicht ML ist, hauptsächlich auf Regeln basiert. Diese sind sehr stark Whitebox, da ein Mensch sie manuell entworfen hat. Die statistischen Methoden des traditionellen ML sind sehr gut verstanden und Menschen können einige einfache Methoden wie Entscheidungsbäume perfekt interpretieren. Einige Methoden (z.B. Ensemble-Methoden), die Tausende von Einzelmodellen (z.B. einen Entscheidungsbaum) aggregieren, können immer noch anhand ihrer Statistiken interpretiert werden.

Die Quelle des Blackbox-Mythos' sind NNs. Sie können immer noch versuchen, ein Verständnis der Zwischenrepräsentationen des Netzwerks zu gewinnen. Allerdings ist deren Rohanalyse oft nicht sehr aufschlussreich. Man kann Visualisierungen erhalten, indem man ein Eingabebild ändert, um einen bestimmten Teil des Netzwerks voll zu aktivieren, aber die genauen inneren Abläufe lassen Spielraum für Interpretationen. Wenn Sie mehr über die Visualisierung von NNs lesen möchten, kann ich diesen Google-Blog sehr empfehlen.

Mythos #7: GAFAM regiert alles

GAFAM and their learning frameworks

Wenn Sie die Liste hochgeschätzter Veröffentlichungen der letzten Jahre durchblättern, kommt die große Mehrheit aus den Forschungslabors der GAFAM-Tech-Giganten (Google, Apple, Facebook, Amazon und Microsoft). Diese Tatsache führt Menschen zu der Schlussfolgerung, dass GAFAM den ML-Bereich vollständig dominieren. Das ist sowohl wahr als auch nicht wahr.

Zuerst müssen wir die Dynamik von Open Source in der ML-Community verstehen. Es ist zur gängigen Praxis geworden, dass Forscher nicht nur ein Papier veröffentlichen, sondern auch den größten Teil des Codes anhängen, den sie verwendet haben, um die Ergebnisse zu erzielen. Diese Sharing-Kultur ermöglicht es anderen, von früheren Forschungsergebnissen zu profitieren und direkt mit ihren Experimenten auf dem neuesten Stand der Technik zu beginnen. GAFAM haben diesem Trend gefolgt und eine beträchtliche Menge ihrer Forschung veröffentlicht. Aber was noch wichtiger ist, jeder einzelne von ihnen hat eine Version seines internen DL-Frameworks als Open Source freigegeben, die den Aufbau neuer Modelle erleichtert, indem sie eine Menge vorgefertigter Funktionen bietet.

Diese ganze Entwicklung hat ein neues Leitprinzip beim Nachdenken über ML hervorgebracht: „Es geht nicht um die Algorithmen, es geht um die Daten“. Wenn die aktuellsten Algorithmen/Modelle immer veröffentlicht werden, gewinnt derjenige, der die Netzwerke mit dem umfangreichsten für die jeweilige Aufgabe geeigneten Datensatz trainiert. Zwei bedeutende Startup-Beispiele aus Deutschland sind DeepL und EyeEm, die beide Google in einer ihrer Kerndisziplinen (Übersetzung und Bilderkennung) übertrumpft haben, nur weil sie einen hochwertigeren Datensatz für ihre spezielle Aufgabe erworben haben.

Fazit

Ich denke, jeder von uns war schon einmal Opfer davon, an einen Mythos zu glauben und erlebte den peinlichen Moment, als wir das erste Mal darüber herausgefordert wurden. Mit diesem Beitrag hoffe ich, Sie vor einigen dieser Momente bewahrt und Ihnen genug Einblicke gegeben zu haben, dass Sie nun selbst losziehen und andere herausfordern können, die vielleicht noch einigen dieser Mythen unterliegen. Mit einem hitzigen Thema wie KI ist es immer eine gute Idee, weniger Fiktion und mehr Wissenschaft zu sprechen.

Bearbeitet am 27.01.2019:
Ich habe einen Folgebeitrag veröffentlicht:
Mythbusters reloaded: 7 weitere Mythen über KI, der sich der nächsten Reihe von häufigen Mythen widmet. Ich hoffe, Ihnen gefällt die Lektüre.

Sebastian Schaal
Inga Schwarz
Patrick Perner

Kostenfreie Demo buchen

Lassen Sie sich von unseren Produktspezialisten durch die Plattform führen, alle für Ihren individuellen Anwendungsfall relevanten Funktionalitäten ansprechen und alle Ihre Fragen direkt beantworten. Oder sehen Sie sich ein 5-minütiges Video der wichtigsten Funktionen an.