Lösungen

Produkt

Ressourcen

Unternehmen

Mythbusters: 7 gängige Mythen über KI

Juni 6, 2018

KI

Industrie

Industrie

Künstliche Intelligenz ist eines der am meisten gehypten Themen der letzten Jahre. Natürlich hat eine Menge oberflächliches Wissen seinen Weg in die Presse und in die Köpfe der Öffentlichkeit gefunden. In diesem Beitrag möchte ich einige dieser Missverständnisse aufklären.

Blogartikel mit Bildmotiv
Blogartikel mit Bildmotiv
Blogartikel mit Bildmotiv

Künstliche Intelligenz ist eines der am meisten gehypten Themen der letzten Jahre. Natürlich hat eine Menge oberflächliches Wissen seinen Weg in die Presse und in die Köpfe der Öffentlichkeit gefunden. In diesem Beitrag möchte ich einige dieser Missverständnisse aufklären.

Mythos Nr. 1: Künstliche Intelligenz, maschinelles Lernen, Deep Learning ist im Grunde genommen alles dasselbe

KIML und Deep Learning Graph

Es ist nicht leicht, sich im Dschungel der Schlagworte rund um Künstliche Intelligenz (KI) zurechtzufinden. Neben KI sind zwei weitere Kandidaten häufig auf Startup-Pitchdecks und in Zeitungsartikeln zu finden: Maschinelles Lernen (ML) und Deep Learning (DL). Auch wenn diese drei Begriffe oft synonym verwendet werden, sind sie keine Synonyme.

KI löst eine Aufgabe, die normalerweise menschliche Intelligenz erfordert.
ML löst eine bestimmte KI-Aufgabe durch Lernen aus Daten und ist damit eine strenge Teilmenge von KI.
DL löst ein ML-Problem, indem es neuronale Netze (NNs) als Algorithmus verwendet. Auch hier besteht eine strenge Untermengenbeziehung, wie in der Abbildung zu sehen ist.

Wenn wir KI , aber nicht ML verwenden, haben wir in der Regel regelbasierte Methoden im Einsatz, die Aufgaben wie automatische Planung oder Suche übernehmen .
Wenn man ML, aber nicht DL verwendet, spricht man oft von traditioneller ML, bei der man sich hauptsächlich auf gut erforschte statistische Methoden stützt.

Mythos Nr. 2: KI lernt von sich selbst

Verstärkendes Lernen in KI

Viele Menschen denken, dass ein KI dieses magische Ding ist, das automatisch immer besser wird. Bei den meisten heute verwendeten ML-Systemen wurde das System anhand historischer Daten trainiert, d. h. es wurden ihm viele Beispiele aus der Vergangenheit gezeigt und es hat daraus ein allgemeines Verständnis entwickelt. Wenn es in der Produktion läuft, verwendet es dieses Wissen, um ein Urteil über neue Beobachtungen zu fällen, die es noch nie gesehen hat. Und das ist dann oft das Ende.

Wenn Sie die Möglichkeit haben, diese Einschätzungen (z. B. Vorhersagen) mit der (potenziell zukünftigen) Realität zu vergleichen, erhalten Sie eine Rückmeldung darüber, wie gut Ihr Modell abgeschnitten hat. Im Idealfall, wenn Sie viele dieser Rückmeldungen sammeln können, können Sie Ihr Modell schließlich neu trainieren, um seine früheren Fehler zu verbessern. In den meisten Fällen geschieht dies jedoch nicht automatisch und im Handumdrehen, sondern erfordert einen Ingenieur und einige zusätzliche Anpassungen, um effektiv zu sein.

Diesem Mythos am nächsten kommt das Konzept des Verstärkungslernens, bei dem ein Agent lernt, indem er mit einer Umgebung interagiert und die Ursachen seiner Handlungen beobachtet.

Mythos Nr. 3: Neuronale Netze sind wie das menschliche Gehirn

Biologisches Neuron

Oft wird die Leistungsfähigkeit künstlicher NNs damit begründet, dass sie genau wie das menschliche Gehirn funktionieren. Erwähnt man dies bei einer Konvertierung mit jemandem, der einen Hintergrund in Biologie hat, wird er wahrscheinlich mit den Augen rollen.

Biologische NNs mit Neuronen als Kernstück sind unglaublich komplexe Systeme, die wir gerade erst zu verstehen beginnen. Sie existieren in vielen verschiedenen physikalischen Strukturen und erfüllen unterschiedliche Aufgaben im menschlichen Körper, z. B. als Sensor oder Motor. Neuronen übermitteln Informationen und speichern ihren inneren Zustand über elektrische Impulse und ihr elektrisches Potenzial. Wenn eine bestimmte Potenzialschwelle im Zellkörper überschritten wird, entlädt sich das Neuron über ein Aktionspotentialund überträgt Informationen an benachbarte Neuronen. Diese Übertragung kann in Form von regelmäßigen Spikes, schnellen Spikes oder Bursts erfolgen.

In NNs vergleicht ein Neuron die gewichtete Summe seiner Eingänge (Aktionspotential benachbarter Neuronen) mit seinem Bias-Term (Schwellenpotential). Wenn die Differenz positiv ist, sendet das Neuron die Information durch eine nichtlineare oder Aktivierungsfunktion (und versucht, das Aktionspotenzial eines biologischen Neurons nachzuahmen). Das ist wahrscheinlich der weiteste Weg, den wir mit dieser Analogie gehen können. Abgesehen davon, dass einige der komplexeren Funktionen fehlen, kommen NNs nicht annähernd an die Leistung des menschlichen Gehirns heran. Vor allem was die Effizienz angeht, sind unsere Gehirne Lichtjahre von allem entfernt, was vom Menschen geschaffen wurde.

Mythos Nr. 4: Wir sind nahe an der Superintelligenz

KI Lösen von mathematischen Problemen

Es gibt viele hoch angesehene Leute, die nicht aufhören können, vor der KI Apokalypse, der Singularität, der Ankunft der Superintelligenz oder Künstlichen Allgemeinen Intelligenz(AGI). Fairerweise muss man sagen, dass es schwer ist, korrekt vorherzusagen, was passieren wird, wenn eine Maschine zum ersten Mal intelligenter ist als ihr Schöpfer. Aber bis dahin ist es noch ein weiter Weg.

Von der Machbarkeit her liegt die AGI irgendwo zwischen der Besiedlung des Mars und der Teleportation (die nach unserem heutigen Kenntnisstand physikalisch unmöglich ist). Bei ersterem wissen wir ziemlich genau, welche Herausforderungen wir bewältigen müssen, um es zu verwirklichen, z. B. effizientere Raketen zu bauen und einen Weg zu finden, Lebensmittel nachhaltig anzubauen. Für die AGI gibt es keinen solchen Plan. Niemand weiß, welche zusätzlichen Herausforderungen wir bewältigen müssen, bis wir AGI erreichen, aber wir wissen auch, dass es physikalisch nicht unmöglich ist. Jedenfalls sollten wir keine Angst davor haben, morgen von den Maschinen überrollt zu werden.

Mythos Nr. 5: Sie brauchen eine gigantische Datenmenge

Neuronales Netz: vortrainiertes Modell und Nanonet

Es wird oft gesagt, dass man Zugang zu großen Datenmengen haben muss, damit ML effektiv ist. Es stimmt, dass mehr Daten (mit hoher Qualität) fast immer zu einer besseren Leistung führen. Und es stimmt auch, dass das Training eines tiefen NN von Grund auf (z. B. fürComputer Vision) Millionen von Bildern erfordern kann.

Diese Millionen von Bildern müssen jedoch nicht alle aus Ihrem Datenlager stammen und spezifisch für Ihr Problem sein. Vor allem in der Computer Vision funktioniert das Konzept desTransfer-Lernens sehr gut, bei dem man mit einem Netz beginnt, das zuvor auf einem großen Datensatz trainiert wurde, um ein ähnliches Problem zu lösen. Jetzt können Sie nur die letzten Teile Ihres Netzes (im Bild als NanoNet bezeichnet) neu trainieren, die für Ihren Anwendungsfall sehr spezifisch sind. Statt einiger zehntausend Bilder pro Ereignis, das Sie erkennen wollen, benötigen Sie nur ein paar hundert.

Mythos Nr. 6: KI ist eine Blackbox

Tiefes neuronales Netz und die Visualisierung seiner Zwischendarstellungen

Um auf Mythos Nr. 1 zurückzukommen: Wir haben bereits gelernt, dass der Teil von KI , der nicht ML ist, hauptsächlich auf Regeln basiert. Diese sind in hohem Maße “white box“, da ein Mensch sie von Hand entworfen hat. Die statistischen Methoden des traditionellen ML sind sehr gut verstanden und Menschen können einige einfache Methoden wie Entscheidungsbäume perfekt interpretieren. Einige Methoden (z. B. Ensemble-Methoden), die Tausende von Einzelmodellen (z. B. einen Entscheidungsbaum) zusammenfassen, können immer noch anhand ihrer Statistiken interpretiert werden.

Die Quelle des Blackbox-Mythos sind die NNs. Man kann immer noch versuchen, ein Verständnis für die Zwischendarstellungen des Netzes zu gewinnen. Ihre Rohanalyse ist jedoch oft nicht sehr aufschlussreich. Man kann Visualisierungen erhalten, indem man ein Eingabebild so verändert, dass ein bestimmter Teil des Netzes vollständig aktiviert wird, aber die genaue innere Funktionsweise lässt Raum für Interpretationen. Wenn Sie mehr über die Visualisierung von NNs lesen möchten, kann ich Ihnen diesen Google-Blog sehr empfehlen.

Mythos Nr. 7: GAFAM bestimmen alles

GAFAM und ihre Lernrahmen

Wenn man die Liste der hoch angesehenen Veröffentlichungen der letzten Jahre durchblättert, stammt die überwiegende Mehrheit aus den Forschungslabors der GAFAM-Technologieriesen (Google, Apple, Facebook, Amazon und Microsoft). Diese Tatsache führt zu dem Schluss, dass GAFAM den ML-Bereich vollständig dominieren. Das ist sowohl wahr als auch nicht wahr.

Zunächst müssen wir die Dynamik von Open Source in der ML-Gemeinschaft verstehen. Es hat sich eingebürgert, dass Forscher nicht nur eine Arbeit veröffentlichen, sondern auch den Großteil des Codes beifügen, mit dem sie die Ergebnisse erzielt haben. Diese Kultur der gemeinsamen Nutzung ermöglicht es anderen, von früheren Forschungsergebnissen zu profitieren und mit ihren Experimenten direkt auf dem neuesten Stand der Technik zu beginnen. Die GAFAM ist diesem Trend gefolgt und hat einen großen Teil ihrer Forschungsergebnisse veröffentlicht. Noch wichtiger ist jedoch, dass jeder einzelne von ihnen eine Version seines internen DL-Frameworks als Open Source zur Verfügung gestellt hat, was die Erstellung neuer Modelle durch die Verwendung zahlreicher vorgefertigter Funktionen erleichtert.

Diese ganze Entwicklung führte zu einem neuen Leitsatz beim Nachdenken über ML: “Es geht nicht um die Algorithmen, es geht um die Daten“. Wenn immer die modernsten Algorithmen/Modelle veröffentlicht werden, gewinnt derjenige, der die Netze mit dem umfangreichsten, für die jeweilige Aufgabe geeigneten Datensatz trainiert. Zwei prominente Startup-Beispiele aus Deutschland sind DeepL und EyeEm, die beide Google in einer ihrer Kerndisziplinen (Übersetzung und Bilderkennung) übertrumpft haben, nur weil sie einen qualitativ hochwertigeren Datensatz für ihre spezifische Aufgabe erworben haben.

Schlussfolgerung

Ich schätze, jeder von uns hat schon einmal an einen Mythos geglaubt und war dementsprechend mit dem peinlichen Moment konfrontiert, als wir zum ersten Mal damit konfrontiert wurden. Ich hoffe, dass ich Ihnen mit diesem Beitrag einige dieser Momente ersparen konnte und Ihnen genügend Einblicke gegeben habe, damit Sie nun selbst auf die Straße gehen und andere herausfordern können, die vielleicht immer noch einigen dieser Mythen anhängen. Bei einem so brisanten Thema wie KI ist es immer eine gute Idee, zur Abwechslung mal weniger über Fiktion und mehr über Wissenschaft zu reden.

Edit 27.01.2019:
Ich habe einen Folgebeitrag veröffentlicht:
Mythbusters reloaded: 7 more myths about KIDie Mythenjäger nehmen sich die nächste Ladung gängiger Mythen vor. Ich wünsche Ihnen viel Spaß bei der Lektüre.

Interessiert? Sprechen Sie mit uns.

Stellen Sie uns Ihre Fragen während einer persönlichen Live-Demo der Software. Oder sehen Sie sich vorher ein 5-minütiges Video zu den wichtigsten Funktionen an.

Interessiert?
Lassen Sie uns reden.

Stellen Sie uns Ihre Fragen während einer persönlichen Live-Demo der Software. Oder sehen Sie sich vorher ein 5-minütiges Video zu den wichtigsten Funktionen an.

Interessiert? Sprechen Sie mit uns.

Stellen Sie uns Ihre Fragen während einer persönlichen Live-Demo der Software. Oder sehen Sie sich vorher ein 5-minütiges Video zu den wichtigsten Funktionen an.

Letzte Artikel