delivery robots on hot pavement

Künstliche Intelligenz

Den Begriff Künstliche Intelligenz oder die englische Variante Artificial intelligence hast du vermutlich schon tausendfach gehört, weisst aber trotzdem nicht so recht, was sich dahinter eigentlich genau verbirgt. Der Grund ist erstaunlich einfach.

Es gibt bis heute keine allgemein gültige Definition von (natürlicher) Intelligenz.

Intelligenz (natürlich)

Bevor es um die künstlichen Intelligenz in diesem Beitrag geht, stelle ich kurz den Begriff der natürlichen Intelligenz vor.

Der Begriff Intelligenz umfasst die Gesamtheit unterschiedlich ausgeprägter kognitiver Fähigkeiten zur Lösung eines logischen, sprachlichen, mathematischen oder sinnorientierten Problems.

https://de.wikipedia.org/wiki/Intelligenz

Wenn du in diesem Zitat über den Begriff, bzw. das Wort „kognitiv“ stolperst, bist du ebenfalls nicht allein. Es ist ein uneinheitlich verwendeter Begriff, mit dem auf die Informationsverarbeitung von Menschen, anderen Organismen und anderen Systemen Bezug genommen wird. Oft ist mit „Kognition“ das Denken in einem gemeint.

Unter Denken werden alle (psychologischen) Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen.
Bewusst werden dabei meist nur die Endprodukte des Denkens, nicht aber die Denkprozesse, die sie hervorbringen.

Wie Denken im Einzelnen geschieht, ist Forschungsgegenstand verschiedener Disziplinen. 
Wissenssoziologie, Ethnologie, Psychologie (insbesondere Denkpsychologie) und Kognitionswissenschaft betrachten das Denken höchst unterschiedlich.

https://de.wikipedia.org/wiki/Denken

Die Definition natürlicher Intelligenz ist also recht unscharf, um es es mal freundlich auszurücken.

Es ist hilfreich, an die Schwierigkeit der Definition von (natürlicher) Intelligenz zu denken, wenn du dich nun mit künstlicher Intelligenz „innerlich beschäftigst“, „darüber nachdenkst“, „erinnerst“ und als Endprodukt deines „Denkens“ eine Erkenntnis zu formen versuchst.

Künstliche Intelligenz

Der Begriff Künstliche Intelligenz beschreibt ein Teilgebiet der Informatik und bezeichnet meist den Versuch, bestimmte Entscheidungsstrukturen des Menschen automatisiert nachzubilden.

Ursprünge

Die Idee, dass sich die Intelligenz und die Vorgänge des Denkens automatisieren lassen und man eine Maschine bauen könnte, die intelligentes Verhalten zeigt, ist mehr als 250 Jahre alt. Julien Offfray de La Mettrie beschrieb 1748 in seinem Werk „L’Homme-Machine“ ein Universum, dass nach den Regeln einer mechanischen Maschine abläuft, die auch den Menschen, seinen Geist und seine Intelligenz mit einschließt.

In diesem Zusammenhang ist der Begriff Algorithmus wichtig. Es ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems und besteht aus vielen Einzelschritten, also die theoretische Basis einer solchen Maschine.

1936, knapp 200 Jahre später, führte Alan Turing das mathematische Modell der nach ihm benannten Maschine, der Turingmaschine, ein. Es ist eine abstrakte Maschine, die einen beliebigen Algorithmus ausführen kann.

Das folgende Video beschreibt so eine Turingmaschine recht anschaulich.

Maschinelles Lernen

Bei einem Algorithmus sind die Schritte der Problemlösung vorgegeben. Beim maschinellen Lernen geht es dagegen um die „Erzeugung“ von Wissen (schon wieder so ein Wort 🙂 ) aus Erfahrung.

… das Computersystem lernt selbstständig anhand der vorliegenden Daten und ist so auch in der Lage, verborgene Zusammenhänge zu erkennen, die ein Mensch nicht berücksichtigt hätte

https://de.wikipedia.org/wiki/Geschichte_der_künstlichen_Intelligenz

Aber wie soll das gehen?

Daten enthalten Muster und Gesetzmässigkeiten.

In den 50er Jahren versuchte man beispielsweise Briefe maschinell, statt von Hand zu sortieren. Der Computer musste dazu die Adresse auf dem Brief erkennen können. Man machte ein Bild vom Brief und suchte im Bild nach entsprechenden Mustern, die Buchstaben oder Zahlen darstellen könnten. Die gefundenen Muster wurden mit bekannten Pixelmustern von Zeichen in Datenbanken verglichen. Wenn ein Muster in der Datenbank mit einem Muster in dem Bild übereinstimmte, so war ein Teil der Adresse erkannt. Stück für Stück wurden Name, Strasse, Postleitzahl und Stadt erkannt und der Brief dann maschinell auf einem Laufband an die richtige Stelle transportiert. Die Herausforderung in diesem System ist die Datenbank, die ja alle bekannten Pixelmuster enthalten muss. Unbekannte Muster können nicht „erkannt“ werden.

Neuronale Netze (natürliche Variante)

Da es bei der natürlichen Art zu Lernen möglich ist, etwas Neues zu lernen, muss es dafür einen „Mechanismus“ geben. Daher folgt ein kurzer Ausflug in unser Nervensystem.

Das Wort Neuron ist ein anderes Wort für Nervenzelle.

In einem natürlichen neuronalen Netz wie in unserem Nervensystem sind einzelne Neuronen miteinander verknüpft. Es gibt an einem Neuron mehrere Dendriten (so eine Art Kabel), die an ihrem Ende Signale erfassen und Reize über Synapsen (Verbindungsstellen) aufnehmen, beispielsweise im Auge oder Ohr. Signale und Reize könnte man auch als Daten bezeichnen. Innerhalb des Neurons befindet sich der Zellkern, der auf der Basis dieser Daten „Entscheidungen“ trifft. Eine Entscheidung hängt mit dem Über- oder Unterschreiten von Schwellenwerten zusammen. Die Entscheidung wird an das sogenannte Axon übermittelt. Das Axon ist auch so eine Art „Kabel“ (kann mehr als einen Meter lang sein), das die Entscheidungen an unterschiedliche Stellen im Körper weitergibt, beispielsweise an einen Muskel. Diese Informationsübermittlung funktioniert chemisch und elektrisch.

Aufbau einer Nervenzelle

Die Dendriten eines Neurons sind ausser mit Auge und Ohr auch mit anderen Neuronen verbunden und so ist es möglich Daten anderer Neuronen in die Entscheidungsfindung einfliessen zu lassen. Ein Neuron ist im Duschschnitt mit jeweils 1000 anderen Neuronen verbunden!

Bei einem kleinen Kind bilden sich in relativ kurzer Zeit viele Milliarden dieser Dendriten, also Verknüpfungsstellen. Wenn das Kind nun sprechen lernt oder zu essen, zu trinken, zu laufen, so kennt es keine Regeln zu dieser Sprache und auch keinerlei Regeln, die beschreiben wie man läuft, isst oder trinkt. Es kann „nur“ Muster erkennen und „erlernt“ anhand dieser Muster nach und nach die notwendigen Fertigkeiten. Technisch gesprochen trainiert das Kind sein neuronales Netzwerk.

Das menschliche neuronale Netzwerk ist die Gesamtheit der Verbindungen aller Nervenzellen. Das Gehirn besteht aus rund 100 Milliarden Neuronen, die über 100 Billionen Synapsen mit anderen Neuronen kommunizieren!

Später, in der Schule, lernt das Kind die formalen Regeln der Sprache. Um die formalen Regeln überhaupt „lernen“ und anwenden zu können, muss ein neuronales Netz bestehen.

Wenn du heute beispielsweise deine Fotos in Alben oder Kategorien einsortiert, trainierst du ebenfalls dein existierendes neuronales Netz.

https://xkcd.com/2173/

So prinzipiell funktioniert diese „natürliche“ Vorgehensweise auch in künstlichen neuronalen Netzen.

Neuronales Netz (künstliche Variante )

In einem künstlichen neuronalen Netz findet man keine natürlichen Nervenzellen, sondern abstrakte Modelle der Neuronen.

Neuronenmodell

Ein Modell ist immer eine vereinfachte Teilmenge des Originals und so gibt es verschiedene Neuronenmodelle. Das Prinzip ist allerdings tatsächlich gleich. Daten kommen auf verschiedenen Wegen „rein“ (wie bei Dendriten), werden verarbeitet (wie im Zellkern) und eine Ausgabe wird erzeugt (wie im Axon). Das einfachste Neuronenmodell wurde bereits im Jahr 1943 entwickelt, die McCulloch-Pitts-Zelle. Man kann sich das als „Schwellenwertelement“ vorstellen. Daten kommen rein, eine Schwelle wird überschritten (oder eben nicht) und ein Ergebnis wird ausgegeben. Solche Schwellenwertelemente werden als elektronische Bauteile auch heute in der Elektrotechnik eingesetzt.

Vernetzung

Die grosse Frage ist nun: Wie baut man so etwas ganz konkret?

Es geht um die Entwicklung neuer Verbindungen, das Löschen existierender Verbindungen, das Ändern der Gewichtung, das Anpassen der Schwellenwerte, das Hinzufügen oder Löschen von Neuronen und die Modifikation von Aktivierungsfunktionen.

SNARC

1951 war es soweit und Marvin Minsky baute den SNARC Computer.

SNARC (Stochastic Neural Analog Reinforcement Computer) – 1951

Er hatte 40 Neuronen mit Synapsen, die ihre Gewichte (das Maß für die synaptische Durchlässigkeit) dem Erfolg bei der Durchführung einer bestimmten Aufgabe anpassten. Vereinfacht gesagt: „Je häufiger ein Neuron A gleichzeitig mit Neuron B aktiv ist, umso bevorzugter werden die beiden Neuronen aufeinander reagieren (what fires together, wires together)“. Die Maschine bestand aus Röhren, Motoren und Kupplungen und modellierte erfolgreich das Verhalten einer Ratte in einem Labyrinth auf der Suche nach Futter.


Wir überspringen mal 60 Jahre.
Die KI-Forschung „tapste“ so vor sich hin und die grossen Erwartungen wurden nicht erfüllt. Es gab vereinzelt Durchbrüche, beispielsweise im Jahr 1982 Selbstorganisierende Karten und 1985 löst John Hopfield mit einem Hopfield Netz das Problem des Handlungsreisenden.
In diesen 60 Jahren wurde allerdings alle theoretischen Modelle und Grundlagen entwickelt. Ein wichtiger Meilenstein war die Erfindung eines Gedächtnisses für neuronale Netze (Long short-term memory) im Jahr 1997.


Deep Learning

So richtig in Gang kam die KI-Forschung ab dem Jahr 2007 durch Erfolge „rückgekoppelter künstlicher neuronaler Netze“. Das sind Netze, die „ein Gedächtnis eingebaut haben“ und die Eingangsdaten über mehrere Schichten verarbeiten.

Ok … das war jetzt wieder so Satz – sorry 🙂

Die Herausforderung ist ja die Lösung von Aufgaben, die für Menschen leicht durchzuführen sind, deren Lösung sich aber nur schwer durch mathematische Regeln formulieren lassen. Menschen lösen solche Aufgaben intuitiv (aus dem Bauch), wie zum Beispiel die Frage: Was ist das für ein Tier?

Hier kommt eine Grafik, die den Prozess etwas veranschaulicht.

Das Bild des Elefanten wird im künstlichen neuronalen Netz geladen und in mehreren Schichten mit bekannten Strukturen interpretiert (eigentlich so ähnlich wie ganz oben bei dem Beispiel mit der Postsortierung aber jetzt mit dem Feature etwas neues lernen zu können).
Die Ausgabe ist: Es ist ein Elefant.

Geschichtete Repräsentation von Bildern auf mehreren Abstraktionsebenen (CC BY-SA 4.0)

Der Elefant ist für den Computer (und natürlich auch für den Menschen) ein Konzept oder ein Modell, also ein abstraktes Bild innerhalb eines neuronalen Netzes. Das Konzept „Elefant“ besteht aus Erinnerungen an Merkmale, bei denen die Ausgabe oder Erkenntnis „Das ist ein Elefant“ war. Im Falle der Grafik wären es die unterschiedlich geformten Striche in den verschiedenen Schichten. Aus diesem „Erfahrungswissen“ kann das System anhand der verschiedenen Merkmale (Erfahrungen) feststellen: „Das ist ein Elefant!“

Das Interessante an dieser Vorgehensweise ist, dass man mit diesem Erfahrungswissen nun auch (vielleicht/vermutlich) Elefanten erkennt, die liegen oder hinter einem Baum (auch so ein Konzept) stehen.

Das Schwierige für einen menschlichen Beobachter ist das Verständnis des Ganzen: „Ja, aber wie lernt denn diese Maschine oder dieses Netz was ein Elefant ist?“.

Bei Maschinen geht das momentan nur durch die Vorlage von Bildern auf denen Elefanten zu sehen sind. Wir als Menschen geben dem neuronalen Netz der Maschine die Daten vor, in denen es Muster erkennen soll. Je mehr Bilder, desto besser. Der Vorteil ist die Schnelligkeit der Maschine. Sie kann 100,000 Elefantenbilder in kurzer Zeit einlesen und untersuchen und das Konzept „Elefant“ durch wiederkehrende Muster erkennen. Danach kann ein beliebiges Bild untersucht werden ob ein Elefant darauf zu erkennen ist.

Von „aussen“ gesehen gibt es bei diesem Vorgang nur zwei Schichten, die für einen Menschen auf Anhieb „verstehbar“ sind. Die Eingabe der Rohdaten, also die Pixel des Elefantenfotos und die Ausgabe des Systems („Das ist ein Elefant“). Was in den einzelnen Schichten dazwischen passiert, ist nicht so wirklich für Menschen nachvollziehbar.

Aber warum glaubt das neuronale Netz, dass auf dem Bild ein Elefant abgebildet ist?

Durchsichtige und undurchsichtige KI

Es gibt zwei Konzepte bei der künstlichen Intelligenz (KI): „Opake KI“ und „transparente KI“. In beiden Konzepten kann die Logik hinter den Vorhersagen und Entscheidungen nicht einfach erklärt werden. In der transparenten Variante ist es jedoch möglich festzustellen auf welcher Grundlage eine Entscheidung getroffen wurde, indem man Zugang zum Source Code hat. Im folgenden Video werden beide Varianten gut beschrieben.

The Real Reason to be Afraid of Artificial Intelligence | Peter Haas | TEDxDirigo – 2017

Siehe auch Komplexität und Grenzen der Erklärbarkeit.

Die Komplexität kann auch an ganz anderen Stellen auftauchen. Daher noch ein schon etwas älteres aber ohne Vorkenntnisse sehr gut zu verstehendes Video zum Thema in deutscher Sprache.

34C3 – Beeinflussung durch Künstliche Intelligenz – 2017

Mehr Videos zum Thema KI unter https://media.ccc.de/search/?q=Künstliche+Intelligenz

Fazit

In Zeiten, in denen immer mehr Entscheidungen von künstlichen Intelligenzen getroffen werden ist es hilfreich etwas mehr über die Hintergründe zu wissen. Dieser Beitrag beschreibt nur einen kleinen Ausschnitt der Möglichkeiten. Ausser Deep Learning gibt es viele weitere Ausprägungen des maschinellen Lernens.

Künstliche Intelligenz wird heute in Anwendungen in der Medizin, im Marketing, in der Schulbildung, in Spielen, in der Kunst, in der Arbeitswelt, beim Militär, im Produktdesign, der Vergabe von Krediten und vielem anderen Bereichen genutzt.


tl;dr: „Die KI wird wahrscheinlich zum Ende der Welt führen, aber in der Zwischenzeit wird es große Unternehmen geben.“  – Sam Altman, CEO von OpenAI 


Beitrag veröffentlicht

in

,

von

Schlagwörter:

Kommentare

5 Antworten zu „Künstliche Intelligenz“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert