#MaschinellesLernen

#KünstlicheIntelligenz #Kybernetik #Mustererkennung #AutonomeSysteme #SelbstfahrendeAutos #Drohnen #Roboter 

In der Informatik bezeichnet #KünstlicheIntelligenz (KI) die Operationen intelligenter Agenten durch die Anwendung mechanischer oder »formaler« Logik. Die KI gründet auf der Ansicht, dass eine Maschine die menschliche Intelligenz simulieren kann. In seiner Computertheorie behauptete Alan Turing (1912–1954), dass es möglich sei, logische Vorgänge durch die Veränderung einfacher Größen wie 0 und 1 darstellen zu können. Turing nahm an, dass Denken, als eine spezifische Abfolge mechanischer Operationen, auf der Grundlage des Kausalitätsprinzips formalisiert werden kann, oder – anders ausgedrückt – als diskrete Abfolge logischer Schritte, die auf einem Regelsatz (#Algorithmus, siehe Themenbereich #Codierung) basieren. [1] Diese Herangehensweise, d. h. der klassische symbolische Ansatz der KI, betrachtet maschinenbasierte Wissensgenerierung als eine regelbasierte Manipulation formaler Zeichen durch eine übergeordnete Kontrollinstanz. Dieser Ansatz war der Versuch, Wissen über die Welt in der formalen Sprache der Mathematik zu codieren. Bewährt hatte sich dieser Ansatz für sogenannte Expertensysteme, die komplexe Aufgabenstellungen, wie etwa Diagnostik in der Medizin, bewältigen oder auch Plan- und Entwurfsaufgaben auf dem Niveau menschlicher Experten ausführen konnten. Aber wie sich herausstellte, waren solche Systeme schwierig zu programmieren, da zuweilen ein einfacher Fehler zum Versagen des gesamten Systems führen konnte. Vor allem aber waren diese Systeme nicht lernfähig. [2] Um 1980 war klar, dass die bloße Simulation des Denkens nicht zu tatsächlichem Verstehen führt, dass also die syntaktische Symbolmanipulation zur Erkenntnisgewinnung nicht ausreicht, und so wurde dieser Ansatz nicht weiterverfolgt. [3]

Eine offenere und flexiblere Herangehensweise an die maschinelle Kognition kam aus dem Bereich der Neurowissenschaften und der #Kybernetik, in welchem künstliche Intelligenz nicht von Regeln und Repräsentationen ausgehend gedacht wurde, sondern als dynamisches System. In der bahnbrechenden Forschungsarbeit von Warren S. McCulloch (1898–1969) und Walter Pitts (1923–1969) wurde das Gehirn erstmals als Rechenmaschine betrachtet. [4] Ausgehend von Donald O. Hebbs (1904–1985) Arbeit zum assoziativen Lernen, das auf durch neuronale Signalübertragung entstehenden synaptischen Verknüpfungen basiert [5], entwickelte Frank Rosenblatt (1928–1971) die Grundlage für das maschinelle Lernen. [6] #MaschinellesLernen ist ein Teilgebiet der KI, das Berechnungsmethoden erforscht, durch die Programme zur Verarbeitung von Daten ihre internen Parameter automatisch, d. h. ohne Modifikation der Algorithmen durch ein Individuum, ändern und anpassen können. Die algorithmische Struktur ist als künstliches neuronales Netzwerk angelegt, in dem Folgerungsprozesse von Tausenden von Neuronen ausgeführt werden, die in Hunderten komplex miteinander vernetzten Ebenen organisiert sind und Kausalrelationen aufschlüsseln. Künstliche neuronale Netze basieren auf der Modellierung adaptiver Systeme, die sich durch das Erfassen von Umweltdaten, die in das System eingespeist werden, kontinuierlich weiterentwickeln. [7] Entscheidend ist hierbei, dass es sich bei den errechneten Resultaten um Näherungswerte handelt, folglich um eine statistische Einschätzung des wahrscheinlichsten Ergebnisses.

Seit 2006 wurden auf dem Gebiet des maschinellen Lernens immense Fortschritte erzielt. Die Gründe dafür liegen in der stetig wachsenden Rechenleistung und der damit einhergehenden gewaltigen Zunahme von Verfahren zur Datensammlung sowie dem physischen Ausbau der informationstechnischen Infrastruktur. [8] In der Praxis werden Algorithmen aus dem Bereich des maschinellen Lernens vor allem zur #Mustererkennung eingesetzt, zur Objekterkennung und -detektion, die insbesondere für #AutonomeSysteme wie #SelbstfahrendeAutos, #Drohnen und #Roboter von Bedeutung sind. Im Grunde genommen werden also mit dem maschinellen Lernen Denkprozesse neu definiert und damit auch zahlreiche ethische und rechtliche Fragen in Hinblick auf automatisierte Entscheidungsfindung, algorithmische Voreingenommenheit, Haftung und Verantwortlichkeit aufgeworfen.

Yasemin Keskintepe

 

[1] Vgl. Alan Turing, »On Computable Numbers, with an Application to the Entscheidungsproblem«, in: »Proceedings of the London Mathematical Society«, Reihe 2, Bd. 42, Nr. 1, Januar 1937, S. 230–265.

[2] Vgl. David Davenport, »The Two (Computational) Faces of AI«, in: Vincent C. Müller (Hg.), »Philosophy and Theory of Artificial Intelligence«, Studies in Applied Philosophy, Epistemology and Rational Ethics, Bd. 5, Springer, Heidelberg, 2013, S. 43–58, hier S. 44.

[3] Vgl. John R. Searle, »Minds, Brains, and Programs«, in: »Behavioral and Brain Sciences«, Bd. 3, Nr. 3, September 1980, S. 417–424.

[4] Warren S. McCulloch und Walter Pitts, »A Logical Calculus of the Ideas Immanent in Nervous Activity«, in: »Bulletin of Mathematical Biophysics«, Bd. 5, Nr. 4, Dezember 1943, S. 115–133.

[5] Donald O. Hebb, »The Organization of Behavior: A Neuropsychological Theory«, Wiley, New York, Chapman and Hall, London, 1949.

[6] Frank Rosenblatt, »The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain«, in: »Psychological Review«, Bd. 65, Nr. 6, 1958, S. 386–408.

[7] Vgl. Yann LeCun, Yoshua Bengio und Geoffrey Hinton, »Deep Learning«, in: »Nature«, Bd. 521, Mai 2015, S. 436–444.

[8] Vgl. Geoffrey E. Hinton, Simon Osindero und Yee-Whye Teh, »A Fast Learning Algorithm for Deep Belief Nets«, in: »Neural Computation«, Bd. 18, Nr. 7, Juli 2006, S. 1527–1554.