home - back

KÜNSTLICHE INTELLIGENZ 2
( Fortsetzung von Künstliche Intelligenz 1 )



Logik als Kalkül

Die von Leibniz begonnene Suche nach einer wissenschaftlichen Allzweck­sprache kam im Wesentlichen erst in den dreißiger Jahren des 20. Jahrhunderts mit Frege, Hilbert, Gödel und dem Aufbau der Logik als Kalkül zum Abschluss. Gottlob Freges Programm bestand darin, eine abstrakte Sprache des Denkens, eine „lingua mentis“, zu entwickeln, die den logischen Gesetzmäßigkeiten unseres Denkens unterliegt und so eine mathematisch-strenge, symbolische Darstellung unserer Denkvorgänge erlaubt.


Kurt Gödel

Kurt Gödel (1906-1978) war Mathematiker und Logiker. Er wird von vielen als der bedeutendste Logiker des 20. Jahrhunderts angesehen


1930 fand der Mathematiker Kurt Gödel ein Theorem, das die Mathematik in ihren Grundfesten erschütterte. Bis dahin glaubten die meisten Mathematiker, dass man eines Tages eine endgültige Form der Mathematik wird formulieren können, die keine Fragen mehr unbeantwortet lässt und nicht mehr verbessert werden kann. Hiermit war natürlich auch die Hoffnung verbunden, mit dieser endgültigen Mathematik eine naturwissenschaftliche Beschreibung der Wirklichkeit zu haben, die alle beobachtbaren Phänomene erklärt und keine Fragen mehr offen lässt.

Nach
Gödels berühmtem Unvollständigkeits-Theorem wird es niemals ein endgültiges, bestes mathematisches System geben: Jedes mathematische Axiomensystem wird irgendwann zu bestimmten Problemen führen, die auf seiner Grundlage allein nicht lösbar sind. Innerhalb eines axiomatischen Systems gibt es immer Wahrheiten, die nicht innerhalb dieses Systems bewiesen werden können. Egal wie kompliziert und umfangreich ein formales System (Symbole und Regeln) ist, es besitzt stets einen blinden Fleck, ein Gödel-Loch.

Selbst im mächtigsten Computer tauchen diese Löcher auf, weshalb sich die KI mit unüberwindlichen Barrieren konfrontiert sieht. Und ein Computer kann nicht selbstständig zwischen Bedeutungsebenen wechseln, wozu wir Menschen aber durchaus in der Lage sind. Der Künstlichen Intelligenz sind diese Grenzen gesetzt.

Für uns Menschen hat
Gödels Unvollständigkeits-Theorem ebenfalls eine schlechte, aber auch eine gute Nachricht.
Zuerst die schlechte Nachricht: Es wird immer Wahrheiten geben, für die es keine Beweise gibt, und Probleme, die wir nicht lösen können. Eine endgültige Theorie des Universums wird es wohl nie geben.
Die gute Nachricht lautet: Es besteht immer die Möglichkeit, dass wir noch nicht bewiesene Wahrheiten eines Tages doch beweisen können und für ungelöste Probleme eine Lösung finden. Wie weit auch die Menschheit der Zukunft in die Geheimnisse des Universums einzudringen vermag, es wird immer etwas Neues zu entdecken geben.


Ein erstes Fazit

Wie ein Katalysator bewirkte die Erfindung des elektronischen Computers im 20. Jahrhundert den Zusammenschluss dreier bisher verschiedener Bereiche:

  1. Die Theorie des axiomatischen Schließens
  2. Das Studium mechanischer Berechnung
  3. Die Psychologie der Intelligenz


Alan Turing

Alan Mathison Turing (1912-1954) war ein britischer Logiker, Mathematiker und Krypto­analytiker. Alan Turing gilt heute als einer der einflussreichsten Theoretiker der frühen Computerentwicklung und Informatik


Anfangs ermöglichte der rasante Fortschritt der Computertechnologie auch der KI-Forschung große Fortschritte, die jedoch zunehmend erlahmten. Die Gründerväter der KI konnten ihren selbstgestellten hohen Ansprüchen jedenfalls nie gerecht werden. Was war geschehen?

Inzwischen rechnen Computer zwar zweifellos schneller und genauer als ihre Erbauer, dennoch ist selbst der Schachcomputer „Deep Blue“, der 1997 den Schachweltmeister Gary Kasparov schlug, für die moderne KI-Forschung passé, da seine Rechenkunst und scheinbare Intelligenz nur auf Tausenden von genau einprogrammierten Rechenschritten beruht. Deshalb kann er Aufgaben, die nicht im Programm stehen, nicht erledigen und unerwartete Hindernisse nicht umgehen. Intelligent ist ein Roboter also nur so lange, wie die durch die Umwelt gestellten Aufgaben in sein vorprogrammiertes Schema passen.

1965 stellte Joseph Weizenbaum das Programm ELIZA vor, das den Dialog zwischen Patient und Psychiater simuliert. Die Öffentlichkeit war verblüfft. Das Programm schien sich in die Situation des Patienten geradezu einzufühlen. Manche Zeitgenossen suchten sogar Rat bei ELIZA, obwohl sie die algorithmische Struktur des Programms kannten. ELIZA tut aber nichts anderes als syntaktische Symbolismen in der Programmiersprache LISP ableiten. Auf bestimmte Schlüsselwörter und Satzmuster reagiert ELIZA mit passenden Einsetzungen und Umstellungen. Solch ein simples Symbolverarbeitungssystem könne unmöglich intelligent sein, befand der Philosoph John Searle.

Trotz allem waren die Jahrzehnte, in denen an der KI und verwandten Gebieten geforscht wurden, sehr fruchtbar. Es wurden wertvolle Beiträge zur Algorithmik und mathematischen Logik geleistet, und Computer können heute Stimmen erkennen, Schrift lesen und mit gewissen Einschränkungen Sprachen übersetzen. Aber auch am Beispiel der mechanischen Übersetzung zeigte sich, dass das Übersetzen von Sprachen weit komplexer ist als das bloße Nachschlagen im Wörterbuch und das Umstellen von Wörtern. Eine Sprache kann man nicht losgelöst von der „Welt“ betrachten, in der sie existiert. Der menschliche Übersetzer besitzt ein „Geistiges Modell der Welt“, der Computer nicht. Der Computer „versumpft“ gleichsam beim Übersetzen in der Vieldeutigkeit von Wörtern und Sätzen.

Bis heute sind alle Versuche, Computer und Roboter mit menschenähnlichen Fähigkeiten zu kreieren, fehlgeschlagen. Die neue Generation von KI-Forschern glaubt, den Kardinalfehler entdeckt zu haben: Man baute „intelligente“ Maschinen, ohne Intelligenz verstanden zu haben, und erklärte sie später - wenn sie überhaupt funktionierten - für intelligent.

Die Vorstellung, dass sich die Symbol-Ebene des menschlichen Geistes von ihrem neuralen Substrat „abschöpfen“ lässt und auf ein anderes Medium wie z.B. das elektronische Substrat eines Computers übertragen lässt, um künstliche Intelligenz zu erzeugen, hat sich nur bedingt als tauglich erwiesen.

Das Geheimnis der Intelligenz ist nicht nur im Gehirn zu suchen und lässt sich mit einem Computer allein nicht simulieren. Intelligenz hat auch etwas mit autonomem Handeln zu tun, der selbständigen Orientierung und Interaktion in der Welt. Zu dieser ernüchternden Einsicht gelangte die Suche nach Künstlicher Intelligenz Mitte der 80er Jahre.


Neue Künstliche Intelligenz

In der klassischen KI sollten abstrakte Symbole die Essenz der Intelligenz darstellen. Dabei ging die theoretische KI in Richtung einer immer abstrakteren Wissenschaft, während die praktische KI Probleme hatte, Roboter herzustellen, die sich autonom bewegen konnten. Man verband Kameras mit Computern, aber die Abbildung von linsengenerierten Bildern der Außenwelt auf interne Symbole scheiterte kläglich. Inzwischen ist klar, dass die Verwendung von Symbolen allein nicht ausreicht, um künstliche Intelligenz zu erzeugen. Die Computermetapher hat sich als unwirksam erwiesen.

Mitte der 80er Jahre fing die KI noch mal von vorne an und prägte den Begriff der „Neuen Künstlichen Intelligenz“. Intelligenz hat demnach mit Lernfähigkeit, Abstraktionsvermögen und schöpferischem Denken zu tun, aber auch mit autonomem Handeln, der selbstständigen Orientierung in einer sich ständig verändernden Umwelt. Nach dieser neuen Sicht hat Intelligenz also auch viel mit Verhalten zu tun und wer sie erforschen will, braucht autonome Systeme wie z.B. Roboter, die in einer realen Interaktion mit der Außenwelt stehen.

Lange Zeit war die KI nur auf den Menschen fixiert. An seiner Intelligenz maß sie die Leistungen von Computern. Nun steht eine kopernikanische Wende in der KI-Forschung an, die Befreiung vom anthro­pozentrischen Intelligenzbegriff. Künstliche Intelligenz, so lautet seit den 90er Jahren die Devise, ist nur im Zusammenhang mit natürlicher Intelligenz verstehbar. Weniger der Mensch, als vielmehr einfache Lebewesen, die gleichwohl intelligentes Verhalten an den Tag legen, werden zu bevorzugten Studienobjekten. Entscheidend für die neue KI ist die Einsicht, dass rationales Verhalten und rationales Denken sich nicht bedingen müssen. Eine krabbelnde Ameise auf dem Weg zu einem halb verfaulten Apfel verdeutlicht dies: Sie verhält sich zweckdienlich und optimiert den kürzesten Weg zur Futterquelle, geht dabei aber nicht analytisch-deduktiv vor, vielmehr nutzt sie Pheromon­spuren, die mit der Zeit verdunsten.

Verkürzt kann man sagen, liegt das Geheimnis der Intelligenz nicht nur im Gehirn, sondern hat auch mit der Bindung an einen Körper und dessen Interaktion mit der Umwelt zu tun.

Will man Intelligenz nicht isoliert, sondern in der Interaktion mit der Umwelt begreifen, dann braucht Intelligenz zunächst einen Körper. Für diese Einsicht wurde der Begriff „Embodiment“, Verkörperung, geprägt. In der Natur kommt Intelligenz immer in Körpern vor. An dieser Stelle zeigt sich, dass die KI-Väter den Tücken des cartesianischen Dualismus aufgesessen waren (Zweiteilung des Menschen in Körper und Geist). Kaum jemand kommt bis in die 80er Jahre auf die Idee, dass der Körper keine nutzlose Masse ist, die vom übergeordneten Geist mitgeschleppt werden muss, sondern dass dieser Körper, sei er biologisch oder technisch, einen maßgeblichen Anteil an jedem intelligenten Verhalten hat. Die Neue KI geht sogar noch einen Schritt weiter und sagt: Der Körper besitzt eine eigene Intelligenz.
Wenn von Verkörperung gesprochen wird, denkt man vielleicht, dass alles noch komplizierter wird, weil dann zusätzlich physikalische Gesetze zu berücksichtigen und somit noch mehr Parameter zu optimieren sind. Aber viele Bewegungsabläufe des Körpers müssen erst gar nicht aufwendig berechnet werden. Die unseren verschiedenen Körperteilen innewohnende Intelligenz übernimmt diese Aufgaben bereits und entlastet so das Gehirn. Genau diese morphologische Intelligenz wird heute beim Bau von Robotern ausgenutzt.

Weitere wichtige Begriffe der neuen KI sind Emergenz und Selbstorganisation. Selbstorganisation ist ein Prozess, der durch das kooperative Wirken von Teilsystemen zu komplexen Strukturen des Gesamtsystems führt. Emergenz bezeichnet dabei das Phänomen, dass sich bestimmte Eigenschaften eines Ganzen nicht aus seinen Teilen erklären lassen:
Bei der Verbindung qualitativ unterschiedlicher Komponenten tauchen Eigenschaften auf, die vorher nicht vorhanden waren. Mit Emergenz ist aber weder das Auftauchen von Qualitäten aus dem Nichts gemeint, noch das Auftauchen von Eigenschaften, die schon immer fertig existierten. Emergente Eigenschaften sind Qualitäten, nach außen gerichtete Wirkungen, die sich erst in einer neuen Verbindung zeigen. Sie existieren somit vorher zwar potentiell, doch ohne dass die einzelnen Emergenzpartner sie besitzen.
In der Robotik geht es darum, dass aus relativ einfachen Teilen ein intelligentes Ganzes entstehen kann. Verhalten, welches zunächst sehr kompliziert aussieht, lässt sich häufig viel einfacher erklären. Es ist heute z.B. möglich, die komplizierte Organisation eines Ameisenstaates als ein Emergenzphänomen zu erklären.

Genetische Algorithmen spielen in der neuen KI ebenfalls eine immer größere Rolle. Genetische Algorithmen sind Algorithmen, die Lösungsvorschläge solange verändern und miteinander kombinieren, bis einer dieser Vorschläge den gestellten Anforderungen entspricht.

So gibt es in der neuen KI-Forschung eine Vielzahl neuer Begriffe und Forschungsgebiete, von denen hier nur einige erwähnt und angedeutet werden konnten.


KI und Bewusstsein

Zum Schluss noch ein paar Worte zu dem Mythos unserer Zeit, Roboter könnten eines Tages Gefühle und Bewusstsein wie wir Menschen besitzen.


Quest for Curiosity

Qrio (Quest for Curiosity) war ein 58 cm großer und 7 kg schwerer, humanoider Roboter von Sony


Das Phänomen des Bewusstseins zählt zu den schwierigsten und umstrittensten Gebieten von Philosophie und Naturwissenschaft. Eine allgemein anerkannte Definition von Bewusstsein liegt bisher nicht vor. Zu diesem Thema werden zahlreiche philosophische, psychologische und technische Debatten geführt. In der KI-Forschung werden zur Zeit vor allem zwei gegensätzliche Standpunkte vertreten:

a) Das Bewusstsein lässt sich nicht algorithmisch erfassen, somit ist es nicht möglich, beim Ablauf eines Algorithmus auf Hardware künstlich Bewusstsein zu erzeugen. Es bedarf einer weiteren Komponente wie etwa einer Seele, die ein materielles Objekt bewusst werden lässt.

b) Das Bewusstsein ist lediglich eine passive Begleiterscheinung, die auftritt, wenn ein genügend komplexer Algorithmus auf einer Hardware abläuft. Anhänger dieses Standpunktes werden als Vertreter der starken KI bezeichnet. Aus ihrer Sicht sind Art und Eigenschaften der Hardware völlig nebensächlich. Nur der Algorithmus zählt.

Wir Menschen erleben Gefühle wie Lust und Schmerz  bewusst. Die Anhänger der starken KI sind der Ansicht, dass dieses ichbezogene Gefühl auch bei Maschinen auftreten kann. Man schreibt ein Programm, das eine Zahl beinhaltet, die stets den momentanen Wert des Wohlbefindens eines Roboters angibt. Ein niedriger Ladestand der Batterie könnte sich dann negativ auf das Wohlbefinden auswirken. Kann man nun aber behaupten, dass der Roboter tatsächlich Lust oder Schmerz fühlt? Und fühlt der Roboter wirklich etwas durch die das Wohlbefinden repräsentierende Zahl?

Die heutige Diskussion, ob Roboter einmal Gefühle und Bewusstsein haben könnten, erinnert ein wenig an die Anfänge der KI-Forschung, als man intelligente Roboter bauen wollte ohne zu wissen, was Intelligenz eigentlich genau ist.




© Copyright Peter Liendl und Gisela Klötzer




home - back - top