Blog

Vierter Einwand – bitte nicht vermenschlichen

«Intelligenten Systemen» sollen keine menschlichen Eigenschaften zugewiesen werden

Sehr einleuchtend ist für die Betonung darauf, dass den computergesteuerten Systemen keine menschlichen Eigenschaften oder Charakterzüge zugewiesen werden sollen. Unabhängig davon, ob wir Menschen glauben, dass Bewusstsein zukünftig vollständig von Computern simuliert werden wird. Oder ob es in Zukunft, wie einige Quellen berichten, möglich wird, dass die Technologie unsere Gedanken versteht, bzw. dass wir mit unseren Geräten kommunizieren und sie mittels unseren Gedanken steuern können. Aber das Verhalten dieser Technologien kann nicht mit demjenigen von Menschen erklärt werden und sollte deshalb auch nicht mit uns verglichen werden. Der Versuch es trotzdem zu tun führt dann eben zu den Missvorstellungen über die Auswirkungen, die autonome und wahrscheinlich auch nur durch unsere Interpretation bösartig erscheinenden Systeme haben könnten. Dies ist aber dann (hoffentlich) doch eher der Stoff, aus dem Kinofilme entstehen.
Mit hoher Wahrscheinlichkeit werden die programmierten Simulationen zumindest laut Prognosen der Entwickler keine menschlichen Züge wie Wünsche und Überzeugungen besitzen. Obwohl man auch bei «einprogrammierten» Zielen nie genau weiss, was die Systeme daraus interpretieren werden. Es besteht immer das Risiko, dass das dann nicht im Einklang mit den Absichten der Menschen wäre. Auch ist das Argument, dass die Technologie in Händen mit böswilligen Absichten Verheerendes anrichten könnte, nicht zu vernachlässigen. Es scheint mir, dass von vielen Seiten her für zusätzliche Sicherheit plädiert wird, Trotzdem sollte die Anzahl laut eines Artikels auf 80000 Hours, einer altruistisch orientierten Organisation so schnell wie möglich verdoppelt werden. Neben diesen Forderungen entstehen zusätzlich auch Non-Profit-Organisationen wie die open source Plattform OpenAI. Die Überlegung dabei ist, dass, wenn mehr Leute Zugriff darauf haben, es für eine Partei schwerer würde, sie schädlich einzusetzen. Dies hört sich für mich aus einer subjektiv menschlich betrachteten Sichtweise logisch und vertrauenswert an. Aber da niemand im Moment genau einschätzen kann, wo die Grenzen des Möglichen der Maschinen-Intelligenz sind, ist es auch schwierig zu entscheiden, welche Sicherheits-Massnahmen dafür angemessen sind.

Einen sehr guten Überblick zu AI safety und auch Möglichkeiten, wie man selbst einen wertvollen Beitrag dazu leisten kann, gibt es auf 80000 Hours.

Welche zusätzlichen Anregungen in der Hinsicht habt ihr? Welche Fragen stellen sich euch für die zukünftigen Entwicklungen?

Dritter Einwand – das Gehirn braucht Verbindungen zu Sensoren

Der Roboter- und der Kombinations-Einwand

Der Einwand, dass kein System ohne sensorische oder motorische Fähigkeiten eine Programm Implementation «bewusst» bewerkstelligen kann, kommt von den Befürwortern der situated movement. John Searles Problem im «Chinese Room» sei die Unfähigkeit, die in seinen Regelbüchern enthaltenen Begriffe und Abläufe mit der Welt ausserhalb des Zimmers zu verbinden. Zum Verstehen sei es erforderlich, dass die Abläufe zumindest an einigen Stellen mit der Realität, also dem Körper und der Aussenwelt, verankert seien. Die Interaktion mit der Umgebung und anderen Objekten durch Sensomotorik sei ein entscheidendes Kriterium bei der Informationsverarbeitung. (Dresler, 2009, S. 110-112)

«Chinese Room» Gedankenexperiment als grafische Animation

Dieser Einwand setzt aber trotzdem voraus, dass man davon ausgeht, dass mentale Repräsentationen im Gehirn und deren Manipulationen das menschliche Denken und Handeln bestimmen. Diese Voraussetzung gilt auch bei den Entwicklungen in der Robotik. Hier ein Link zu erweiterten Informationen auf Wikipedia zum Robot «Chinese Room».

Jedoch ist diese Annahme auch nicht allgemein gültig. Ein Gegner davon ist z.B. Robert Epstein.
Robert Epstein’s Article with some more arguments to refute the «the brain is a computer» thesis.

Zweiter Einwand – nicht alle involvierten Bestandteile müssen bewusst handeln

 Der System-Einwand und der Einwand des Konnektionismus

Der System-Einwand beinhaltet, dass nur weil ein Teil des Systems nicht «versteht», was es bewirkt, deshalb nicht daraus auf Nicht-Verstehen des ganzen Systems geschlossen werden könne. Auch wenn der Teil, der das Bewusstsein erzeugt und auslöst für Menschen nicht ersichtlich sei. Ähnlich ist auch die Argumentation der Konnektionisten. Ihr Modell des Bewusstsein sei nicht mit der These der Symbolmanipulation und -repräsentation wie im «Chinese Room» zu vergleichen. In ihrer These würden mentale Phänomene in einer tieferen Ebene, derjenigen der subsymbolischen Aktivitäten der neuronalen Netze, erzeugt. Es seien also keine Symbole unserer Weltauffassung, die simuliert werden. Sondern es sei die in die Computerwelt übersetzte Simulation dessen, was ein Neuron, wenn es eine Synapse im Gehirn erregt, auslöse. (Dresler, 2009, S. 101, 106, 107)

Interessanterweise stützt auch die Natur die These, dass viele Dinge, die z. B. die Evolutionsbiologie erforscht, gemeistert werden, ohne, dass die involvierten Bestandteile ein Verständnis für die Vorgänge aufweisen müssen. Ein bekannter Befürworter dessen ist auch der Philosoph und Kognitionswissenschaftler Dennett.
Daniel Dennett’s Talk
, a naturalistic approach to #Consciousness (Talks at Google)

Erster Einwand – kein Vergleich möglich

Allgemeiner Einwand

Das Gedankenexperiment baut auf menschliche Intuition auf, aber seine Einfachheit durch die Anschaulichkeit ist vielleicht nicht so intuitiv wie Searle uns auf den ersten Blick glauben machen will. Das gewählte Beispiel des Menschen im abgeschlossenen Raum, der ein «Programm» das Chinesisch spricht, implementiert scheint überzeugend. Durch solche mechanische Regeln könne sicher kein menschlich wirkendes Gespräch entstehen. Die Komplexität eines Algorithmus ist aber mit menschlichen «manuellen» Mitteln eigentlich gar nicht beschreibbar. Die Person im «Chinese Room» müsste dann also ein Übermensch sein und dementsprechend könnten wir als Betrachter uns gar nicht in sie hinein versetzen. Es würde von uns verlangen, dass wir uns mit übermenschlichen Fähigkeiten vergleichen. Aus einer logischen Perspektive wäre die Auswertung des Experiments so aber unmöglich. (Dresler, 2009, S. 98-100)

Haltet ihr das Computermodell des menschlichen Geistes für möglich?
«Chinese Room» Gedankenexperiment als grafische Animation

Sind nur menschliche Geisteszustände intrinsisch bzw. beobachterunabhängig?

Für Searle ist diese Frage ganz klar mit ja zu beantworten. Sonst seien alle physische Objekte nicht «intrinsic computational». Daraus folgt, dass sie beobachterabhängig sind. Das bedeutet, dass sie von unserer Interpretation abhängig sind, um das zu sein was sie sind. Sie benötigen berechnende Interpretationen, die ihren physikalischen Prozessen zugeschrieben werden. Weiter seien auch Berechnungen beobachterabhängig. Die wesentlichen Bestandteile Information, Repräsentation und Symbole wie sie üblicherweise auch in der Kognitionswissenschaft vorkommen sind laut Searle dementsprechend alle beobachterabhängig. Das fehlende interne beobachterunabhängige Kriterium zum Entdecken der Berechnungsprozesse mache aber einen entscheidenden Unterschied. Im beobachterabhängigen Sinne könne nämlich jedes System als informationsverarbeitend und berechnend beschrieben werden. (Dresler, 2009, S. 47-48)

Searles Kritiker hingegen werfen ihm vor dadurch den «common sense» zu ignorieren. Auch beobachterabhängige Betrachtungen seien nicht beliebig, sondern würden durchaus gewissen Einschränkungen unterliegen. Auch betonen die Gegner, dass Systeme, egal ob intern aufeinander «aufgebaut» oder durch sichtbare oder unsichtbare Verbindungen extern «gekoppelt» im Endeffekt gleichwertige Resultate erbringen können. Deshalb sei die Behauptung das Gehirn sei auch eine Art von Computer stichhaltig und die Frage danach, welche konkreten Berechnungen es ausführt, zulässig. (Dresler, 2009, S. 73-75)

Gibt es eine Abhängigkeit zwischen Bewusstsein und Verhalten?

Laut Searle ist das externe Verhalten kein Messwert für Bewusstsein und deshalb irrelevant für dessen Bestimmung. Intelligentes Verhalten sei ein epistemisches Kriterium, ein Kriterium der Wissenslehre und nicht ein ontologisches, der Seinslehre. Es braucht also zusätzlich Wissen zu den unterliegenden kausalen Strukturen der zu beurteilenden Verhaltensformen um einem System wirklich bewusstes Handeln zuzusprechen. Ohne das Wissen über diese Zusammenhänge sind von aussen betrachtet mentale Zustände unerkennbar. Dadurch lehnt Searle jegliche Aussagekraft des Turing-Tests ab. (Dresler, 2009, S. 54-55)

Die Kritiker sind aber der Ansicht, dass Verhalten unter entsprechenden Umständen ein logisches Kriterium für Bewusstsein ist. Es gäbe konzeptuelle Verbindungen zwischen dem Innenleben und dem Äusseren. Jegliche notwendige Verbindung zwischen mentalen Phänomenen und Verhalten als irrelevant zu diskreditieren sei deshalb unangemessen. Die Gegenseite gesteht aber trotzdem ein, dass das Bewerten des Verhaltens manchmal für mentale Phänomene weder notwendig noch hinreichend ist. (Dresler, 2009, S. 84-85)

Wert des Bewusstseins

Aber noch vor den Einwänden…

Allgemeines zu Gedankenexperimenten und deren Folgen

Ein Gedankenexperiment, dass die Annahmen über das menschliche Denken und Bewusstsein beleuchtet: Der «Chinese Room» von John Searle wurde von Vertretern unterschiedlichen Ansichten diskutiert und natürlich auch kritisiert. Die durch ein Gedankenexperiment gestützte Diskussion scheint bei der gegebenen Thematik aber gut gewählt. Das Jahrzehnte lange Gespräch darüber ist also auch eine Leistung. Unabhängig davon, ob man den Kernargumenten zustimmt oder nicht, oder ob man die gegebene Situation in dem Kontext als angemessen empfindet.

Damit man eine spezifische Frage isoliert betrachten kann, werden in Gedankenexperimenten (wie in den empirischen Wissenschaften) alle für die spezifische Frage irrelevanten Variablen ausgeschlossen, was dazu führen kann, dass die gegebenen Situationen in der realen Welt selten oder (vorerst) gar unmöglich sind. In der realen Welt ist es dann umso wichtiger, nach weiteren Entscheidungen und Begründungen Ausschau zu halten, die das Gedankenexperiment ausblendet, um analytische Klarheit zu schaffen und einzelne Faktoren isoliert betrachten zu können.

Zusammenfassend will also ein Gedankenexperimenten nicht herausfinden, wie wahrscheinlich es ist, dass der beschriebene Fall tatsächlich stattfindet. Es geht darum, dass man den Begründungen, wie sie bei den isolierten Fällen entstehen, unter Umständen sonst gar nicht folgen würde. Da unsere Begründungen in der Welt Ausdruck unserer Werte und Ziele sind, kann die Reflexion über Gedankenexperimente weitreichende Folgen haben.