Nachdem ich das noch einmal gelesen habe, stellte sich bei mir ein "Aha"-Effekt ein.Thaddäus hat geschrieben:Man kann das Seelische des Menschen, seine mentalen Zustände und geistigen Tätigkeiten durchaus als "Innenaspekt der Informationsverarbeitung im Menschengehirn" definieren, wie es der obige Text tut. Aber genau dieser "Innenaspekt der Informationsverarbeitung im Menschengehirn" ist ja das Rätsel des Bewusstseins!
Ein herkömmlicher Computer verarbeitet Informationen und zeigt dann ein bestimmtes Verhalten (spielt Schach oder übersetzt die eine Sprache in eine andere wie Google-Translate etc.). Aber wie es zu einem Innenaspekt dieser Informationsverarbeitung kommen könnte und wie man einen solchen Innensapekt einem Computer beibringen kann, das ist gerade das große Problem der KI, an denen sich die KI-Informatiker immer noch abarbeiten. Offenbar ist es nicht ganz so einfach, einem Computer Innenaspekte seiner Informationsverarbeitung beizubringen.
Das bedeutet, der obige Text lässt diese entscheidende Frage gerade außen vor. Klar kann man sagen, das Seelische und Geistige seien Innenaspekte der Informationsverarbeitung. Aber was das genau bedeutet und wie man es simulieren kann, das ist eben nicht so leicht zu klären. Ein Schachcomputer spielt eigentlich kein Schach, weil er nicht weiß, was er tut, wenn er Schach spielt. Er hat gar keine Ahnung von Schach. Ebenso wenig versteht der Google-Spanisch-Translater etwas vom Spanischen. Der Translater wendet sehr intelligent programmierte Regeln an, aber er versteht trotzdem kein Spanisch (vgl. John Searles "Chinesisches Zimmer").
Was du (und auch Searle mit seinem chinesischen Zimmer) hier postulierst, ist dass es zwar für eine Maschine unbewusst möglich ist, Spanisch (oder Chinesisch) zu übersetzen. Daraus ziehst du den Schluss, dass ein solcher Computer niemals ein Bewusstsein haben kann, wie ein Mensch; der Computer bleibt sozusagen ein "philosophischer Zombie" — er kann kommunizieren wie ein Mensch aber ihm fehlt die "Verinnerlichung" der Informationen.
Der geistige Vater der Informatik Alan Turing, hat 1950 seinen unter Anhängern der KI berühmt gewordenen "Intelligenztest für denkende Maschinen" vorgeschlagen. In diesem einfachen Test sollen Mensch und Maschine gleichermaßen einen (in einem getrennten Raum sich aufhaltenden) Unparteiischen davon überzeugen, dass sie menschliche Fähigkeiten besitzen, in dem sie ihm abwechselnd beliebige Fragen beantworten müssen. Gibt es einen strengeren Beweis als die reale Willkürlichkeit eines solchen Turing-Tests?
Nun könnte man einen "Androiden" einem noch strengeren Test unterziehen...
Wir stellen dem Roboter eine Frage, die er (natürlich) bravourös beantwortet, und nun bitten wir ihn zu erklären, WIE er denn die Aufgabe gelöst hat. Nun wird er vielleicht antworten, er hätte da eine Linie gezogen, oder dort ein Bild gezeichnet... je bohrender die Fragen werden, desto reflexiver muss der Roboter antworten.
Aber sind nicht solche reflexive Antworten, Gedanken über Gedanken? Handelt es sich also um Gedanken höherer Ordnung, von denen der Kognitions-Forscher David Rosenthal meint, sie können NUR in Form von Bewusstseinszuständen auftreten.