Differentia

Monat: Mai, 2012

Person, Intelligenz, Gedächtnis, Lernen #systemtheorie

[…] Erwartungen gewinnen mithin im Kontext von doppelter Kontingenz Strukturwert für den Aufbau emergenter Systeme und damit eine eigene Art von Realität (= Anschlußwert). Das gleiche gilt … für alle semantischen Reduktionen, mit denen die beteiligten Systme eine für ihre wechselseitige Beobachtung und Kommunikation ausreichende Transparenz erzeugen.
Ich denke an Begriffe wie Person, Intelligenz, Gedächtnis, Lernen. »Person« ist die Bezeichnung dafür, daß man nicht beobachten kann, wie es zustande kommt, daß Erwartungen durch Zusammenhang in einem psychischen System an Wahrscheinlichkeit gewinnen (oder anders formuliert: für den Sicherheitsgewinn des Kennenlernens), »Intelligenz« ist die Bezeichnung dafür, daß man nicht beobachten kann, wie es zustande kommt, daß das selbstreferentielle System im Kontakt mit sich selbst die eine und nicht die andere Problemlösung wählt. »Gedächtnis« ist die Bezeichnung dafür, daß man nicht beobachten kann, wie der komplexe aktuelle Zustand eines Systems in den nächsten übergeht, so daß man statt dessen auf ausgewählte vergangene Inputs als Indikatoren zurückgreifen muß. »Lernen« ist die Bezeichnung dafür, daß man nicht beobachten kann, wie Informationen dadurch weitreichende Konsequenzen auslösen, daß sie in einem System partielle Strukturänderungen bewirken, ohne dadurch die Selbstidentifikation des Systems zu unterbrechen. […]
Luhmann, Niklas: Soziale Systeme, 1984, S.158

Person, Intelligenz, Gedächtnis und Lernen wären demnach nicht beobachtbare Beobachtungen, deren Realität nur in ihrer Wahrscheinlichkeit für Anschlussfindung begründet liegt und welche sich durch nichts anderes ergibt als dadurch, dass die sich daran knüpfende Irritiablilität entsprechende Differenzierungen in Unterscheidungsroutinen überführt und dabei die Genauigkeiten der Selektionsverkettungen der Intransparenz überlässt. Deshalb heißt es in dem Zitat oben, dass im Zusammenhang mit doppelter Kontingenz alle Beobachtung und Kommunikation eine ausreichende Transparenz erzeugen: eine ausreichende, also eine Mindestransparenz. Daher auch die immer wiederkehrenden Einwände, dass diese Begriffe angeblich höchst ungenau, höchst schwammig und unpräzise sind: Jeder Präzisierungsversuch, also z.B. durch semantische Differenzierung, vergrößert nur die Intransparenz der Anschlussfindung und kann sehr wohl zur Entmutigung der Kommunikation führen, weil alles was in diesem Zusammenhang noch beobachtet wird nur die Wahrscheinlichkeit steigert, dass bald niemand mehr weiß worum es geht.

Gerade im Zusammenhang um den Zirkus der sog. Technologischen Singularität kann man feststellen, wie hier mit einem nicht unerheblichen propagandistischem Aufwand die Nichtbeobachtbarkeit von Funktionsbedingungen sozialer Zusammenhänge in einen säkularen Jenseitsglauben überführt wird. Eine technische Intelligenz könnte die menschliche Intelligenz überwuchern. Könnte dies passieren, so könnte aufgrund der überforderten menschlichen Intelligenz eine technologische Intelligenz nicht mehr festgestellt werden.

Technologische Singularität zu erwägen heißt, nicht beobachtbare Beobachtungen zu verstärken.

Die Intelligenz der Metaphysiker künstlicher Intelligenz

Allgemein formuliert benutzen Physiker ein Beobachtsschema, das zwischen Realität und Theorie unterscheidet. Diese Unterscheidung ist seit Newton prominent und seit Entwicklung der Quantenphysik überraschenderweise nicht obsolet geworden, obgleich schon Werner Heisenberg hinsichtlich der Unschärferelation den Gedanken anstoßen konnte, dass eine physikalisch beschreibbare Realität nicht außerhalb eines Beobachtungszusammenhangs entstehen kann. „Heisenberg berücksichtigte erstmals, dass es ohne gegenseitige physikalische Beeinflussung von Objekt und Beobachtungsinstrument keinen Messprozess geben kann, und dass den Auswirkungen durch die Quantisierung der Naturvorgänge bestimmte untere Grenzen gesetzt sind.“

Die Leistungsfähigkeit dieses Beobachtungsschemas war durch eine Kontrastierung gegeben, die sich gegen die aristotelische Tradition absetzte, welche den Irrtum auf der Seite der Realität vermutete. Wenn die Dinge nicht so sind wie theoretisch gedacht, so hatte sich die Realität geirrt. Die modernen Physiker verankerten den Irrtum auf der Seite der Theorie und nahmen die Ergebnisse des Experiments als Prüfungskriterium für Realität. Die allgemeine Annahme lautet: die Theorie sei nicht real, das Experiment sehr wohl, weshalb sich eine jede Theorie durch Experimente zu beweisen habe. Aus diesem Grunde, so hatte Popper 1934 in der Logik der Forschung erklärt, habe die Naturwissenschaft kein Problem mit der Quelle der Erkenntnis. Die Wissenschaftler könnten sich ihre Hypothesen im Tiefschlaf ausgedacht haben oder im Drogenrausch, entscheidend seien die Ergebnisse des Experiments, nicht die Realität der Hypothese oder die Realität der Theorie, aus welcher Hypothesen abgeleitet werden. Insofern wäre ein wildes Herumspekulieren in der Naturwissenschaft jederzeit erlaubt, weil nämlich die Prüfungsergebnisse von Experimenten nur sehr wenig erlauben.

Seit etwa zweihundert Jahren wurden ganze Wälder abgeholzt, um diese zugegebenermaßen naive Vorstellung zu widerlegen, ohne Erfolg. Der Grund ist, dass man Hypothesen weder verifizieren noch falszifizieren kann, jedenfalls wird durch Bestätigung oder Widerlegung keine endgültige Entscheidung darüber getroffen, wie die Forschung weiter gehen kann. Insofern scheitert dieses Beobachtungsschema nicht am Widerspruch oder an der Widerlegung, im Gegenteil: so lange jeder Widerspruch dieses Beobachtungsschema beansprucht, wird es nur erhärtet und trainiert damit die sozialen Selektionsprozesse. Vielmehr scheitert es dann, wenn die Forscher anfangen, das durch dieses Beobachtungsschema erzeugte re-rentry nach dem selben Schema zu behandeln.

Kurz erklärt: die Unterscheidung von Realität und Theorie wird von einer intelligiblen Instanz benutzt, z.B. von Menschen. Auch für Physiker sind Menschen, obgleich die Physik Menschen nicht nach Maßgabe ihrer Methoden vollständig erfassen kann, ein Gegenstand der physikalischen Forschung, insofern der Verstand notwendig am Forschungsgeschehen beteiligt ist. Der interessante Prüfungsttrick könnte folglich sein, die Ergebnisse des Verstandes – also Theorie – als mögliche, aber nicht notwendige Illusion zu behandeln, womit Kontingenz einer jeden Theorie in Rechnung gestellt wäre. Für die Ergebnisse der Forschung, also für die sog. Realität könnte man nun etwas ähnliches hypothetisch vermuten, nämlich dann, wenn die Experimente selbst eine Intelligibilität erzeugen. Mit Intelligibilität ist nicht Intelligenz gemeint, sondern nur die Erfassung beobachtbarer Gegenstände, was auch Selbstreferenz einschließt. Die Prüfungsfrage lautet dann: was sagen die Messergebnisse aus, wenn dies der Fall wäre, wenn also die so verstandene Realität selbst kontingent wäre? Das geht aber nur, wenn man etwas Meßbares hat, um einem Irrsinns-Zirkel zu entgehen. Weshalb sich Intelligenz als Begriff anbietet. So könnte man also fragen: ist die Maschine oder ein intransparentes Netzwerk aus sich gegenseitig bedingenden Maschineneinschaltungs- und Ausschaltungsoperationen intelligent?

Rational kühl kalkuliert gibt es auf diese Frage drei mögliche Antworten: ja, nein und vielleicht. Rechnet man jede der drei Antwort als theoretische Realität durch und überprüft sie an einer realen Theorie, also an einem Gegenstand, der die gleichen Fragen stellt und Ergebnisse überprüft, so soll jemand mal sagen, was in dem Fall eigentlich gefunden werden könnte. Und von wem?