Der maschinenlesbare Staat

von Kusanowsky

So haben uns Marx und Foucault die Augen dafür geöffnet, dass die Ketten von heute oft aus jenen Hämmern geschmiedet sind, welche die Ketten von damals zerschlugen.

Richard Rorty: Habermas, Derrida und die Aufgaben der Philosophie. In, derselbe: Die Philosophie & die Zukunft, Frankfurt/Main, 2001, S. 41.

Wer erinnert sich eigentlich noch an die Diskussionen im Jahre 1984 über das Jahr 1984? Was hat sich eigentlich seitdem an den Diskussionen geändert? Damals war die Debatte um Datenschutz vor allem von Angstszenarien geprägt, welche jetzt zwar immer noch aufkommen, aber mir scheint, dass durch das Ende der atomaren Bedrohung diese Ängste sich durch Hoffnungen komplettieren. Seitdem Facebook und Wikileaks ihre Aufdringlichkeit bewiesen haben, führt wohl kein Weg mehr an der Einsicht vorbei, dass etwas Entscheidendes passiert ist und konsequenterweise werden verschiedene Meinungen darüber disktuierbar, was eigentlich darauf schließen läßt, dass das Entscheidende darin besteht, dass gegenwärtig etwas sehr Verschiedenes passiert. Und trotzdem wird man argumentieren können, dass zwei Ereignisse, wenn sie zusammen auftreten, wohl auch zusammen gehören. Der Einwand der Vermischung von Kontexten bezieht sich auf die Beobachtung eines Kontextes, der diese Kontextbeobachtung zulässig machen muss, wenn man andernfalls nicht annehmen wollte, das Unzusammenhängendes nur unzusammenhängend betrachtet werden kann. Denn wer hat noch nie von chaostheoretischen Zusammenhängen gehört? Sowohl im Fall Facebook als auch im Fall Wikileaks geht es um das Problem des Datensatzes, nicht eigentlich um Weltverbesserungs- oder Weltuntergangszenarien, wenn solche Visionen auch für das Geschäft von Massenmedien sehr viel attraktiver sind, weil sie stets auf Quanitäten angewiesen sind, und etwas davon prinzipiell Verschiedenes nicht kommunizieren können.

Der anhaltenden Angst vor Überwachung, die früher vor allem in der Angst vor staatlicher Überwachung bestand, wird jetzt, ganz massenmedial, die Hoffnung auf Transparenz an die Seite gestellt, welche sich als das dialektische Gegenstück zum maschinenlesbaren Identitätsnachweis erweist, nämlich: der maschinenlesbare Staat; und man könnte ahnen, dass damit die ausweglose Unterscheidung von Sicherheit und Freiheit ersetzt wird, welche nach herkömmlichen Routinen immer nur die Wahl zwischen „geht-nicht“ und „geht-gar-nicht“ herstellt. Es könnte also die nicht unberechtigte Hoffnung aufkommen, dass man ein wirksames Mittel zum Schutz vor dem Schutzmann finden könnte. Wer darauf allerdings ernsthafte Hoffnungen setzen will, versteht die Aporien des Schutzmanns nicht. Zunächst hat Mario Sixtus völlig Recht mit dem Argument, dass der Staat keine Privatsphäre hat, er also kein Recht auf Geheimnisse durchsetzen könne. Aber für den Staat gilt – wie für jedes andere System auch, das Schutzfunktionen übernehmen soll – dass der Schutzmann immerzugleich auch als Stalker in Erscheinung treten muss, wenn es ihm nicht gelingen sollte, seine Verfolgungsmaßnahmen zu verdecken. Nur wenn ihm dies gelingt, gelingt Überwachung, Transparenz lässt keine Überwachung zu. Ein Verhälntis von Transparenz und Intransparenz lässt sich mit keinem Kunststück, auch mit keiner Maschine aus der Welt schaffen, was sich theoretisch schon dadurch ergibt, dass Kommunikationssysteme chaotisch sind und gleichzeitig Stabilität ausbilden müssen. Nur im Bereichen von ausreichender Stabiltität kann man überhaupt von Systemen reden. Das heißt dann auch, dass Systeme mit anderen nur kommunzieren können, wenn sie gegenseitig in ein Verhältnis von Transparenz und Intransparenz treten. Diese Verhältnis bezeichnet die Fähigkeit eines beobachtenden Systems, dieses Verhältnis beim beobachteten Systems zu erkennen; und in dem Maße wie eines oder beide Systeme für einander intransparente Ordnungen ausbilden, wird ihre Kommunikation instabil und chaotisch, was aber nicht zu deren Zerfall führen muss, solange wenigstens das Verhältnis von Transparenz und Intransparenz beobachtbar bleibt. In diesem Zusammenhang heißt das auch, dass der Zugang eines Systms zu einem Datensatz immer durch ein anderes System konditioniert wird. Diese Einschliessungslogik beschränkt daher alle entsprechend strukturierten Systeme auf nicht kausale, selbstdeterministische Systeme, da der eingeschlossene Datensatz dem einschliessenden System immer bekannt sein muss. Andernfalls wäre nicht herauszufinden, was herauszufinden wäre. Daraus folgt, dass Beobachtungssysteme die Kommunikationsoperationen nur in Gang halten können, wenn sie Regionen eines Differenzverhältnisses ausbilden, innerhalb derer sie ihre Anschlussfähigkeit beobachtbar machen, was im Einzelfall ein Übergewicht an Intranparenz auch einschließen kann. Sofern aber Maschinen im Spiel sind brauchen sie gegenseitig transparente Ordnungen, die  bei vernetzten Computern unverzichtbar sind.

Computerarchitekturen erfüllen diese Transparenz über global definierte Standards. Aber eine offene Architektur müsste dies generisch im Gesamtsystem und zwischen Systemen leisten können. Die Aufgabe wäre dann, eine logische Computerarchitektur zu entwickeln, die sowohl assoziativ (im Sinne eines Simulationsmediums), d.h. in der alle Systemaktivitäten untereinander verknüpfbar und addressierbar sind als auch dialogfähig ist (im Sinne eines Diskursmediums), d.h. sie muss einen kontinuierlichen Prozess ermöglichen, bei dem Operationen auf ihre Anschlussfähigkeit beobachtet werden können, die dann wiederum kontinuierlich in einer nächst höheren Ordnung als weitere Operationen prozessiert werden. Soweit man das gegenwärtig beurteilen kann, ermöglicht die Logik heutiger Maschinen weder das eine noch das andere, weil die zugrundeliegende Einschliessungslogik zu nicht bewältigbaren Größen- und Komplexitätsproblemen führt. Computer unterliegen einer logischen Beschränkung, sie sind grundsätzlich nicht dialogfähig und sind damit auch nicht in der Lage, sich an die Logik ihrer individuellen Nutzer anzupassen. Tatsächlich geschieht eine Anpassung andersherum, indem nämlich die Nutzer sich an das durch Computer ermittelte statistisch definierte Verhalten eines „Common User‘ anpassen. Es ist nicht der Computer, der seinen User erforscht; es ist der User, der die Auswertungsergebnisse des Computers erforscht.

Ausserdem können Computer nicht assoziativ Datensätze und Operationen verknüpfen, weil sie keinen globalen und horizontalen Verknüpfungsraum zulassen, sondern lediglich hierarchisch geordnete, daher füreinander intransparente Datenräume herstellen. Eine neuronale Entsprechung wäre ein Doppelhirn, dessen eine Hälfte aus einem Datenspeicher, während die andere aus einem Netzwerk von Verbindungen besteht. Aber ein solches Gehirn ist bisher nicht gefunden worden. Stattdessen werden Daten wohl im Wesentlichen aus aktiven Verbindungen herstellt, ohne separaten Speicher.

Welche Hoffnungen man also auch immer an eine „Künstliche Intelligenz“ knüpfen möchte, wenigstens hängen diese Fragen mit der Fähigkeit zu Dialog und Assoziation zusammen. Und selbst wenn denkbar wäre, dass ein Netzwerk aus Maschinen, das dadurch zustande kommt, dass maschinelle Auswertungen andere Maschinen in Gang setzen, deren Auswertungen wiederum andere Maschinen in Gang setzen, als kreativer Beobachter beobachtet werden kann, so sind die daraus resultierenden Komplikationen theoretisch durch Maschinen nicht besser zu begreifen als durch normale Systeme, die auf der Basis einer „natürlichen Dummheit“ operieren.

Meine Frage also wäre, wodurch sich Hoffnungen auf Transparenz eigentlich begründen, wenn man nicht erkennen kann, dass Maschinen diese sicherstellen könnte. Der maschinenlesbare Staat hat deshalb genauso wenig Chancen wie der maschinenlesbare Bürger. Aber es sei gleichwohl betont, dass die Verkehrung eines kontingenten System-Umwelt natürlich sehr wohl schicksalhafte Folgen zeitigen kann.

Advertisements