Differentia

Tag: künstliche Intelligenz

Die Frage, ob ein Roboter handeln kann … @timbruysten

Von Tim Bruysten gibt es hier einen Artikel, der sich mit der Frage nach der Zurechnungs- und Schuldfähigkeit selbstlernender und selbstentscheidender Automaten befasst. Der Artikel reißt juristische und ethische Probleme an, die sich ergeben, wenn durch die Beteiligung von Robotern Komplikationen entstehen: „Technologie lässt sich nicht so einfach aus einer Gesellschaft entfernen. Die Vorteile könnten die Risiken bei weitem überwiegen. Die Chance, dies zu tun steigt, wenn wir versuchen wirklich umfassend zu argumentieren und wenn wir vielleicht etwas bescheidener werden, was die Einschätzung unserer eigenen Leistungen als individuelle Menschen oder auch als ganze Menschheit angeht.“

—-

Wir leben in einem alten Fachwerkhaus, das im 19. Jahrhundert erbaut wurde. Die Wände bestehen aus Holzbalken, Lehm und Stroh. Unser Haus- und Hofzimmermann hatte mir mal erklärt, dass diese Wände „atmen“ können. Das geschieht, indem sie Feuchtigkeitsunterschiede zwischen warmer und kalter Luft von innen nach außen selbstständig regeln. Deshalb darf man diese Wände nicht mit irgendeiner Schicht von innen oder außen versiegeln. Die Wände würden in dem Fall anfangen zu schimmeln, weil die Feuchtigkeit nicht mehr durch die Wand sickern kann. Die Vorbesitzer hatten eben dies getan. Sie hatten die Wände daran gehindert zu atmen. Ein ethisches Problem hat sich daraus nicht ergeben. Warum eigentlich nicht?
Aus der physikalisch erklärbaren Tatsache, dass Wände atmen können, ergibt sich kein ethisches Problem, aber aus der Tatsache, dass Roboter handeln oder Computer denken können sehr wohl. Warum eigentlich? Warum wird aus der Frage, ob ein Roboter handeln kann, ein ethisches Problem gemacht, wenn man doch einen Roboter am Handeln hindern kann, indem man zum Beispiel einen weiteren handlungsfähigen Roboter gegen ihn einsetzt? Warum sollte daraus ein ethisches Problem resultieren, aber nicht aus der Frage, ob es zulässig ist, eine Wand am atmen zu hindern?

Nun, die Erklärung dafür ist nicht, dass die Verwendung der Wortwahl, die die Zurechnung einer bestimmten Leistungsfähigkeit erkennbar macht, in dem einen Fall nur einen metaphorischen Charakter hat und in dem anderen Fall nicht. Denn gleichviel ob „atmende Wände“ oder „handelnde Roboter“, in beiden Fällen ergibt sich eine metaphorische Sprachcharakteristik schon deshalb, weil so etwas wie eine sprachlich Zuordnung von Eigenschaften oder Fähigkeiten immer ihre Kontingenz einschließt; eine einwandfreie, richtige oder eindeutige Zuordnung lässt ein Sprachgebrauch nicht zu. Folglich können aus der Verwendungslogik der Sprache keine ethischen Probleme abgeleitet werden. Trotzdem werden in dem einen Fall ethische Probleme aufgeworfen und in dem anderen Fall nicht.
Mit Sprache hat das also nicht viel zu tun. Aber mit Technik auch nicht. Denn Technik macht keine Probleme; und übrigens auch keine Lösungen.

Die Standardbetrachtungsweise in einem solchen Fall lautet, dass Probleme und Lösungen von Menschen gemacht würden. Genau diese Standardbetrachtung wird von Tim Bruysten auf ihre Kontingenz hin untersucht, indem er fragt, was wäre, wenn nun auch Roboter im Straßenverkehr beteiligt sind und durch eigenständige Entscheidungen Handlungen verursachten und damit Komplikationen und Probleme aufwerfen. Soweit ist diese Frage gar nicht abwegig, aber die Antworten, bzw. die Antwortmöglichkeiten sind es, die Tim Bruysten anbietet. Denn dass aus Entscheidung und Handlung ethische Komplikationen entstehen könnten, ist eines der gewöhnlichsten Manöver, die jeder soziologische Handlungstheoretiker im Anfangsstadium schon vollzogen hat, noch bevor er sich fragt, ob auch Roboter handeln können. Will man zugestehen, dass auch Roboter handeln könnten, dann bleibt jeder Soziologe so gelassen wie ein Schluck Milch, weil er nicht wüsste, aus welchem Grunde das nun ein größeres Problem wäre als jedes andere ethische Problem, das sich aus handlungstheoretischen Verwicklungen ergibt. Eine revolutionäre Sichtweise ist nirgends in Sicht. Im Gegenteil.  Es wird ein abgestandener Teebeutel zum x-ten Mal – und wahrscheinlich nicht zum letzten Mal – aufgegossen.

Daraus kann man die Vermutung ableiten, dass weder Handlungstheorie oder Ethik noch raffiniertere technische Tüfteleien weiter helfen. Und man kann vermuten, dass die Experten auch in Zukunft noch bei Handlungstheorie, Ethik und Technik eine Zuflucht suchen werden, weil durch diese Routine nirgends erkennbar werden kann, wie man die Dinge anders behandeln könnte – ein sehr probates Mittel, mit dem dafür gesorgt wird, dass alles, was die Zukunft bringt, renovativ behandelt werden kann. Renovation heißt, die bekannte Problemlage zu retten und zu erneuern, indem alle Neuerung unter der Bedingung behandelt wird, dass die Problemsituation, gleichviel ob sie soziologisch, technologisch oder philosophisch-ethisch konstruiert wird, so bleibt wie sie ist.

In dem Maße, wie sich diese Beharrlichkeit gesellschaftlich erfolgreich behauptet, muss sie sich im Zeitverlauf eine Änderung der Betrachtungweise durch andere Probleme selbst aufzwingen lassen. Anders geht es unter dieser Voraussetzung nämlich nicht. So versucht zwar Tim Bruysten irgendeine allesumkehrende Betrachtungsweise anzudeuten, aber das kann nicht gelingen, weil die „Kontingenz dieser Kontingenz“ als selbstverständliche Routine der Verlängerung von Inkommunikabilitäten behandelt wird.

Ein hübsches Mittel zur Konservierung ist daher der Versuch, Revolutionäres ins Gespräch zu bringen. Das ist uralt, rettet die bekannten Probleme sehr verlässlich, weil daraus wieder nur bekannte Probleme resultieren. Und das ist zum Weinen.

Der Turing-Test als Glasperlenspiel

https://twitter.com/kusanowsky/status/475939760834609153

In dem verlinkten Artikel heißt es:

Computerprogramm „Eugene“ besteht Turing-Test. Bei einer Veranstaltung der University of Reading hat ein Computer den berühmten Turing-Test bestanden. Er machte menschlichen Schiedsrichtern in einem Chat glaubhaft, dass er ein 13-jähriger Junge sei.

Berichtet wird, dass die Mitteilungsfähigkeit eines Computerprogramms unter bestimmten Bedingungen nicht von der eines 13 jährigen Kindes unterschieden werden kann. Folglich habe das Computerprogramm den Turing-Test bestanden. Daraus kann man berechtigterweise den Schluss ziehen, dass, wenn wenig geht, auch mehr möglich ist, sofern Fortschritt funktioniert. Und dass er nicht funktioniert, kann niemand so einfach erklären.

Entsprechend könnte dieser Bericht eine kleine Sensation sein. Künstliche Intelligenz ist von natürlicher Intelligenz nicht zu unterscheiden. Aber was heißt das schon? Jeder, der einen Nachbarn hat wie ich einen habe, weiß, dass es natürliche Intelligenz gar nicht gibt. (Und wenn du keinen Nachbarn hast wie ich, dann bestimmt einen Kollegen oder Chef, für den das selbe gilt.) Was wäre also von künstlicher Intelligenz zu erwarten, wenn, wie in diesem Experiment, der Beobachtung zur Fähigkeit unterstellbarer Selbstreferenz große Hindernisse entgegen gebracht werden? Denn in diesem Experiment wird nur das Hinundher schriftlicher Mitteilungen einer Bewertung unterzogen, lächeln, lachen, anschreien, treten, schlagen, prügeln, also das ganze Programm von Mitteilungshandlungen, lässt sich auf diese Weise nicht als Mitteilungsversuche testen.

Ob man nun Intelligenz zurechnen möchte oder nicht – davon ist nicht abhängig, ob sich Kommunikation ereignet oder nicht. Eine noch so große meßbare Intelligenz stellt nicht sicher, dass Kommunikation weiter geht.  Intelligenz ist – entgegen sämtlicher Science-Fiction-Visionen – kein magisches Vermögen, das Macht über Menschen gewinnt. Intelligenz, wie immer konzeptioniert und messbar, ist keine Zauberkraft, Intelligenz entfaltet weder auf natürliche noch auf künstliche Weise irgendeine Wirkungsmacht. Intelligenz ist nur etwas, dann man definieren und messen kann und dies nur unter Voraussetzung, dass es immer auch anders geht. Aber damit sind keine ausreichenden Bedingungen dafür gefunden, ob Kommunikation abläuft. (Beweis: der Kundenservice der deutschen Telekom zum Beispiel. Fraglos bist du intelligenter als ein dämliches Computermenue, aber das heißt nicht, dass du die Macht hättest, die Probleme zu lösen. Du kannst es nicht.)

Trotzdem aber ist dieses Experiment sehr aufschlussreich. Denn es zeigt die Kontingenz der Problemerfahrung. Es zeigt, dass Kommunikation eine soziale Operation und nicht identisch mit Humanvermögen ist. Mögen Menschen auch eine sehr differenziert ausgebildete Mitteilungsfähigkeit entwickelt haben und mag es sein, dass auch die Mitteilungsfähigkeit von Computerprogrammen zunimmt und weiter gesteigert werden kann. Das entscheidet noch nichts. Entscheidend ist ob die Kommunikation auch unter kompliziertesten Bedingungen noch möglich ist, wobei die Bewältigung von Komplikationen zwar nicht ohne Intelligenz geschehen kann und auch nicht ohne Maschinenintelligenz. Aber, wie oben bereits gesagt: Intelligenz entfaltet keine dämonisch-magische Wirkungsmacht. Das gilt für Menschenintelligenz genauso wie für Maschinenintelligenz. Beides ist nur Ergebnis sozialer Zurechnung, die immer auch anders ausfallen kann (Beispiel: Nachbarn, Arbeitskollegen). Kommunikation testet fortlaufend, ob die geeigneten Bedingungen zu ihrer Fortsetzung noch erfüllt sind. Kommunikation erschöpft sich nicht darin, Befehle zu geben oder ihnen zu folgen. Kommunikation ist nicht allein ein Hinundher von Mitteilungen. Kommunikation ist fortlaufendes Abtasten ausreichender Bedingungen ihrer Fortsetzbarkeit. Deshalb gilt der Grundsatz: wenn du nicht weißt ob Kommunikation stattfindet oder nicht, weil allein irgendwelche Mitteilungen nicht ausrreichend sind, um ihren Ablauf erschließen zu können, steigere die Bedingungen und teste ob sie kommunizierbar sind. Das zu unterlassen heißt, sich als Laborratte zur Verfügung zu stellen. Denn Laborratten stellen keine Bedingungen.
Stelle Bedingungen auch dann, wenn ihre Nichterfüllung zu deinem Nachteil sein kann. Erst das lässt Vermutungen darüber zu, ob Kommunikation stattfindet oder nicht.

So lernen die Entwickler von solcher Chat-Software etwas, das auch Soziologen und Psychologen nur mit großen Schwierigkeiten und Einwänden lernen können: sie bringen Kommunikation als Realität in Erfahrung, die sich nicht in Menschen- oder Maschinenfähigkeit erschöpft. Aus diesem Grund kann man sich von weiteren Fortschritten in dieser Sache sehr viel versprechen.