Ethik und Ästhetik des Tyrannenmordes
von Kusanowsky
(Bitte vor dem Lesen dieses Textes erst das Video anschauen!)
Aus der Philosophiegeschichte ist das Problem des Tyrannenmordes gut bekannt. Das Problem behandelt die ethische Frage, ob es zulässig ist, einen Tyrannen zu ermorden, wenn es dadurch möglich wird, vielen anderen Menschen das Leben zu retten. Dieses Problem ist bis heute nicht gelöst. Es kennt keinen Ausweg, sondern verwickelt einen Beobachter immer wieder in eine deadlock-Situation und wird immer wieder aktualisiert. Dies betrifft in jüngster Zeit insbesondere den Tod von Sadam Hussein, Ghaddafi oder bin Laden.
Ist es ethisch gerechtfertigt, Tyrannen zu ermorden?
Ethische Ansprüche sind kompliziert und verlangen rekursive Definitionen, etwa indem man ethische Definitionen auf rationale Definitionen zurückführt, diese auf logische und diese wiederum, wenn sie auf Unentscheidbarkeit verweisen, auf ethische Definitionen angewiesen sind, damit man ethisch weiter argumentieren kann. Die damit entstehenden Irritationen werden ethisch umso problematischer, da man zwar ethische Argumente zurücknehmen, aber das Leben nicht zurück geben kann. Denn wie man weiß entschiedet sich durch Argumente gar nichts. Erst, sobald entschieden wurde, kann beobachtbar werden, dass es auch anders gegangen wäre, aber dann ist die Situation ein andere.
Vielleicht könnte in Zukunft das Problem des Tyrannenmordes eine interessante Verschiebung zeigen, nämlich dann, wenn immer aufdringlicher die Frage nach der Macht von Maschinen gestellt wird. Aus verschiedenen Science-Fiction-Filmen ist ein solches Szenario hinlänglich bekannt: irgendwelche Maschinen entwickeln ein Eigenleben, erzeugen ein Bewusstsein von sich selbst und einen eigenen Willen und fangen nun an, da sie – so wird angenommen – keine Moral verstehen, die Menschen zu bedrohen. Und aus wenig überzeugenden Gründen scheinen die Menschen gegenüber den Maschinen immer im Nachteil zu sein, weil Menschen Gefühle haben und Moral verstehen und dadurch in ihrer Kognitivität angeblich eingeschränkt wären.
Erstaunlich allein, dass diese Ungereimtheiten kaum populär diskutierbar sind: wie könnte eine Maschine Bewusstsein von sich selbst erhalten ohne zu leben? Oder wenn sie lebte, wie könnte sie gar nichts empfinden? Oder wenn sie etwas empfände, wie könnte sie keine Moral kennen? Oder wenn sie eine Moral entwickelte, warum immer nur eine schlechte? Also: woher und warum eigentliche dieses Angstszenarien? Warum dies ans Pathologisch grenzende Verlangen, Probleme wiederherzustellen, die keine Lösung kennen?
Die Geschichte, die oben in dem Video erzählt wird, ist eine moralische Geschichte. Die Maschine kann zwischen gut und böse, schuldig und unschuldig unterscheiden. Aber: der Schreckensschrei am Schluss der Geschichte verweist darauf, dass die Zukunft immer offen ist und darum immer auch anders verlaufen kann.
Das schöne dieser Videogeschichte ist, dass sie die Ästhetik eines Werbespots mit der ethischen Problem des Tyrannenmordes in Verbindung bringt und eine interessate Variante erzählt, mit der man die Ungereimheiten des Problems aufs neue aus dem Wege gehen kann: durch Design, durch die Inszenierung eines schönen Scheins, der trotz seiner Inszenierung gar nicht vermeiden kann, ein Angstszenario zu wiederholen.
Das Problem wird einfach nur umverpackt. Damit kann man dann weiter machen.
Dieses Angstszenario, wie es auch in dem Video angedeutet wird, verweist auf den blinden Fleck zweier miteinander zunächst nicht verbundenen Beobachtungen, nämlich erstens das Problem des Tyrannenmordes und zweitens das Problem der kognitiven Selbstreferenz. Das Problem des Tyrannenmordes bezeichnet die Ungewissheit darüber, dass man einen Menschen operativ töten kann, obwohl dies ethisch verboten ist. Und das Problem der Maschinenmacht bezeichnet die Schwierigkeit, dass man eine Maschine in ethischer Hinsicht ausschalten darf, aber was wäre, wenn dies nicht mehr geht?
Hat dies auf LOB's Metier rebloggt.
„Aus verschiedenen Science-Fiction-Filmen ist ein solches Szenario hinlänglich bekannt: irgendwelche Maschinen entwickeln ein Eigenleben, erzeugen ein Bewusstsein von sich selbst und einen eigenen Willen und fangen nun an, da sie – so wird angenommen – keine Moral verstehen, die Menschen zu bedrohen. […] Oder wenn sie eine Moral entwickelte, warum immer nur eine schlechte?“
Ich glaube das macht die Auswahl von Science-Fiction-Filmen als Quelle von Beispielen. Harmonie ist langweilig. Und trotzdem gibt es noch Gegenbeispiele wie Data und C3PO.
„Und trotzdem gibt es noch Gegenbeispiele wie Data und C3PO“
Der Einwand ist sehr berechtigt, weil er eigentlich darauf veweist, dass diese Kurzabhandlung sehr kurz ausgefallen und darum differenzierungsbedürftig ist. Wäre das aber differenzierter behandelt worden, dann wäre diese Kurzabhandlung etwas länger geraten. Im Prinzip spricht auch nichts dagegen, lange Kurzabhandlungen zu schreiben. Das einzige, was mich davon abhält eine solche zu verfassen ist, dass es nicht möglich ist, auch die gegenteilige Möglichkeit zu versuchen, nämlich: kurze Langabhandlungen zu verfassen.
Aber zu Argument: Diese Figuren in Star Trek werden nicht als Machtinstanz erzählt, sondern als Menschen. So wird beispielsweise ja versucht, bei Data ein Programm zu installieren, mit dem es ihm möglich sein soll, Gefühle zu haben. Es wird nicht erzählt, dass so etwas nur mit lebenden Organismen geht, die Zellteilung betreiben und darum sterblich sind. Gefühle sind für Organismen ja nur Wahrnehmungsreaktionen um Verhaltensregeln hinsichtlich einer undurschaubaren Umwelt zu seligieren. Kommt ein Bewusstsein hinzu, das Sinn versteht, dann werden Gefühle für den Organismus prekär, weil ja durch sinnverstehendes Bewusstein auch ganz andere Verhaltensmuster möglich werden, die sozial ermittel werden und auf die der Organismus nicht so leicht reagieren kann. Beispiel: Lustvoller Schmerz.
Übrigens zeigt dieses Beispiel, dass es keinen Grund gibt, Gefühlen zu misstrauen, weil Gefühle keine soziale Machtinstanz sind, da sich sich jeder Paradoxie entziehen und darum in sozialer Hinsicht nicht kontrollierbar sind. Für psychische Kontrollinstanzen mag das so nicht gelten, aber auch psychische Systeme sind keine sozialen Machtinstanzen.
„Es gibt wenig auf dieser Welt, was so uneingeschränkt als böse und vernichtenswert gelten darf, wie die Fiktion einer Sache, die künstlich gemacht ist, um Verehrung und Begeisterung auszulösen, und es gibt wenig, was so zwerchfellerschütternd komisch wirkt, wie ihre plötzliche Entlarvung … die Religion der Zukunft werde sich zu erheblichem Teile auf eine höher entwickelte, subtile Form des Humors gründen.“
Konrad Lorenz, „Das sogenannte Böse“
http://tomschrat.wordpress.com/2013/08/29/metaphysik/