Differentia

Tag: Ethik

Ethik und Ästhetik des Tyrannenmordes

(Bitte vor dem Lesen dieses Textes erst das Video anschauen!)

Aus der Philosophiegeschichte ist das Problem des Tyrannenmordes gut bekannt. Das Problem behandelt die ethische Frage, ob es zulässig ist, einen Tyrannen zu ermorden, wenn es dadurch möglich wird, vielen anderen Menschen das Leben zu retten. Dieses Problem ist bis heute nicht gelöst. Es kennt keinen Ausweg;  und es wird immer wieder aktualisiert. Dies betrifft in jüngster Zeit insbesondere den Tod von Sadam Hussein, Ghaddafi oder bin Laden.
Ist es ethisch gerechtfertigt, Tyrannen zu ermorden?

Ethische Ansprüche sind kompliziert und verlangen rekursive Definitionen, etwa indem man ethische Definitionen auf rationale Definitionen zurückführt, diese auf logische und diese wiederum, wenn sie auf Unentscheidbarkeit verweisen, auf ethische Definitionen angewiesen sind, damit man ethisch weiter argumentieren kann. Die damit entstehenden Irritationen werden ethisch umso problematischer, da man zwar ethische Argumente zurücknehmen, aber das Leben nicht zurück geben kann.

Vielleicht könnte in Zukunft das Problem des Tyrannenmordes eine interessante Verschiebung zeigen, nämlich dann, wenn immer aufdringlicher die Frage nach der Macht von Maschinen gestellt wird. Aus verschiedenen Science-Fiction-Filmen ist ein solches Szenario hinlänglich bekannt: irgendwelche Maschinen entwickeln ein Eigenleben, erzeugen ein Bewusstsein von sich selbst und einen eigenen Willen und fangen nun an, da sie – so wird angenommen – keine Moral verstehen, die Menschen zu bedrohen. Und aus wenig überzeugenden Gründen scheinen die Menschen gegenüber den Maschinen immer im Nachteil zu sein, weil Menschen Gefühle haben und Moral verstehen und dadurch in ihrer Kognitivität angeblich eingeschränkt wären.

Erstaunlich allein, dass diese Ungereimtheiten kaum populär diskutierbar sind: wie könnte eine Maschine Bewusstsein von sich selbst erhalten ohne zu leben? Oder wenn sie lebte, wie könnte sie gar nichts empfinden? Oder wenn sie etwas empfände, wie könnte sie keine Moral kennen? Oder wenn sie eine Moral entwickelte, warum immer nur eine schlechte? Also: woher und warum eigentliche dieses Angstszenarien?

Die Geschichte, die in dem Video erzählt ist eine moralische Geschichte. Die Maschine, die da erzählt wird, kann zwischen gut und böse, schuldig und unschuldig unterscheiden. Aber: der Schreckensschrei am Schluss der Geschichte verweist darauf, dass die Zukunft immer offen ist und darum immer auch anders verlaufen kann.
Das schöne dieser Videogeschichte ist, dass sie die Ästhetik eines Werbebotes mit der ethischen Problem des Tyrannenmordes in Verbindung bringt und eine interessate Variante erzählt, mit der man die Ungereimheiten des Problems aus dem Wege gehen kann: durch Design, durch die Inszenierung eines schönen Scheins, der trotz seiner Inszenierung gar nicht vermeiden kann, ein Angstszenario zu wiederholen.

Das Problem wird einfach nur umverpackt. Damit kann man dann weiter machen.

Dieses Angstszenario, wie es auch in dem Video angedeutet wird, verweist auf den blinden Fleck zweier miteinander zunächst nicht verbundenen Beobachtungen, nämlich erstens das Problem des Tyrannenmordes und zweitens das Problem der kognitiven Selbstreferenz. Das Problem des Tyrannenmordes bezeichnet die Ungewissheit darüber, dass man einen Menschen operativ töten kann, obwohl dies ethisch verboten ist. Und das Problem der Maschinenmacht bezeichnet die Schwierigkeit, dass man eine Maschine in ethischer Hinsicht ausschalten darf, aber was wäre, wenn dies nicht mehr geht?

#Ethik und #Robotik

In einem Vortag bei der #rp13 hat die amerikanische Wissenschaftlerin Kate Darling Überlegungen zu der Frage angestellt, ob es notwendig sei, unter Berücksichtigung einer Roboter-Ethik, Schutzgesetze für Roboter einzurichten, um das Mitteid, das Menschen Robotern entgegen bringen können, zu vermeiden. Einen ausführlichen Bericht dazu findet man bei Zeitonline vom 10.05.2013.

Ein anderer Versuch, der in diesem Zusammenhang eine Rolle spiel, ist der Versuch, Roboter mit einer Ethik-Funktion auszustatten, um sicher zu stellen, dass sie Handlungsanweisungen von Menschen gehorchen, da Roboter angeblich lernen könnten emotional zu handeln. “Roboter brauchen eine “Ethik per Voreinstellung” – lautet die Überschrift eines Berichts bei Heise. de über den Vortrag von Sarah Spiekermann. Man glaubt gar nicht, wie weit Technikvertrauen und Technikgläubigkeit reichen kann. Beides reicht so weit, dass auch noch Meinungen darüber geäußert werden, dass ethische Vorbehalte gegen den Gebrauch von Technik und ihren Auswirkungen technisch eingerichtet werden könnten. Roboter könnten lernen, emotionale zu handeln, aber ethisches Handeln könnten sie nicht lernen? Sie können weder das eine noch das andere lernen! Soweit man weiß leben Roboter nicht. Und will man meinen, dass sie leben könnten, dann gibt es keine neue Problemlage.

Es ist bekanntes und hinreichend eingeübtes Verfahren besteht darin, dass Probleme, deren Herkunft und Zustandekommen nicht ausreichend erklärt werden können und darum auch nicht lösungsfähig sind, auf einer Ebene der Moral und Ethik zu behandeln. Auf dieser Ebene kommt es zwar auch auch nicht zu Verfahrenslösungen und Entscheidungsklarheit, aber Irritation und Diskurs um Ethik selbst sind geeignete Mittel, um der anderweitigen Unlösbarkeit der Probleme aus dem Wege zu gehen. Kaum etwas anderes erzeugt so viel Unklarheit wie die Forderung nach ethischen und moralischen Verhaltensstandards.
Dass solche Standards aber dennoch ins Gespräch eingebracht werden können und müssen, ist dann wieder erklärungsbedürftig. Warum wird über Ethik und Moral hoch irritativ kommuniziert, wenn doch gerade aufgrund dieser hoch irritativen Kommunikation klar erkennbar wird, dass außer Irritation und Fortsetzung der Kommunikation nichts anderes und besseres zu finden ist, schon gar nicht ein bessere Ethik? Warum dennoch solche Diskurse?

Der Grund dafür könnte sein, dass die Kommunikation über Ethik bereits rein performativ die Lösung von ethischen Problemen darstellt. Das ethische Moment ist seine Ausprache, ist die kommunikative Vergewisserung durch das Gespräch, ist die permanente Erinnerung zur Signalisierung von Problembewusstsein, das von sich selber weiß, über keine andere Lösungsmöglichkeit zu verfügen als diejenige, die Erinnerung an beunruhigende Probleme stabil zu halten. Die Stabilisierung des Problemsbewusstseins hat damit nicht etwa die Funktion, diese Probleme zu lösen, sondern ihre Unlösbarkeit der Dauerirritation zu empfehlen. Und auf dem Wege der Dauerirritation, die sich meist um Vermeidungsvorbehalte dreht, vollzieht sich dann doch das Unvermeidbare.
So hat die Dauerirritation den Charakter einer Selbstentschuldigung. Weil sich eben doch immer nur das Unvermeidliche ereignet, werden durch Kommunikation von Vermeidungsvorbehalten solche Entwicklungen unter einen “Kontingenzschutz” gestellt. Weil man eigentlich möchte, dass die Dinge sich so ereignen, wie sie gewünscht werden und dabei gleichzeitig einrechnet, dass dies doch nicht geschieht, wird eben dies wiederum zum Gespräch angeboten, mag dann kommen, was da wolle. So ist die Aussprache ethischer Vorbehalte und beobachbare Anschlusskommunikation darüber das ethisches Handeln selbst. Ethisch handelt demgemäß wer Ethik ernst nimmt. Und über diesen Weg entschuldigt sich die Versammlung von anwesenden für ihr Versagen hinsichtlich der Lösung von Problemen, weil man nachträglich, sobald man die Ergebnisse kennt und beurteilt, immer noch anderen und anderem, meist Abwesenden einen Mangel an ethischem Problembewusstsein unterstellen kann.

Kommunikation über Ethik und Moral sind darum Risikovermeidungsmeidungsroutinen zur Selbstentschuldigung für den wahrscheinlichsten aller Fälle, dass die Dinge sich von selbst so oder anders ereignen.

Folgen

Erhalte jeden neuen Beitrag in deinen Posteingang.

Schließe dich 2.282 Followern an

%d Bloggern gefällt das: