Differentia

Tag: Robotik

#Ethik und #Robotik

In einem Vortag bei der #rp13 hat die amerikanische Wissenschaftlerin Kate Darling Überlegungen zu der Frage angestellt, ob es notwendig sei, unter Berücksichtigung einer Roboter-Ethik, Schutzgesetze für Roboter einzurichten, um das Mitteid, das Menschen Robotern entgegen bringen können, zu vermeiden. Einen ausführlichen Bericht dazu findet man bei Zeitonline vom 10.05.2013.

Ein anderer Versuch, der in diesem Zusammenhang eine Rolle spiel, ist der Versuch, Roboter mit einer Ethik-Funktion auszustatten, um sicher zu stellen, dass sie Handlungsanweisungen von Menschen gehorchen, da Roboter angeblich lernen könnten emotional zu handeln. „Roboter brauchen eine „Ethik per Voreinstellung“ – lautet die Überschrift eines Berichts bei Heise. de über den Vortrag von Sarah Spiekermann. Man glaubt gar nicht, wie weit Technikvertrauen und Technikgläubigkeit reichen kann. Beides reicht so weit, dass auch noch Meinungen darüber geäußert werden, dass ethische Vorbehalte gegen den Gebrauch von Technik und ihren Auswirkungen technisch eingerichtet werden könnten. Roboter könnten lernen, emotionale zu handeln, aber ethisches Handeln könnten sie nicht lernen? Sie können weder das eine noch das andere lernen! Soweit man weiß leben Roboter nicht. Und will man meinen, dass sie leben könnten, dann gibt es keine neue Problemlage.

Es ist bekanntes und hinreichend eingeübtes Verfahren besteht darin, dass Probleme, deren Herkunft und Zustandekommen nicht ausreichend erklärt werden können und darum auch nicht lösungsfähig sind, auf einer Ebene der Moral und Ethik zu behandeln. Auf dieser Ebene kommt es zwar auch auch nicht zu Verfahrenslösungen und Entscheidungsklarheit, aber Irritation und Diskurs um Ethik selbst sind geeignete Mittel, um der anderweitigen Unlösbarkeit der Probleme aus dem Wege zu gehen. Kaum etwas anderes erzeugt so viel Unklarheit wie die Forderung nach ethischen und moralischen Verhaltensstandards.
Dass solche Standards aber dennoch ins Gespräch eingebracht werden können und müssen, ist dann wieder erklärungsbedürftig. Warum wird über Ethik und Moral hoch irritativ kommuniziert, wenn doch gerade aufgrund dieser hoch irritativen Kommunikation klar erkennbar wird, dass außer Irritation und Fortsetzung der Kommunikation nichts anderes und besseres zu finden ist, schon gar nicht ein bessere Ethik? Warum dennoch solche Diskurse?

Der Grund dafür könnte sein, dass die Kommunikation über Ethik bereits rein performativ die Lösung von ethischen Problemen darstellt. Das ethische Moment ist seine Ausprache, ist die kommunikative Vergewisserung durch das Gespräch, ist die permanente Erinnerung zur Signalisierung von Problembewusstsein, das von sich selber weiß, über keine andere Lösungsmöglichkeit zu verfügen als diejenige, die Erinnerung an beunruhigende Probleme stabil zu halten. Die Stabilisierung des Problemsbewusstseins hat damit nicht etwa die Funktion, diese Probleme zu lösen, sondern ihre Unlösbarkeit der Dauerirritation zu empfehlen. Und auf dem Wege der Dauerirritation, die sich meist um Vermeidungsvorbehalte dreht, vollzieht sich dann doch das Unvermeidbare.
So hat die Dauerirritation den Charakter einer Selbstentschuldigung. Weil sich eben doch immer nur das Unvermeidliche ereignet, werden durch Kommunikation von Vermeidungsvorbehalten solche Entwicklungen unter einen „Kontingenzschutz“ gestellt. Weil man eigentlich möchte, dass die Dinge sich so ereignen, wie sie gewünscht werden und dabei gleichzeitig einrechnet, dass dies doch nicht geschieht, wird eben dies wiederum zum Gespräch angeboten, mag dann kommen, was da wolle. So ist die Aussprache ethischer Vorbehalte und beobachbare Anschlusskommunikation darüber das ethisches Handeln selbst. Ethisch handelt demgemäß wer Ethik ernst nimmt. Und über diesen Weg entschuldigt sich die Versammlung von anwesenden für ihr Versagen hinsichtlich der Lösung von Problemen, weil man nachträglich, sobald man die Ergebnisse kennt und beurteilt, immer noch anderen und anderem, meist Abwesenden einen Mangel an ethischem Problembewusstsein unterstellen kann.

Kommunikation über Ethik und Moral sind darum Risikovermeidungsmeidungsroutinen zur Selbstentschuldigung für den wahrscheinlichsten aller Fälle, dass die Dinge sich von selbst so oder anders ereignen.

Die Geschäftsbedingungen bei Diaspora: „You must be a human“

Lange hat man darauf gewartet, jetzt kann man teilnehmen. Das soziale Netzwerk mit dem treffenden Namen „Diaspora“ ist beitrittsfähig. Doch sollte man sich auch mal die Geschäftsbedingungen anschauen. Dort findet man interessanterweiser unter dem Punkt „A. Account Terms“ im zweiten Absatz die hübsche Formulierung: „You must be a human.“ Mein erster Gedanke war, was ein Roboter wohl denken könnte, wenn er das liest, ein mit dem Internet verbundener Toaster oder eine Balkonpflanze. Blödsinn, nicht? Wenn ja, warum dann diese Bedingung? Wenn zur Teilnahmebedingung gemacht werden kann, ein Mensch zu sein, dann verweist das auf eine Entwicklung, auf die hier durch Versperrung  dieser Entwicklung aufmerksam gemacht wird. Kein Zutritt für Roboter. Damit ist aber zugleich angezeigt, was für die Zukunft ansteht, wenn die Unterscheidung zwischen Mensch und Roboter, Mensch und Tier gar nicht mehr so eindeutig vorgenommen wird, wie man das immer noch glauben möchte.
Bereits in diesem Artikel ist auf das Problem schon aufmerksam gemacht und kurz diskutiert worden.Eine interessante, aber höchst spekulative Frage ergibt sich, wenn man darüber nachdenkt, unter welchen Bedingungen eine solche Bedingung als nicht mehr akzeptabel erscheinen könnte, wenn also die Inkludierung aller zur Bedingung gemacht wird. Im Zweifelsfall dann auch für Maschinen, Tiere. Und wer weiß, warum nicht auch für Geister?

Siehe dazu auch den Artikel:
Hirnbiologie, Robotik und Recht