Differentia

Tag: künstliche Intelligenz

Das enigmatische Spiel der #Wissenschaft 4 #intelligenz #ki

zurück / Fortsetzung:  Der springende Punkt im Verhältnis von Denkbarem und Machbarem ist die Frage, auf welcher Seite dieser Gegenüberstellung ein mehr oder weniger an Komplexität möglich ist. Begonnen hatte die Forschung mit der Annahme, dass der Bereich des Denkbaren immer größer sei als der Bereich des Machbaren, woraus sich die Vorgabe abgeleitet hatte, dass nur Machbares verlässlicherweise darüber Auskunft gibt, womit man in der Wissenschaft zu rechnen hätte. Die Vermutung bestand immer darin, dass die hypothetische Rede einfacher ist als davon unterscheidbares Handeln, nämlich Werk-Handeln (Basteln, Werkeln) im Unterschied zum Rede-Handeln; entsprechend wurde die Priorität auf das Machbare gesetzt: als empirisch wird das bezeichnet, was machbar ist und zwar deshalb, weil dies als unwahrscheinlicher, als schwieriger betrachtet wurde.

Für den Fall der KI-Forschung, insbesondere für den Fall hoffnungsgestüzter Antriebe zur Forsetzung der Forschung, scheint mir inzwischen aber umgekehrte Fall vorzuliegen, dass sich nämlich durch die Komplexität der Forschung und durch den Fortschritt ihrer Ergebnisse längst herausgestellt hat, dass der Möglichkeitsraum, der sich aus dem Machbaren ergibt, größer eingeschätzt wird als derjenige, der sich aus dem Denkbaren ableiten könnte. Das kommt einerseits daher, dass der Bereich des Denkbaren so weit ausgedehnt wurde, dass besonders interessante, waghalsige oder skurrile Visionen kaum noch ins Gewicht fallen, andererseits aber deshalb, da die Rede vom vollzogenen Fortschritt die Möglickeit nahelegt, dass vieles von dem was ehedem in Science-Fiction ersonnen wurde, tatsächlich machbar geworden ist, woraus sich ganz kinderleicht folgen lässt, dass vieles andere genauso gut machbar sein müsste.
Müsste daraus nicht eigentlich folgen, dass sich nun das Machbare dem Denkbaren unterzuordnen hätte? Weil der Bereich des Denkbaren derjenige geworden ist, der weniger Möglichkeiten zulässsig macht und darum schwieriger und unwahrscheinlicher geworden ist. Aber warum wird nun das Denkbare nicht dem Machbaren untergeordnet?

Vordergründig könnte das damit zusammen hängen, dass dies mit der Systemreferenz „Technik“ nicht zu vereinbaren ist. Aller Technikgebrauch verlangt immer kapitalintensive Investitionen, die eine nachhaltige Betreuung erfordern. Die entsprechenden Anlagen, Einrichtungen, Werkstätten und Laboratorien lassen es nicht zu, ihren Gebrauchswert geringer zu schätzen, wenn die Anzahl möglicher Erfindungen rasant anwächst.

Vielleicht liegt aber auch eher die Vermutung nahe, dass der Bereich des Denkbaren, anders als ich zuvor behauptet hatte, tatsächlich immer schon der Schwierigere gewesen ist. Die hypothetische Rede ist tatsächlich sehr viel anstrengender als das Werk-Handeln und aus diesem Grunde wird in der KI-Forschung eine Erwägung epistemologischer Konsequenzen vermieden. Ähnliches gilt vielleicht auch für die Hirnforschung. Durch Rede (was vielleicht auch für das Schreiben gilt) kann das Scheitern von Argumenten angeblich leichter verschleiert werden, aber gerade weil das so ist, ist das hypothetische Reden deshalb schwerer, wenn die Selektion brauchbarer und testbare Hypothesen unter die Bedingungen von sozial gestreuter Entropie gerät.
Viel einfacher scheint es in der Wissenschaft daher zu sein, die epistemologischen Konsequenzen zu vermeiden, weil epistemologische Einwände, da sie niemals ohne Selbstreferenz auskommen, das Werk-Handeln erschweren.

Fortsetzung folgt.

Ethik und Ästhetik des Tyrannenmordes

(Bitte vor dem Lesen dieses Textes erst das Video anschauen!)

Aus der Philosophiegeschichte ist das Problem des Tyrannenmordes gut bekannt. Das Problem behandelt die ethische Frage, ob es zulässig ist, einen Tyrannen zu ermorden, wenn es dadurch möglich wird, vielen anderen Menschen das Leben zu retten. Dieses Problem ist bis heute nicht gelöst. Es kennt keinen Ausweg, sondern verwickelt einen Beobachter immer wieder in eine deadlock-Situation und wird immer wieder aktualisiert. Dies betrifft in jüngster Zeit insbesondere den Tod von Sadam Hussein, Ghaddafi oder bin Laden.
Ist es ethisch gerechtfertigt, Tyrannen zu ermorden?

Ethische Ansprüche sind kompliziert und verlangen rekursive Definitionen, etwa indem man ethische Definitionen auf rationale Definitionen zurückführt, diese auf logische und diese wiederum, wenn sie auf Unentscheidbarkeit verweisen, auf ethische Definitionen angewiesen sind, damit man ethisch weiter argumentieren kann. Die damit entstehenden Irritationen werden ethisch umso problematischer, da man zwar ethische Argumente zurücknehmen, aber das Leben nicht zurück geben kann. Denn wie man weiß entschiedet sich durch Argumente gar nichts. Erst, sobald entschieden wurde, kann beobachtbar werden, dass es auch anders gegangen wäre, aber dann ist die Situation ein andere.

Vielleicht könnte in Zukunft das Problem des Tyrannenmordes eine interessante Verschiebung zeigen, nämlich dann, wenn immer aufdringlicher die Frage nach der Macht von Maschinen gestellt wird. Aus verschiedenen Science-Fiction-Filmen ist ein solches Szenario hinlänglich bekannt: irgendwelche Maschinen entwickeln ein Eigenleben, erzeugen ein Bewusstsein von sich selbst und einen eigenen Willen und fangen nun an, da sie – so wird angenommen – keine Moral verstehen, die Menschen zu bedrohen. Und aus wenig überzeugenden Gründen scheinen die Menschen gegenüber den Maschinen immer im Nachteil zu sein, weil Menschen Gefühle haben und Moral verstehen und dadurch in ihrer Kognitivität angeblich eingeschränkt wären.

Erstaunlich allein, dass diese Ungereimtheiten kaum populär diskutierbar sind: wie könnte eine Maschine Bewusstsein von sich selbst erhalten ohne zu leben? Oder wenn sie lebte, wie könnte sie gar nichts empfinden? Oder wenn sie etwas empfände, wie könnte sie keine Moral kennen? Oder wenn sie eine Moral entwickelte, warum immer nur eine schlechte? Also: woher und warum eigentliche dieses Angstszenarien? Warum dies ans Pathologisch grenzende Verlangen, Probleme wiederherzustellen, die keine Lösung kennen?

Die Geschichte, die oben in dem Video erzählt wird, ist eine moralische Geschichte. Die Maschine kann zwischen gut und böse, schuldig und unschuldig unterscheiden. Aber: der Schreckensschrei am Schluss der Geschichte verweist darauf, dass die Zukunft immer offen ist und darum immer auch anders verlaufen kann.
Das schöne dieser Videogeschichte ist, dass sie die Ästhetik eines Werbespots mit der ethischen Problem des Tyrannenmordes in Verbindung bringt und eine interessate Variante erzählt, mit der man die Ungereimheiten des Problems aufs neue aus dem Wege gehen kann: durch Design, durch die Inszenierung eines schönen Scheins, der trotz seiner Inszenierung gar nicht vermeiden kann, ein Angstszenario zu wiederholen.

Das Problem wird einfach nur umverpackt. Damit kann man dann weiter machen.

Dieses Angstszenario, wie es auch in dem Video angedeutet wird, verweist auf den blinden Fleck zweier miteinander zunächst nicht verbundenen Beobachtungen, nämlich erstens das Problem des Tyrannenmordes und zweitens das Problem der kognitiven Selbstreferenz. Das Problem des Tyrannenmordes bezeichnet die Ungewissheit darüber, dass man einen Menschen operativ töten kann, obwohl dies ethisch verboten ist. Und das Problem der Maschinenmacht bezeichnet die Schwierigkeit, dass man eine Maschine in ethischer Hinsicht ausschalten darf, aber was wäre, wenn dies nicht mehr geht?