Zum Inhalt springen
Prof. Dr. Klaus-Jürgen Grün, Philosoph und Zukunftsforscher
  • Von: Christian Luda
  • Advanced Analytics
  • 16.08.2019

Interview: „Mit KI verlieren unsere herkömmlichen Formen von Ethiken ihre Bedeutung.“

Anlässlich des Stuttgarter Zukunftssymposium „Ethik und KI“ haben wir mit dem Philosophen Prof. Dr. Klaus-Jürgen Grün über ethische Herausforderungen im digitalen Zeitalter gesprochen.

Herr Prof. Grün, wie wird künstliche Intelligenz uns in den kommenden Jahrzehnten verändern?

Da gibt es mehrere Aspekte. Der für mich interessanteste ist, wie sie unser Denken, also auch unser philosophisches Denken verändern wird. Künstliche Intelligenz macht uns darauf aufmerksam, dass wir wahrscheinlich über Jahrhunderte hinweg einer Illusion aufgesessen sind: Die Illusion, dass es eine analoge Abbildung der Welt, der Dinge und Vorstellungen in unserem Bewusstsein geben könnte. Wir haben geglaubt, dass die Intention eines Sprechers die Bedeutung seiner Worte festlege. Das ist eine analoge Denkweise. Künstliche Intelligenz zeigt uns, dass das nicht funktioniert, da ein Empfänger auf eine ganz ungeahnte Weise, nämlich nach selbst gesetzten Regeln, einen Code dekodieren kann. Und damit werden Informationen nicht vom Sender festgelegt, sondern werden zu einer Konstruktion des Empfängers.

Können Sie diesen Unterschied an einem Beispiel verdeutlichen?

Ja, darf ich Sie bitten, das Wort „Nein“ zu wiederholen?

Nein.

Warum nicht?

(Pause) Warum nicht?

Ja, sehen Sie, jetzt sind Sie verunsichert. Das meine ich mit der Veränderung, Sie sind es gewöhnt, dass Sie eine Antwort geben und die Bedeutung festlegen. Aber ich habe die Antwort „Nein“ als eine Verneinung der Aufgabe interpretiert und nicht als die Ausführung der Aufgabe. Künstliche Intelligenz verändert unser Bewusstsein und zerstört die Illusion, unser Bewusstsein habe eine absolute Bedeutung und könne eine Analogie zwischen Sachverhalten herstellen. Wir merken jetzt, dass diese Analogie im digitalen Denken zu einer geradezu unendlichen Vielfalt der Auslegungsmöglichkeiten führt.

Was ist für Sie in diesem Zusammenhang die größte ethische Herausforderung?

Wir sehen, dass mit der künstlichen Intelligenz unsere herkömmlichen Formen von Ethiken ihre Bedeutung verlieren. Der kategorische Imperativ von Kant war möglicherweise eine Ethikverhinderungskonzeption. Denn er hat ein System festgelegt, das uns im Grunde schon die Antworten auf die Frage, was zu tun ist, abgenommen hat. Wenn ich also eine Ethik wie die Vernunft- oder Tugendethik konstruiere und darin die einzig richtige Entscheidung zum Gutsein festlege – bei Kant wäre das der kategorische Imperativ –, dann brauche ich selbst keine Entscheidung mehr zu treffen. Das System gibt sie mir vor. Erich Fromm hat schon vor 70 Jahren in seiner Schrift „Die Furcht vor der Freiheit“ geschrieben, dass wir die äußere Autorität der Religionen oder absolutistischen Staaten durch eine innere Autorität der Vernunft ersetzt haben. Das sind unsere herkömmlichen Ethiken. Max Weber hat sie vor 100 Jahren Gesinnungsethiken genannt. Jetzt merken wir, dass sich diese ethischen Vorgaben – wir finden sie in Compliance-Regeln oder Empfehlungen von Ethikräten – auch wunderbar in selbstfahrende Autos, Flugzeuge, Maschinen oder Roboter einprogrammieren lassen. Wir können einer Maschine klar sagen: Du darfst Menschenleben nie verrechnen. Ein entführtes Flugzeug, das als Terrorwaffe eingesetzt wird, darf nicht abgeschossen werden. Die Abwägung, lieber 150 Leute in diesem Flugzeug zu töten als 15.000 Tote im Fußballstadion zu beklagen, ist nach diesen Gesinnungsethiken verboten. Demnach muss ich keine Entscheidung treffen. Wenn ich als Kampfjetpilot das Flugzeug nicht abschieße, kann ich immer sagen: Ich bin nicht verantwortlich, ich habe nur getan, was mir die Ethik vorschreibt. Ich kann also ein selbstfliegendes Flugzeug so programmieren, dass es niemals eine Entscheidung trifft, in der Menschenleben verrechnet werden. Unsere bisherige Gesinnungsethik lässt sich sehr leicht in Maschinen umsetzen. Was wir aber nicht können, ist das Strukturieren einer Verantwortungsethik. Diese würde bedeuten, dass ich als Pilot entscheide, ob ich die Ethik Kants zur Anwendung bringe oder nicht. Hier habe ich jetzt nicht Ethik und Verantwortung vermieden, sondern überhaupt erst möglich gemacht, indem ich etwas, was nicht bereits entschieden ist, zur Entscheidung gebracht habe. Wenn ich mich entscheide, das Flugzeug abzuschießen, muss ich die Verantwortung dafür übernehmen. Ich kann ein Auto so programmieren, dass es nie Menschenleben verrechnet. Dann habe ich die Entscheidung getroffen und bin verantwortlich für das, was passiert. Diese Verantwortung kann ich bislang nicht an einen Computer abgeben.

Wäre es denn möglich, diese Entscheidungen irgendwann einem Computer zu übergeben?

Stellen Sie sich vor, Sie haben ein System künstlicher Intelligenz, das nach eigenen Regeln eine bestimmte Situation beurteilt. Der Programmierer definiert Rahmenbedingungen und Grenzen. Asimov hat damals in seinem Buch „I, Robot“ Grundgesetze für Roboter festgelegt. Er sagte zum Beispiel, ein Roboter darf nie einen Menschen töten. Das können Sie so programmieren. Dann haben Sie die Entscheidung getroffen, dass ein Roboter nie einen Menschen töten darf. Für die Entscheidung tragen Sie die Verantwortung. Und wenn nun eine Software sagt: Ich schalte aus, dass diese Entscheidung von dem Besitzer des Roboters getroffen wird, dann hat derjenige, der diese Programmierung eingeführt hat, die Verantwortung dafür, dass der Mensch jetzt nicht mehr kontrollieren kann. Er hat aber nicht die Verantwortung abgegeben. Er hat nur die Regeln programmiert, nach denen ein System immer handeln soll. Und das ist das, was wir früher mit Gesinnungsethiken gemacht haben. Eine Compliance-Regel, die besagt, du sollst nicht mobben, die können Sie in einen Roboter wunderbar einprogrammieren. Der Roboter wird das dann auch nie tun. Der funktioniert einfach besser als der Mensch.

Ich würde gern auf das Beispiel des selbstfahrenden Autos eingehen. Wie soll man ein Auto auf eine Situation programmieren, in der nur zwei Möglichkeiten bestehen, die jeweils einen Unfall mit Todesopfern bedeuten?

Es gibt Leute, die denken pragmatisch und sagen: Jetzt müssen wir möglichst viele Beobachtungen anstellen, wie Menschen sich in einer solchen Situation verhalten. Aus diesen Beobachtungen erstellen wir einen Algorithmus, der als Entscheidungsgrundlage des selbstfahrenden Autos dient. Die Gesinnungsethiker aber sehen darin eine Verletzung der Menschenrechte. Eine Entscheidung eines Menschen dürfe niemals von einem Computer simuliert werden. Das Gebot, niemals Menschenleben zu verrechnen, würde in einer solchen Situation ja bedeuten, gar nichts zu tun. Tatsächlich läuft aber auch in unserem Gehirn eine blitzschnelle Güterabwägung ab, irgendwann wird ein Schlussstrich gezogen und eine Möglichkeit der Entscheidung wird in den Vordergrund gedrängt. Das kann innerhalb von Sekundenbruchteilen passieren. Aus der Hirnforschung wissen wir, dass in solchen Situationen die Entscheidung immer schon gefallen ist, bevor das Bewusstsein davon Kenntnis hat. Unsere Gesinnungsethiken sind überfordert mit diesen Situationen und sie führen eher zu einem System der Lähmung des Menschen statt zu einer Neufindung seiner Aufgabe. Denn jetzt ist er gefordert, eine Entscheidung zu treffen. Und die Entscheidung kann durchaus lauten, es dem Zufall zu überlassen.

Das heißt der Zufallsgenerator entscheidet…

Könnte man machen. Ich kann aber auch sagen, in 70% der Fälle überfährst du die eine und in 30% die andere Gruppe. Oder ich sage, in einer solchen Situation machst du gar nichts, sondern lässt mich das schnell entscheiden. Ich habe so viele Optionen und in diesen Optionen spiegelt sich ein neues Bewusstsein des Menschseins. Ich werde darauf aufmerksam, dass ich an entscheidenden Stellen die Verantwortung für mein Tun selbst übernehmen muss. Das kann die Programmierung einer Maschine, aber auch das Ausbleiben einer Programmierung sein.

Welche Variante favorisieren Sie?

Das ist eine sehr schwierige Frage. Ich tendiere dazu, die Entscheidung dem Roboter zu überlassen. Denn ich habe großes Vertrauen, dass in den Dingen, die Maschinen inzwischen an Genauigkeit produzieren, sehr viel weniger Gefahren liegen als in dem, was wir Menschen entscheiden. Der Autofahrer ist das größte Problem im Straßenverkehr. Ein selbstfahrendes Auto, das mit allen bekannten Möglichkeiten erfahren ist, wird nur dann zur Massenware, wenn es tatsächlich auch die Aufgaben besser als die Menschen löst. Das Gleiche gilt für Krankenhausroboter. Wir werden Operationen erst dann von einem Roboter durchführen lassen, wenn seine Fehlerrate kleiner wird als die des Menschen. Dann gäbe es keinen Grund, die größere Fehlerrate des Menschen zu favorisieren. Wenn ich für die Lösung mit dem geringsten Schaden bin, ist das zunächst eine rationale Entscheidung. Diese kann ich mit einer Verantwortungsethik verbinden, indem ich sage: Ich hatte auch die Möglichkeit, eine andere Entscheidung zu treffen, habe mich aber für diese entschieden. Nur wenn diese Freiheit da ist, können wir überhaupt von Ethik sprechen. Wenn ein System so überzeugend gut ist, dass es völlig irrational wäre, ein anderes System zu wählen, dann würde ich eher von Dummheit als von Ethik sprechen. 

Bei dem Beispiel der Operation leuchtet es ein. Aber wie verhält es sich mit zwischenmenschlichen Aspekten, beispielsweise dem Einsatz von Robotern in der Pflege?

Wenn ein Mensch nicht von Robotern gepflegt werden möchte, dann ist das zu respektieren. Wenn ein anderer aber die Entscheidung trifft, sich auch von einem Roboter pflegen zu lassen, warum soll er das nicht tun? Er muss ja auch eine Güterabwägung treffen. Vielleicht sagt er sich: Ein Mensch wäre mir eigentlich lieber, aber wenn das so viel teurer ist, die Pfleger unfreundlich sind oder mir sogar Gift ins Abendessen mischen, dann will ich doch lieber die Maschine haben. Warum soll er die Entscheidung nicht treffen dürfen?

Eine menschliche Pflegekraft wäre dann aber ein Privileg, das sich nicht alle Menschen leisten können.

Damit müssen wir rechnen. Wenn menschliche Arbeit so teuer wird, dass wir sie uns nicht mehr leisten können, gibt es zwei Optionen: Wir machen gar keine Arbeit oder wir lassen sie von Robotern machen. Oder Sie sagen: Alles muss so billig sein, dass es sich jeder leisten kann. Das ist dann allerdings mit bestimmten Ethikregeln bald auch nicht mehr vereinbar. Sie sind immer in der Situation, eine Entscheidung zu treffen über etwas, das noch nicht entschieden ist. Wenn wir also festlegen, dass niemals Roboter in der Pflege tätig sein dürfen, dann brauchen wir keine Ethik mehr. Denn dann hat das System, das dies verbietet, bereits alle Entscheidungen abgenommen. Leider befinden wir uns in einer Situation, in der diese beiden Denkweisen sehr vermischt werden. Menschen tun so, als wollten sie Ethik, aber tatsächlich möchten sie ausschalten, dass jemand eine Entscheidung trifft, und geben schon vor, was die einzig richtige Entscheidung sein kann.

Wie wird der Umgang mit Robotern uns Menschen verändern?

Wir werden das Menschliche wieder mehr schätzen. Wir werden schneller den Unterschied wahrnehmen. Wir werden vielleicht auch mehr Freiräume haben, uns mit Menschlichem zu beschäftigen. Denn was ist das für eine Art Beschäftigung, wenn ein Pfleger zum Bewohner einer Pflegeeinrichtung kommt und der kranke Mensch fragt: Warum sind Sie so freundlich? Und er sagt: Naja, weil es die Compliance-Regel vorschreibt. Das ist dann ja auch nicht viel schöner. Aber wenn die regelmäßige Arbeit von Maschinen übernommen wird und der Mensch dadurch Zeit bekommt, sich mit einem anderen Menschen ohne Erfüllung eines Arbeitsvertrages zu unterhalten, könnte das ja auch viel stärkere menschliche Bindungen aufbauen. Die ganze Oberflächlichkeit, die wir aus dem Berufsleben in die menschlichen Beziehungen hineintragen, könnte dabei verschwinden. Ich habe nicht die Vorstellung, als würde alles nur schlecht. Ich sehe sehr große Optionen, mit denen sich Dinge entwickeln können. Und ich habe großes Vertrauen in die Menschen, dass sie immer das Lebendige mehr schätzen werden als das Tote.

Denken Sie, dass wir aufgrund der Veränderungen um eine Form von Grundeinkommen nicht umherkommen werden?

Ich bin überzeugt, dass das kommen wird, und das ist bei mir nicht eine Frage, ob ich das gut- oder schlechtheiße. Ich weiß auch nicht, wie man das bezahlen kann – das ist egal. Ich sehe im Moment keinen Weg daran vorbei. Wenn mehr und mehr Arbeit erfolgreich von Robotern und Maschinen erledigt werden kann, dann haben wir tatsächlich einfach nicht genug Arbeit, um sie als Lohnarbeit auszuweisen. Das bedeutet, dass wir auch einen neuen Begriff von Arbeit generieren. Ich habe viel Marx und seine Schüler studiert und befasse mich gerade mit Eduard Bernstein und dem Revisionismus in der Sozialdemokratie – da kann ich sehen, dass viele Menschen eine Angst davor haben, dass Arbeit nicht mehr als Lohnarbeit definiert wird. Aber warum soll das, was ein Künstler macht, was einer macht, der sich freut, wenn er Bäume pflanzt und keinen Lohn dafür bekommt, nicht Arbeit sein? Wir müssen den Menschen die Möglichkeit geben, zu erleben, dass sie auch Glück bei der Arbeit erleben können, ohne dafür bezahlt zu werden.

Werden sich auch unsere Ethikvorstellungen ändern?

Das weiß ich nicht. Sie haben sich ja über Jahrtausende nicht geändert. Die Ethiken haben jetzt das Problem, dass sie nie das geleistet haben, was sie versprochen haben, nämlich den Menschen als ein freies Wesen zu betrachten. Sie haben den Menschen durch ihre Ethikvorschriften so behandelt, wie wir jetzt Roboter behandeln. Und das gefällt den Menschen nicht. Nehmen Sie den Turing-Test: Alan Turing hat sich vor ungefähr 70 Jahren, zur Zeit der ersten Computer, gefragt, was die Unterschiede zwischen Menschen und Robotern seien. In dem von ihm entwickelten Test bekommt ein menschlicher Fragesteller sowohl Antworten von einem Menschen und einer Maschine. Sobald er anhand der Antworten nicht mehr unterscheiden kann, ob sie von einer Maschine oder einem Menschen kommen, hat die Maschine den Test bestanden. Wir müssen das heute so sehen, dass wir Menschen durch den Turing-Test gefallen sind. Wir fangen auf einmal an, zwischen einem Menschen und einer Maschine nicht mehr unterscheiden zu können, und das bringt uns in eine ziemliche Verunsicherung. Und diese Verunsicherung zeigt, dass sich die Art und Weise verändert, wie wir Ethik und Moral überhaupt verstehen sollen.

Das heißt, wir werden unser Selbstverständnis als Menschen komplett überdenken müssen?

Ja, so ist es. Wir haben gesehen, dass unsere Ethiken die Menschen zu Robotern gemacht haben. Denken Sie an Adolf Eichmann, der sich in seinem Prozess 1961 in Israel auf den kategorischen Imperativ berufen hat und sagte, er habe nur seine Pflicht getan. Er sei nicht verantwortlich, sondern habe nur getan, was ihm vorgeschrieben wurde. So sind unsere Ethiken zum Teil immer noch. Sie behandeln uns wie Befehlsempfänger, die ohne Widerspruch ausführen sollen, was die Ethiken vorschreiben. Jetzt erleben wir, dass Roboter dies viel besser können als der Mensch. Uns wird jetzt bewusst, dass wir uns Menschen in der Ethik wie Roboter behandelt haben. Wir merken nun, dass wir etwas Menschliches haben. Und dieses Menschliche scheint in der Verantwortungsethik einen Ausdruck zu finden. Ich kann die Verantwortung delegieren, ich kann sie aber auch selbst behalten.

Einige Apokalyptiker fürchten, dass die Menschen irgendwann gar nicht mehr entscheiden, sondern die Maschinen wie in einem Science-Fiction-Film alles übernehmen. Sehen Sie diese Gefahr?

Vielleicht, aber das ist so weit weg. Wir Menschen haben mit unseren Entscheidungen über Jahrtausende hinweg großes Unheil über die Welt gebracht. Ich bin mir nicht sicher, ob es durch Maschinen wirklich schlimmer werden sollte. Wenn es so weit kommen sollte, müssen wir uns damit auseinandersetzen. Aber ich sehe, dass solche Vorstellungen dazu genutzt werden, eine generelle Angst vor der Veränderung zu verbreiten. Das war niemals anders, in Zeiten starker Veränderung treten immer Ideologen auf den Plan, die uns in Schutz nehmen wollen vor Veränderung. Deren Argumente sind nie ganz falsch, aber sie haben immer das Ziel, Veränderung zu verhindern. Und ich fürchte, es hat damit zu tun, dass sie Angst davor haben, dass sich auch die Machtverhältnisse verändern.

Eine Sache, die ebenfalls vielen Angst bereitet, ist die Einführung eines Social-Credit-Systems, wie es in China bereits geschehen ist. Können Sie sich vorstellen, dass es das in Europa auch geben wird?

Ich fürchte ja und freue mich nicht darüber. Aber hier können Sie sehen, was passiert. Es wünschen sich viele unserer moralisch stark inspirierten Menschen, dass sie durch Compliance-Abteilungen einen ähnlichen Effekt bewirken. Es braucht nur einer irgendetwas Unangepasstes zu sagen, was nicht in die Mitte hineinpasst, sondern irgendwo am politischen Rand beziehungsweise außerhalb des guten Geschmacks liegt, schon kommt ein Shitstorm und derjenige wird normiert. Ich weiß nicht, ob das so viel anders ist als das chinesische Social-Credit-System. Ich habe das Gefühl, dass sich dahinter dieselbe Absicht verbirgt. Sollten die Menschen das mit sich machen lassen, ist das bedauerlich für den Menschen. Dann habe ich mich in der Erwartung getäuscht, dass Menschen sich in einer solchen Situation nicht wohlfühlen und sich einen Freiraum schaffen. Wie der berühmte Ethiker Isaiah Berlin einmal sagte: Es kommt nicht nur darauf an, von wem wir regiert werden, sondern auch darauf, wieviel wir regiert werden. Und eine Freiheit kann auch eine Freiheit vor der unerwünschten Einmischung anderer in mein Leben bedeuten. Ich finde es sehr wichtig, dass wir uns einen Freiraum erhalten, in dem wir Entscheidungen treffen können, ohne dass ein Staat, ein Compliance-System oder eine Ethik bereits entschieden hat, was die einzig richtige Möglichkeit zum Handeln ist.

Die meisten würden wohl ein solches Social-Credit-System ablehnen. Aber besteht nicht die Gefahr, dass es ein schleichender Prozess ist, in dem wir Freiheiten nach und nach für gewisse Vorteile aufgeben?

Das sehe ich auch. Wir sind jedoch damit konfrontiert, dass sich die Entwicklungen nicht so kontrollieren lassen, wie wir das jahrhundertelang geglaubt haben. Es wird kommen und die aktuellen Warnrufe verorte ich als eine Reaktion der Verunsicherung und der Überforderung – nicht als eine Art Offenheit, es zu gestalten, sodass es zum Wohl der Menschheit genutzt werden kann. Derjenige, der die Veränderungen annimmt und mit neuen Hoffnungen verknüpft, ist in der Lage, etwas Neues zu gestalten, das wahrscheinlich mehr Glück als Unglück bringen wird. Denn das ist das Prinzip des Lebens. Gerade der Mensch ist in der Lage, stets neue Strukturen zu schaffen, die ohne sein Denken so nicht entstanden wären und die auch nicht vorhersehbar waren. Etwas passiert, er passt sich dem an und macht daraus etwas Glückbringendes. Das sind die großartigen Dinge, die wir beim Menschen erleben können. Warum sollen wir uns nicht darauf konzentrieren?