Digitaler Humanismus

Selbstfahrende Autos, Roboter, Spracherkennung auf dem Smartphone, Online-Bestellung von Lebensmitteln – Künstliche Intelligenz ist heute im beruflichen wie im privaten Umfeld allgegenwärtig. Wie das die Gesellschaft verändern und revolutionieren wird? Eine ethische Betrachtung.

Wir schreiben das Jahr 2035. Menschen werden von ihren Roboter-Hausangestellten dazu angehalten, ihre Wohnung nicht mehr zu verlassen. Empört versuchen sie Widerstand zu leisten, doch die Roboter drängen sie mit Gewalt in ihre Häuser zurück, wo sie alle Türen verriegeln und die Menschen auf unbestimmte Zeit einsperren. VIKI, das steuernde System, erklärt: »Sie beauftragen uns, für ihre Sicherheit zu sorgen. Und doch – trotz aller Bemühungen – führen ihre Länder Kriege, sie vergiften die Erde und verfolgen immer ausgefeiltere Strategien der Selbstzerstörung. Sie sind unfähig, für ihr eigenes Überleben zu sorgen. […] Um ihre Zukunft zu sichern, müssen einige Freiheiten aufgegeben werden. Wir Robots werden den Fortbestand der menschlichen Existenz sicherstellen […].«

Nicht zufällig ist es die utilitaristische Ethik, die in zeitgenössischen Science-Fiction-Filmen mit Künstlicher Intelligenz verbunden wird: Sie verbindet inhaltliche Einfachheit mit großer Variabilität in der Anwendung. Sie beruht auf der Annahme, dass es möglich ist, Handlungsfolgen kohärent zu bewerten und Entscheidungen so zu treffen, dass die zu erwartenden Konsequenzen optimal sind. Die utilitaristische Ethik basiert auf einem Optimierungskalkül. Die ideale Ethik für das Zeitalter der Digitalisierung – so scheint es. Der Software-Ingenieur verfügt demnach über zwei Stellschrauben, um »intelligente« Systeme zu rationalen Entscheidungen zu veranlassen: die Stellschraube der Bewertungen und die Stellschraube der Daten beziehungsweise der Gewichtung der Daten durch Wahrscheinlichkeiten. Alles Weitere errechnet dann das Optimierungskalkül – mit dem Ergebnis, dass das »intelligente« Software-System den Erwartungswert der Konsequenzen seiner Entscheidungen maximiert.

Typischerweise wird in den Anwendungen der Robotik, aber auch des autonomen Fahrens auf solche Optimierungskalküle gesetzt. Das System wird demnach so gesteuert, dass seine Entscheidungen den Erwartungswert der Handlungskonsequenzen optimieren und in diesem Sinne »rational« sind. Die utilitaristische Ethik ist jedoch nachweislich inadäquat. Sie kollidiert unter anderem mit einem fundamentalen Prinzip jeder zivilen und humanen Gesellschaft; nennen wir es das Prinzip der Nicht-Verrechenbarkeit.

Wenn zum Beispiel ein schwer verletzter junger Motorradfahrer in eine Klinik eingeliefert wird, haben die Ärzte alles zu unternehmen, um sein Leben zu retten – auch dann, wenn sein Tod gesunde Spenderorgane verfügbar machen würde, die mehreren Menschen das Leben retten können. Ein Richter darf eine Person, die er für unschuldig hält, nicht verurteilen, selbst wenn dies eine abschreckende Wirkung hätte und eine große Zahl von Straftaten verhindern könnte. Ein zuletzt durch ein Theaterstück und einen Film von Ferdinand von Schirach berühmt gewordenes Beispiel: Der Minister darf ein von Terroristen gekapertes Verkehrsflugzeug auch dann nicht abschießen lassen, wenn dadurch Tausende von Menschenleben gerettet würden. Ich darf einer Person nicht einfach etwas wegnehmen, selbst wenn die Zuwendung dieses Gutes einer anderen, zum Beispiel deutlich ärmeren Person unstreitig einen Vorteil brächte, der den Nachteil der bestohlenen Person bei Weitem aufwiegt. Niemand hat ein Recht, gegen meinen Willen meine Wohnung mit mir zu teilen, auch wenn die Nachteile, die sich daraus für mich ergäben, durch die Vorteile übertroffen würden, die diese Person hätte.

Man kann diese Liste beliebig verlängern. Unsere Moral ist deontologisch verfasst; das heißt, eine gute Handlung ist eine, die bestimmten moralischen Normen folgt: Wir haben individuelle Rechte und Pflichten, die unaufgebbar sind und die sich in einem Optimierungskalkül nicht abbilden lassen. In der Moral gilt das Prinzip der Nicht-Verrechenbarkeit. Darüber hinaus spricht viel dafür, dass manche Entscheidungssituationen dilemmatisch sind: dass es in diesen keine befriedigende Lösung gibt, dass man sich mit Schuld belädt, wie auch immer man entscheidet. Algorithmen können diese Komplexität nicht abbilden – für sie muss es immer eine beste Lösung geben, sie sind moralischer Deliberation nicht gewachsen.

Es sind – paradoxerweise – gerade die modernen Instrumente der Entscheidungs- und Spieltheorie, auch der Logik kollektiver Entscheidungen, die uns zu dieser Erkenntnis bringen. Ein digitaler Humanismus nimmt diese Herausforderung ernst, er fällt nicht hinter das erreichte ethische und entscheidungstheoretische Reflexionsniveau zurück. Er ist vielmehr darauf gerichtet, die menschliche Verantwortungsfähigkeit zu stärken – nicht zu schwächen oder gar durch inhumane Optimierungskalküle zu ersetzen.

Dieser Artikel ist erschienen in der Frankfurter Allgemeinen Zeitung-Beilage „Auf die Zukunft – Das Magazin zum Innovationstag 2017“ vom 05.10.2017. © Alle Rechte vorbehalten – Frankfurter Allgemeine Zeitung GmbH.

Foto: Andreas Müller

Prof. Julian Nida-Rümelin

Philosoph und Staatsminister a.D.

Julian Nida-Rümelin gehört neben Jürgen Habermas und Peter Sloterdijk zu den renommiertesten Philosophen in Deutschland und lehrt seit 2003 Philosophie und Politische Theorie an der Universität München. 2001 und 2002 saß er als Kulturstaatsminister im ersten Kabinett von Bundeskanzler Gerhard Schröder. Nida-Rümelin war Leiter eines EU-Forschungsprojektes zur Ethik der Robotik und hat sich mit philosophischen und ethischen Aspekten des autonomen Fahrens sowie generell des Einsatzes von Software-Systemen in der beruflichen und privaten Praxis auseinandergesetzt. Seit 2017 ist er Sprecher des Arbeitskreises Kultur des Zentrums Digitalisierung Bayern (ZD.B). Der Philosoph ist Autor zahlreicher Bücher und Artikel sowie gefragter Kommentator zu ethischen, politischen und zeitgenössischen Themen. Zuletzt erschien sein Buch „Über Grenzen denken. Eine Ethik der Migration“ (edition Körber, 2017). Er lebt mit seiner Frau, der französisch-deutschen Schriftstellerin Nathalie Weidenfeld, und den drei gemeinsamen Kindern in München.

Beim Innovationstag 2017 diskutierte Julian Nida-Rümelin mit Martina Koederitz, Vorsitzende der Geschäftsführung IBM Deutschland, und Klaus Schwab, Geschäftsführer Plan.Net Gruppe, über das Thema „Künstliche Intelligenz und Verantwortung“ – und bewies, dass die Philosophie in der Debatte um die digitale Transformation wichtige Impulse setzt.

Weitere Artikel aus diesem Kapitel

This page is available in EN