I Die Debatte um den moralischen Status und um mögliche Rechte von Robotern
Eine zurzeit viel debattierte Frage im Bereich der Roboterethik ist die, ob Roboter moralisch berücksichtigt werden und wir ihnen dementsprechend Rechte verleihen sollen. Dabei geht es um das Verhältnis zwischen Menschen und sehr komplexen Maschinen, die imstande scheinen, „selbstständig zu handeln“, mit Menschen zu „interagieren“ und sogar Formen der „emotionalen Bindung“ zu und mit Menschen zu entwickeln: Man spricht deswegen in der Debatte von „social robots“ (im Unterschied zu „service robots“; vgl. Tavani 2018, 2 – 4).
Die Diskussion dreht sich hauptsächlich darum, welche Kriterien besagte Roboter erfüllen müssen, um moralische Berücksichtigung zu verdienen. Zentral ist dabei für viele Autorinnen und Autoren die Frage, ob sich Roboter als Akteure bzw. moralische, autonome Akteure qualifizieren bzw. qualifizieren können. (u. a. Gunkel 2018, Laukyte 2017, Himma 2009, Floridi/Sanders 2004).
Innerhalb dieser Debatte wurde von Einigen der Versuch unternommen, die sehr komplexe Frage danach, ob Roboter als moralische Akteure gelten sollen, auszuklammern, und für eine moralische Berücksichtigung der Roboter – anstatt als moralische Akteure (moral agents) – als moralische Objekte (moral patients) (vgl. Floridi 2008, 86 – 91) zu argumentieren (u. a. Tavani 2018, Gunkel 2018, Gerdes 2015). Dieser Weg scheint in der Tat viele handlungstheoretische und moralpsychologische Probleme zu vermeiden und aus diesem Grund für die Begründung der moralischen Berücksichtigung von Robotern vielversprechender zu sein.
Dasselbe Ziel, handlungstheoretische und moralpsychologische Probleme zu meiden, verfolgt Mark Coeckelberghs Vorschlag einer „relationalen Wende“ (vgl. hierzu Gerdes 2015, 275):
I propose an alternative route, which replaces the question about how „moral“ non-human agents really are by the question about the moral significance of appearance. […] I propose to redirect our attention to the various ways in which non-humans, and in particular robots, appear to us as agents, and how they influence us in virtue of this appearance. (Coeckelbergh 2009, 181, Hervorhebungen von Coeckelbergh)
Anne Gerdes sieht bei Coeckelberghs Vorschlag Probleme hinsichtlich seiner Voraussetzung, dass sowohl Menschen als auch Roboter relationale Entitäten seien. Solch eine Voraussetzung lege Coeckelbergh auf eine relationale Ontologie fest, die metaphysische Begrifflichkeiten – wie z. B. Bewusstsein, Intentionalität, Freiheit – zurückweist und moralisches Handeln mittels eines relationalen Paradigmas uminterpretiert (vgl. Gerdes 2015, 275, vgl. zu diesem Punkt Coeckelbergh 2010b, 219).
Eine vielversprechende Alternative zu Coeckelberghs Perspektive, die uns nicht darauf festlegt, auf metaphysische Begriffe zu verzichten, sieht Gerdes in der Möglichkeit einer Begründung von menschlichen Verpflichtungen gegenüber Robotern in Anlehnung an Kants Argument für die indirekten Pflichten gegenüber Tieren, die er in der Metaphysik der Sitten einführt (vgl. Gerdes 2015, 277).
II Die Möglichkeit indirekter Verpflichtungen gegenüber Robotern
Im § 17 der Tugendlehre behandelt Kant die Frage, ob Menschen Verpflichtungen auch gegenüber Naturgegenständen und nicht-menschlichen Tieren haben. Er erklärt dort, dass Menschen die Pflicht gegen sich selbst haben, schöne, leblose Naturgegenstände zu bewahren und zu respektieren. Denn wenn wir sie zerstören, schwächen und „vertilgen“ wir laut Kant allmählich das Gefühl in uns, etwas „ohne Absicht auf Nutzen zu lieben“ (TL, AA 6:443.07 – 08). Dieses Gefühl sei zwar an sich nicht moralisch, befördere aber die menschliche Moralität. So ergäben sich menschliche Verpflichtungen, die nicht direkte Pflichten des Menschen gegen ein gewisses Objekt sind, sondern Pflichten des Menschen gegen sich selbst. Kant spricht in diesem Kontext von indirekten Pflichten. Indirekte Pflichten hat der Mensch nach Kant auch gegenüber nicht-menschlichen Tieren. Obwohl Kant ausschließt, dass Tiere den moralischen Status des Menschen besitzen, denkt er, dass Menschen die Pflicht haben, die tierische Sensibilität in ihrem Handeln zu berücksichtigen. Denn behandeln Menschen Tiere auf eine grausame, gewaltsame oder auch nur undankbaren Weise, wird nach Kant „das Mitgefühl an ihrem Leiden im Menschen abgestumpft und dadurch eine der Moralität im Verhältnisse zu anderen Menschen sehr diensame natürliche Anlage geschwächt und nach und nach ausgetilgt“ (vgl. TL, AA 6:443.13 – 16). Dementsprechend soll nach Kant die Tiertötung, wenn sie denn erfolgen muss, schnell und möglichst schmerzlos geschehen (TL, AA 6:443.16 – 17). Außerdem dürfen ausschließlich unbedingt notwendige wissenschaftliche Versuche an Tieren durchgeführt werden (vgl. TL, AA 6:443.19 – 21). Hierbei handelt es sich für Kant nicht um direkte Pflichten der Menschen gegen die Tiere, sondern um indirekte Pflichten der Menschen „in Ansehung“ der Tiere, die eigentlich Pflichten des Menschen gegen sich selbst sind (TL, AA 6:443.23 – 25. Vgl. hierzu Basaglia 2018a, 40 und Basaglia 2018b, 1721).
Gerdes macht sich für die „Kantische relationale Perspektive“ (Gerdes 2015, 278) stark, die zwischen Menschen, gegen die wir direkt Pflichten haben, und Nicht-Menschen, ‘in Ansehung’ derer wir indirekt Verpflichtungen haben, unterscheidet. Diese Kantische Perspektive nach Gerdes ermöglicht uns, zwischen Graden der moralischen Berücksichtigung von Entitäten zu unterscheiden, die auf einem Kontinuum zwischen Menschen an der höchsten Stelle und Dingen an der niedrigsten Stelle stehen. Für die Frage nach der moralischen Berücksichtigung von Robotern sei aus dieser Perspektive wichtig, dass wir zwischen nicht-lebenden Entitäten unterscheiden können, die unterschiedliche moralische, indirekte Berücksichtigung verdienen. Auf dieser Skala der indirekten moralischen Berücksichtigung sind Roboter nach Gerdes auf einer Position zwischen Werkzeugen und Tieren zu platzieren (vgl. Gerdes 2015, 277. Vgl. Tavani 2018, 9 – 10 und kritisch dazu Coeckelbergh 2010b, 213 – 214).
Was Roboter im Sinne der moralischen Berücksichtigung wichtiger als bloße Werkzeuge macht, ist nach Gerdes, dass wir mit ihnen „as if social relations“ (Gerdes 2015, 278) bilden bzw. bilden können:
[…] it might still be possible to grant moral consideration to robots introducing a continuum on scale above artifacts – such as tools and things, which we handle – over to animals. Probably below living entities, like animals, we may place robots with which we do form as if social relations (Gerdes 2015, 278).
Neben dem Kantischen Argument für indirekte Pflichten in Ansehung von Entitäten, die nicht den moralischen Status von Personen besitzen, scheint in der Tat der Bezug auf den von Hans Vaihinger ausgeführten „Als-Ob-Gedanken“ (Gerdes 2015, 276. Vgl. Vaihinger 1920, 18 – 20) grundlegend für Gerdes’ Argumentation zu sein. Wären bestimmte Roboter nicht imstande, scheinbar mit Menschen zu interagieren, gäbe es in Gerdes’ Argumentation keinen Anhaltspunkt, sie für besondere Artefakte zu halten, die stärkere moralische Berücksichtigung verdienen als „tools and things, that we handle“ (Gerdes 2015, 278).
III Kritik an Gerdes’ Vorschlag
In der Folge möchte ich gegen diesen Vorschlag von Gerdes argumentieren und folgende Ansicht vertreten:
-
Das von Kant im § 17 der Tugendlehre eingeführte Argument ist auf Roboter nicht anwendbar. In diesem Paragrafen spricht Kant ausschließlich von schönen, leblosen Naturgegenständen (vgl. TL, AA 6:443.02) und von nicht-menschlichen Tieren, nicht von Artefakten, wie Robotern.
-
Obwohl sie sich von seiner Anwendung auf das Problem der moralischen Berücksichtigung von Robotern distanziert, macht Gerdes am Ende doch vom Als-Ob-Gedanken Gebrauch, und dieser Gebrauch ist innerhalb ihrer Argumentation nicht unproblematisch. Denn der Als-Ob-Gedanke wird von Gerdes nicht im transzendental-philosophischen Sinne verstanden, sondern explizit in Bezug auf die Interpretation von täuschenden Erscheinungen (vgl. Gerdes 2015, 276).
1. Gerdes denkt: „[…] Kant’s Tugendlehre allows for a description of moral obligations with regard to other beings or entities“ (Gerdes 2015, 277, die dritte Hervorhebung ist meine). Die nicht-lebenden Entitäten, die Kant im § 17 der Tugendlehre behandelt, sind aber klarerweise nicht Artefakte, sondern leblose Naturgegenstände: „In Ansehung des Schönen, obgleich Leblosen in der Natur ist ein Hang zum bloßen Zerstören […] der Pflicht des Menschen gegen sich selbst zuwider“ (TL, AA 6:443.02 – 04, meine Hervorhebung). Kant spricht an keiner Stelle von indirekten Pflichten in Ansehung von Artefakten. Dass er, im Gegensatz zu den in der TL im § 17 eingeführten indirekten Pflichten gegenüber Naturgegenständen, indirekte Pflichten gegenüber Artefakten nie erwähnt hat, weist meiner Meinung darauf hin, dass für Kant Artefakte weniger wertvoll als Naturgegenstände sind.
Den ersten Grund, warum ich glaube, dass für Kant Naturgegenstände prinzipiell wertvoller als Artefakte sind, finden wir vor, wenn wir die ästhetische Betrachtung von Artefakten mit der von Naturgegenständen vergleichen. Man kann mit guten Gründen argumentieren, dass für Kant Naturgegenstände einen höheren ästhetischen Wert als Artefakte besitzen und in dieser Hinsicht für uns wertvoller sind. Denn wir können nach Kant auch Kunstwerke – die ja Artefakte sind – als schön bewerten (vgl. KU, §§ 48 – 55). Es ist jedoch einerseits mindestens unklar (vgl. Pries 1995, 50, Fußnote 20), ob wir über sie auch Urteile hinsichtlich ihrer mathematischen Erhabenheit fällen können (vgl. KU, AA 5:268.01 – 03)1, andererseits klar, dass für Kant Urteile über die dynamische Erhabenheit ausschließlich Naturgegenständen vorbehalten sind (vgl. KU, § 28).2
Die höhere Stellung der Naturgegenstände im Vergleich zu den Artefakten schließt streng genommen keine indirekte moralische Berücksichtigung aus. Was ich allerdings an Gerdes’ Vorschlag bestreite, ist die Stellung, die Roboter in der Skala moralischer Berücksichtigung innehaben. Es scheint mir klar, dass sie aus Kantischer Sicht nicht direkt unter den Tieren Platz finden sollten, sondern, wenn überhaupt, weiter unten nach den leblosen, schönen Naturgegenständen. Roboter, wie jedes andere Ding, können Gegenstände von ästhetischen Schönheitsurteilen werden. Dies hat bestimmt eine gewisse praktische Relevanz: Artefakte und Kunstgegenstände willkürlich zu zerstören, ist vermutlich auch in Kants Augen schlecht. Ob dies aus Kantischer Sicht auch ausreicht, um von indirekten Pflichten gegenüber Artefakten wie Robotern sprechen zu können, bleibt meiner Ansicht nach fraglich.3
Verbinden wir di...