Der Utilitarismus weist uns an, das Gesamtwohlergehen zu fördern. Aber wir können nicht sicher sein, wie wir das tun können. Schlimmer noch: Es gibt gewichtige Gründe für die Annahme, dass wir völlig ahnungslos sind, was die langfristigen Folgen unseres Handelns angeht, einschließlich der Frage, ob sie insgesamt positiv oder negativ sein werden. Macht dies den Utilitarismus untauglich? Ist es ein Grund, den Utilitarismus für falsch zu halten?
Der epistemische Einwand gegen Konsequentialismus
James Lenman formuliert in dem Artikel Consequentialism and Cluelessness einen einflussreichen erkenntnistheoretischen Einwand gegen den Konsequentialismus (und damit im weiteren Sinne gegen den Utilitarismus). Wir können das Argument grob wie folgt rekonstruieren:
P1. Wir haben keine Ahnung, was die langfristigen Auswirkungen unserer Handlungen sein werden.
P2. Aber die langfristigen Auswirkungen bestimmen, was wir laut dem Konsequentialismus tun sollten. Wenn der Konsequentialismus wahr ist, haben wir also keine Ahnung, was wir wirklich tun sollten — unsere Gründe für Handlungen1 > liegen außerhalb unseres epistemischen Verständnisses.
P3. Aber eine adäquate ethische Theorie muss handlungsleitend sein — sie kann keine Gründe geben, die außerhalb unseres > epistemischen Verständnisses liegen.
Folglich:
C. Der Konsequentialismus ist keine adäquate ethische Theorie.
Betrachten wir die drei Prämissen nacheinander.
Prämisse 1: die langfristige Zukunft betreffende Ahnungslosigkeit
Stellen wir uns vor, eine Ärztin hat vor vielen Jahrhunderten einer schwangeren Frau das Leben gerettet.2 Das scheint eine eindeutig gute Tat zu sein. Leider stellt sich heraus, dass die Frau eine Vorfahrin Hitlers war. Die scheinbar gute Tat hatte also in Wirklichkeit katastrophale Folgen.
Dieses Beispiel veranschaulicht, wie wir die langfristigen Auswirkungen unseres Handelns übersehen können. Aber der Punkt gilt auch für weniger dramatische Handlungen, da kleine Veränderungen unvorhersehbare Auswirkungen auf die Zukunft haben können. Die Entscheidung eines Einzelnen, ob er an einem bestimmten Tag mit dem Auto fährt oder nicht, wird beispielsweise „die Fahrten zahlloser anderer vorverlegen oder verzögern, und sei es auch nur um ein paar Sekunden“.3 Diese wiederum werden andere leicht beeinflussen. Schließlich wird sich die Kausalkette (wenn auch nur geringfügig) auf den Zeitpunkt auswirken, zu dem ein Paar ein Kind empfängt. Ein anderes Spermium wird die Eizelle befruchten, als es sonst der Fall gewesen wäre, was dazu führt, dass ein völlig anderes Kind geboren wird. Diese andere Person wird andere Lebensentscheidungen treffen, die sich auf den Zeitpunkt der Empfängnis anderer Paare und auf die Identität der von ihnen gezeugten Kinder auswirken, was zu einer immer unterschiedlicheren Zukunft führt. Folglich sollten wir damit rechnen, dass unser tägliches Handeln monumentale, aber unvorhersehbare langfristige Folgen hat. Einige dieser Auswirkungen werden sicherlich sehr schlecht sein, andere wiederum sehr gut. (Wir könnten verursachen, dass in Tausenden von Jahren gewisse völkermordende Diktatoren zur Welt kommen, während die Geburt anderer verhindert wird.) Jedoch haben wir keine Ahnung, wie die Balance ausschauen wird.
Langfristige Folgen überwiegen kurzfristige im Gesamtwert. Und da wir die langfristigen Folgen unseres Handelns im Allgemeinen nicht vorhersagen können, folgt daraus, dass wir die _Gesamt_folgen unseres Handelns im Allgemeinen nicht vorhersagen können.
Es mag jedoch einige Ausnahmen geben. Befürworter des Longtermism sind der Ansicht, dass einige Maßnahmen — wie die Verringerung existenzieller Risiken — langfristig einen robust positiven Erwartungswert haben. Daher muss zumindest die Teilschlussfolgerung (Prämisse 2) dahingehend abgeschwächt werden, dass wir nicht wissen, was wir tun sollen, außer an der Verringerung existenzieller Risiken zu arbeiten. Aber selbst diese abgeschwächte Behauptung wäre immer noch überraschend: Es scheint, dass wir auch im Hier und Jetzt gute Gründe haben, Leben zu retten. Im nächsten Abschnitt wird untersucht, ob dies der Fall ist.
Prämisse 2: Ahnungslosigkeit und Erwartungswert
Die natürliche Reaktion auf die Sorge der Ahnungslosigkeit ist die Hinwendung zum Erwartungs-Konsequentialismus: hin zur Förderung des _Erwartungs_werts anstelle des tatsächlichen Werts. Darüber hinaus erlaubt der Utilitarismus als mehrstufige Theorie, dass wir den Erwartungswert am besten fördern, indem wir uns auf Heuristiken verlassen, anstatt explizit die Chancen für buchstäblich jedes mögliche Ergebnis zu berechnen. Wenn also die Rettung von Menschenleben auf kurze Sicht im Allgemeinen einen positiven Erwartungswert hat, würde dies ausreichen, um den Einwand der Ahnungslosigkeit zu entkräften.
Lenman unterscheidet zwischen „sichtbaren“ (erkenntnistheoretisch zugänglichen) und „unsichtbaren“ (völlig unwägbaren) Folgen einer Handlung.4 Anhand dieser Unterscheidung lässt sich ohne Weiteres argumentieren, dass die Rettung von Leben einen positiven Erwartungswert hat. Wenn wir nämlich keine Ahnung haben, welche langfristigen Folgen eine Handlung haben wird, dann sind diese „unsichtbaren“ Überlegungen (angesichts unserer Erkenntnisse) einfach stumm — das heißt, sie sprechen weder für noch gegen eine bestimmte Option. Die sichtbaren Gründe setzen sich also unangefochten durch. Das Leben eines Kindes zu retten, hat beispielsweise einen Erwartungswert von „+1 gerettetes Leben“, der sich auch dann nicht ändert, wenn wir auf unsere langfristige Unwissenheit hingewiesen werden.
Lenman ist von dieser Antwort unbeeindruckt,5 aber die von ihm angeführten Gründe sind allesamt höchst umstritten. Wir werden uns hier auf seine beiden Haupteinwände konzentrieren.6
Erstens schlägt Lenman vor, dass sich Erwartungs-Konsequentialisten auf umstrittene probabilistische Indifferenzprinzipien stützen müssen (die Idee, dass wir standardmäßig — ohne weitere Informationen — annehmen sollten, dass jede Möglichkeit gleich wahrscheinlich ist).
Hilary Greaves erwidert, dass ein eingeschränktes Indifferenzprinzip in einfachen Fällen von Ahnungslosigkeit eindeutig gerechtfertigt zu sein scheint, ungeachtet der Probleme, die ein solches Prinzip mit sich bringen könnte, würde es uneingeschränkt gelten.7 Schließlich scheint es völlig ungerechtfertigt zu sein, asymmetrische (statt 50/50) Erwartungen darüber zu haben, ob die Rettung des Lebens einer beliebigen Person in der Gegenwart binnen Jahrtausenden eher einen Völkermord auslösen oder verhindern wird. Wir können also solche zufälligen Kausalfaktoren vernünftigerweise ignorieren.
Wie Greaves jedoch selbst anmerkt, lässt dies Fälle von „komplexer Ahnungslosigkeit“ offen, bei denen es Gründe gibt, die dafür sprechen, dass eine Option für die langfristige Zukunft systematisch besser ist als eine andere, und andere Gründe, die für das Gegenteil sprechen. Bei diesen Fällen ist unklar, wie die widersprüchlichen Gründe gegeneinander abgewogen werden sollen.8 Wenn zum Beispiel die Verhinderung des Todes von Kindern durch Malaria tendenziell zu einer dauerhaft größeren Weltbevölkerung führt, gibt es einige Gründe, dies positiv zu bewerten, und andere Gründe, dies (aufgrund von „Überbevölkerung“9) insgesamt als schlecht zu beurteilen. Wenn wir von einem systematischen Effekt überzeugt sind, aber nicht sicher sind, in welche Richtung er geht, dann ist es weniger offensichtlich, dass wir ihn vernünftigerweise ignorieren können. Zumindest scheint die Anwendung des Indifferenzprinzips hier nicht angemessen zu sein: Es scheint nicht gerechtfertigt zu sein, anzunehmen, dass eine größere Bevölkerung mit gleicher Wahrscheinlichkeit gut oder schlecht ist.
Aber Konsequentialisten können dennoch das frühere Argument wiederholen, dass „unsichtbare“ (unwissbare) Gründe unser Handeln nicht leiten können, so dass nur die „sichtbaren“ (wissbaren) Gründe übrig bleiben, die für die Rettung von Leben und andere scheinbar gute Handlungen sprechen, bis das Gegenteil bewiesen ist. Diese Antwort stützt sich nicht auf einen Grundsatz der Gleichgültigkeit. Stattdessen wird betont, dass es die Aufgabe des Skeptikers ist, zu zeigen, wie wir unser ursprüngliches Urteil revidieren sollten, dass die Rettung eines Kinderlebens einen Erwartungswert von „+1 gerettetes Leben“ hat. Es scheint kaum besser zu sein, angesichts komplexer Ahnungslosigkeit verzweifelt die Hände in den Schoß zu legen. Solange uns also keine bessere Alternative präsentiert wird, scheint es am vernünftigsten, bei unserem ursprünglichen Urteil zu bleiben.10
Zweitens geht Lenman davon aus, dass angesichts der schieren Unermesslichkeit des „unsichtbaren“ langfristigen Einsatzes der „sichtbare“ Grund für Konsequentialisten, ein Leben zu retten, extrem schwach sein muss — lediglich „ein Tropfen auf den heißen Stein“.11 Doch das ist ein Irrtum. In absoluten Zahlen ist die Rettung eines Lebens unglaublich wichtig. Das Vorhandensein eines noch größeren unsichtbaren Einsatzes ändert nichts am absoluten Gewicht dieses Grundes.
Man könnte annehmen, dass, wenn der Konsequentialismus wahr wäre, die Stärke eines Grundes für eine Handlung proportional zur Wahrscheinlichkeit der Maximierung des Gesamtwertes durch die Handlung sein müsste. Da es unter dieser Annahme verschwindend unwahrscheinlich ist, dass der Wert eines einzigen Lebens beim Vergleich des langfristigen Wertes jeder Option den Ausschlag gibt, muss die Rettung eines Lebens ein „extrem schwacher“ Grund sein, eine Option einer anderen vorzuziehen. Doch erstere Annahme ist falsch. Die Stärke eines konsequentialistischen Grundes wird durch den damit verbundenen (Erwartungs-)wert in absoluten Zahlen angegeben: Was zählt, ist die Größe des Tropfens, nicht die Größe des Ozeans.
Warum der Erwartungswert wichtig ist
Abgesehen von den spezifischen Einwänden ist Lenmans größere Sorge, dass es nicht klar ist, warum Konsequentialisten Aussichten mit einem höheren Erwartungswert bevorzugen sollten, wenn wir ahnungslos hinsichtlich der tatsächlichen Konsequenzen sind.12
Dies ist eine subtile Frage. Wenn wir uns vom Erwartungswert leiten lassen, geht es nicht darum, die Chance zu erhöhen, das objektiv Beste zu tun, da einige riskante Aussichten, die wahrscheinlich nicht gut ausgehen, dennoch das Risiko wert sein können.13 Grob gesagt geht es darum, das Gute so gut wie möglich zu fördern, wenn wir die uns zur Verfügung stehenden Informationen berücksichtigen (und dabei die Einsätze und Wahrscheinlichkeiten abwägen).14 Denn wenn es eine erkennbar bessere Alternative gäbe, würde die Befolgung dieser Alternative den erwarteten Wert maximieren. Wäre Lenmans Kritik also zutreffend, würde dies nicht bedeuten, dass die Maximierung des Erwartungswerts keine valide Motivation darstellt, sondern vielmehr, dass (entgegen dem ersten Anschein) die Rettung eines Lebens doch keinen positiven Erwartungswert hat.
Stellt man stattdessen die Frage: „Warum glauben, dass die Rettung eines Lebens einen positiven Erwartungswert hat?“, dann kann man einfach antworten: „Warum nicht? Es ist erkennbar positiv und Unwägbarkeiten können wohl kaum dagegen sprechen!“
Zugegeben kann Ahnungslosigkeit angesichts massiver, unsichtbarer, langfristiger Risiken Angst auslösen. Sie sollte uns dazu veranlassen, uns mehr Informationen zu wünschen, und motivieren, sofern möglich langfristige Untersuchungen anzustellen. Aber wenn sich solche Untersuchungen als nicht durchführbar erweisen, sollten wir dieses verbleibende Gefühl der Angst nicht als Grund dafür missverstehen, daran zu zweifeln, dass wir uns immer noch rational von den kleineren, erkennbaren Überlegungen leiten lassen können. Um Letzteres zu untergraben, reicht es nicht aus, wenn der Skeptiker auf das große Unbekannte verweist. Das Unbekannte als solches ist nicht erkenntnistheoretisch unterminierend (gierig alles andere verschlingend, was bekannt ist). Um ein Erwartungswert-Urteil zu untergraben, muss man zeigen, dass ein alternatives Urteil erkenntnistheoretisch überlegen ist. Wie auch die radikalen Skeptiker in vielen anderen philosophischen Kontexten haben dies die Befürworter des epistemischen Einwandes versäumt.15
Prämisse 3: die Möglichkeit moralischer Ahnungslosigkeit
Die letzte Prämisse des epistemischen Arguments besagt, dass eine adäquate ethische Theorie handlungsleitend sein muss: Sie kann keine moralischen Gründe anführen, die außerhalb unseres epistemischen Verständnisses liegen. Aber: Warum sollten wir das denken? Wir können sicherlich auf Handlungsorientierung hoffen. Aber wenn die Welt nicht mitspielt — wenn uns der Zugang zu den moralisch relevanten Fakten verwehrt wird — dann scheint es angemessener, der Welt die Schuld zu geben und nicht einer Moraltheorie, die (zu Recht!) anerkennt, dass unvorhersehbare Ereignisse immer noch eine Rolle spielen.
Der Utilitarismus als Moraltheorie kann so verstanden werden, dass er zwei Dinge kombiniert: (i) den aggregativen, unparteilichen Welfarismus als Darstellung der richtigen moralischen Ziele (d. h. dessen, was wichtig ist oder worum wir uns kümmern sollten) und (ii) das teleologische Prinzip, wonach unsere Gründe für Handlungen durch die Anwendung instrumenteller Rationalität auf die richtigen moralischen Ziele gegeben sind. Dies bedeutet, dass eine fehlgeleitete Handlung entweder auf fehlgeleitete moralische Ziele oder auf eine ineffektive Verfolgung moralischer Ziele zurückzuführen sein muss.
Ein wirklich bedrohlicher Einwand gegen den Utilitarismus muss also einen dieser beiden Unteransprüche untergraben. Meistens stellen Kritiker die utilitaristische Position dazu, was wichtig ist, in Frage, indem sie zum Beispiel vorschlagen, dass wir uns auch unabhängig davon um Rechte, Gleichheit oder unsere Nächsten kümmern sollten. Der Einwand der Ahnungslosigkeit gibt uns jedoch keinen Grund, daran zu zweifeln, dass künftige Menschen wirklich wichtig sind und dass sich moralisch handelnde Akteure daher um das Wohlergehen künftiger Menschen kümmern sollten.16 Vielleicht ist es einfach eine traurige Tatsache, dass wir nicht wirklich wissen können, wie unsere moralischen Ziele zu erreichen sind.
Nehmen wir zum Beispiel an, man muss einen magischen Hebel entweder nach links oder nach rechts ziehen, bekommt aber nur gesagt, dass das Schicksal der Welt von der daraus resultierenden Stellung des Hebels abhängt. Es gibt keine Möglichkeit zu wissen, welche Option die Welt retten wird. Es wäre jedoch seltsam, daraus zu schließen, dass das Schicksal der Welt moralisch insignifikant wäre. Es scheint vernünftiger zu sein, den Schluss zu ziehen, dass man sich in einer schwierigen Lage befindet und dass (in Ermangelung weiterer Evidenz darüber, welche Option die Welt eher retten wird) keine Moraltheorie unter diesen besonderen Umständen eine nützliche Orientierung bieten kann.
Prämisse 3 scheint also falsch zu sein.17 Es ist immer möglich, dass Akteure nicht wissen können, wie sie ihre moralischen Ziele erreichen können. In einem solchen Fall kann die wahre Moraltheorie nicht handlungsleitend sein. Aber das untergräbt nicht ihre Wahrheit. Es gibt keinen prinzipiellen Grund, einer alternativen Theorie den Vorzug zu geben, die zusätzliche „Orientierung“ bietet, ohne tatsächlich dabei zu helfen, die richtigen moralischen Ziele zu erreichen.
Alle plausiblen Theorien sollten darin übereinstimmen, dass die Gesamtkonsequenzen zu den Überlegungen gehören, die von Bedeutung sind (auch wenn sie vom Konsequentialismus abweichen, indem sie behaupten, dass andere Faktoren zusätzlich wichtig sind). Gemäßigte Deontologen beispielsweise gehen von zusätzlichen deontischen Zwängen aus, lassen aber zu, dass diese außer Kraft gesetzt werden können, wenn es um ausreichend hohe Einsätze geht. Dies legt nahe, dass der Einwand der Ahnungslosigkeit an alle Moraltheoretiker gerichtet werden sollte, nicht nur an Konsequentialisten. Diese Theoretiker könnten ebenfalls antworten, dass Ahnungslosigkeit (höchstens) eine praktische Schwierigkeit ist und nicht ein Einwand gegen die Richtigkeit einer moralischen Theorie.18
Konklusion
Es gibt Grund, daran zu zweifeln, dass die Sorge der Ahnungslosigkeit überhaupt einen Einwand gegen den Utilitarismus darstellt. Ahnungslosigkeit ist vielleicht nur eine traurige Konsequenz der Umstände, in denen wir uns befinden. Aber Überlegungen zum Erwartungswert, geleitet durch plausible Heuristiken, können uns dennoch weiterhelfen. Wir können vernünftigerweise den (verhältnismäßig) kurzfristigen Erwartungswert für bare Münze nehmen, selbst wenn wir keine Ahnung von den langfristigen Folgen der fraglichen Handlungen haben. Und selbst wenn die langfristige Ahnungslosigkeit den kurzfristigen Erwartungswert zunichtemacht, kann es immer noch einige Optionen geben — etwa die Arbeit zur Verringerung existenzieller Risiken — die einen deutlich positiven langfristigen Erwartungswert haben. In der Frage, wie wir im Angesicht von Ahnungslosigkeit handeln sollen, hinterlässt der Utilitarismus uns also letztlich nicht mit leeren Händen.
Diese Seite zitieren
Möchtest du die Welt zu einem besseren Ort machen?
Erfahre, wie du Utilitarismus in die Praxis umsetzt:
Ressourcen und weiterführende Lektüre
- Joanna Burch-Brown (2014). Clues for Consequentialists. Utilitas, 26(1): 105–119.
- Hilary Greaves (2016). Cluelessness. Proceedings of the Aristotelian Society, 116(3): 311–339.
- James Lenman (2000). Consequentialism and Cluelessness. Philosophy and Public Affairs, 29(4): 342–370.
- Andreas Mogensen (2021). Maximal Cluelessness. The Philosophical Quarterly, 71: 141–162.
- Andreas Mogensen & William MacAskill (2021). The Paralysis Argument. Philosophers’ Imprint 21 (15): 1–17.
- David Thorstad und Andreas Mogensen (2020). Heuristics for clueless agents: how to get away with ignoring what matters most in ordinary decision-making. GPI Working Paper 2-2020.
Das heißt, die Erwägungen, die dafür sprechen, so und nicht anders zu handeln. ↩︎
Adaptiert von James Lenman (2000). Consequentialism and Cluelessness. Philosophy and Public Affairs, 29(4): 342–370, p. 344. ↩︎
Hilary Greaves (2016). Cluelessness. Proceedings of the Aristotelian Society, 116(3): 311–339, p. 314. ↩︎
Lenman (2000), p. 363. ↩︎
Siehe Lenman (2000), pp. 353–359. ↩︎
Er bringt insgesamt vier Einwände vor. Der vierte setzt den zweiten voraus und wird daher durch unsere Antwort auf diesen angesprochen. Der dritte Einwand besagt, dass wir zwischen zwei sehr unterschiedlichen Gründen, warum eine Handlung keinen Erwartungswert hat, unterscheiden müssen: (i) wir wissen vielleicht, dass etwas keinen Unterschied macht oder (ii) wir könnten ahnungslos sein, ob etwas unglaublich gut oder unglaublich schlecht ist. Da diese beiden epistemischen Zustände so unterschiedlich sind, so Lenman, ergibt es keinen Sinn, sie auf die gleiche Weise zu behandeln. Es stimmt, dass ein signifikanter Unterschied vorliegt. Aber es ist ein Fehler anzunehmen, dass alles, was moralisch bedeutsam ist, unsere Art, Handlungen zu bewerten, verändern muss, wenn doch oft Einstellungen besser geeignet sind, diese Bedeutung widerzuspiegeln. In einem Fall mit hohem Risiko und „totaler Ungewissheit“ sollten wir viel mehr Angst und Ambivalenz empfinden — und uns wünschen, dass mehr Informationen zur Verfügung stünden — als in einem Fall mit „bekannter Null“. Das scheint auszureichen, um den Unterschied zu erfassen. ↩︎
Greaves (2016), Abschnitt IV. ↩︎
Greaves (2016), Abschnitt V. Siehe auch Andreas Mogensen (2020). Maximal Cluelessness. The Philosophical Quarterly, 71: 141–162. ↩︎
Für eine Untersuchung der Frage, ob die Welt über- oder unterbevölkert ist, siehe Ord, T. (2014). Overpopulation or Underpopulation?, in Ian Goldin (Hrsg.), Is the World Full?. Oxford: Oxford University Press. ↩︎
Für eine ähnliche Verteidigung der „verfahrenstechnischen Rationalität“ des Verlassens auf Heuristiken angesichts von Ahnungslosigkeit, siehe David Thorstad und Andreas Mogensen (2020), Heuristics for clueless agents: how to get away with ignoring what matters most in ordinary decision-making. GPI Working Paper 2, 2020. Ob es sich lohnt, Bedenken hinsichtlich Überbevölkerung eingehender zu untersuchen, hängt von verschiedenen Faktoren ab, beispielsweise:: (i) wie viele Ressourcen auf dem Spiel stehen — für einen milliardenschweren Geldgeber ist eine genauere Untersuchung plausibler als für eine Einzelperson, die ein paar hundert Euro spendet; (ii) wie viel weniger unsicher man werden kann oder wie hoch der erwartete Informationswert einer weiteren Untersuchung ist. Für einen kleinen Spender, der wenig Chancen hat, seine Ungewissheit schnell zu beseitigen, wird es oft am sinnvollsten sein, komplexe Unklarheiten völlig zu ignorieren. ↩︎
Lenman (2000), p. 356. ↩︎
Lenman (2000), p. 360. ↩︎
So ist beispielsweise eine zehnprozentige Chance, eine Million Menschenleben zu retten, erwartungsgemäß besser als die sichere Rettung eines einzigen Lebens, auch wenn die letztere Option mit 90-prozentiger Wahrscheinlichkeit ein besseres Ergebnis liefert. Es kommt auf die genauen Größenordnungen und Wahrscheinlichkeiten an, nicht nur darauf, was „mit größerer Wahrscheinlichkeit“ (wie geringfügig auch immer) besser ist. ↩︎
Ein wichtiges Merkmal der Maximierung des Erwartungswerts ist, dass wir nicht erwarten können, dass irgendeine subjektiv identifizierbare Alternative im Grenzfall besser abschneidet (das heißt, wir stellen uns vor, dass solche Entscheidungen eine ausreichende Anzahl von Malen wiederholt werden, wenn nötig in verschiedenen möglichen Welten). ↩︎
Ein interessanter Vorschlag ist, dass wir stattdessen ungenaue Überzeugungen haben sollten, die ein breites Spektrum an vernünftig erscheinenden Überzeugungs-Punkten abdecken. Eine Sorge bei solchen Vorschlägen ist, dass sie am Ende bedeuten könnten, dass wir beispielsweise genauso viel Grund haben, Malariainfektionen zu fördern wie sie zu verhindern, was die scheinbare Vernünftigkeit der Ausgangsannahmen untergraben könnte. Vgl. Andreas Mogensen (2021), Maximal Cluelessness. ↩︎
Bemerkenswerterweise räumt sogar Lenman (2000), p. 364, ein, dass „die unsichtbaren Folgen von Handlungen sehr wohl eine Rolle spielen“, aber er fügt hinzu, dass „es keinen klaren Grund gibt, anzunehmen, dass diese Rolle von moralischer Signifikanz ist, genauso wenig wie die sichtbaren oder sonstigen Folgen von Erdbeben oder Meteoriteneinschlägen (obwohl sie sicherlich eine enorme Rolle spielen können) von besonderer moralischer Bedeutung sein müssen. Es gibt hier nichts besonders Unplausibles. Es ist einfach zu sagen, dass zum Beispiel die Verbrechen Hitlers, obwohl sie schrecklich waren, nicht etwas sind, das wir sinnvollerweise in der Diskussion über moralischen Fehler oder Vorzüge von [jemandem, der das Leben von Hitlers entferntem Vorfahren gerettet hat] ansprechen können.“ Dies ist eine seltsame Verwendung von „moralischer Signifikanz“. Moralische Akteure sollten sich eindeutig um Erdbeben, Meteoriteneinschläge und zukünftige völkermordende Diktatoren kümmern. (Zumindest sollten wir es vorziehen, dass es weniger von diesen Dingen gibt, als Teil unserer altruistischen Sorge für andere im Allgemeinen). Ein Akteur, dem diese Dinge wirklich gleichgültig wären, wäre kein tugendhafter Akteur: Seine Gleichgültigkeit offenbart eine gefühllose Missachtung künftiger Menschen. Es könnte also durchaus ein „moralisches Versagen“ darstellen, sich nicht um solche schädlichen Ereignisse zu kümmern. Andererseits, wenn Lenman wirklich nur sagen will, dass die unvorhersehbaren Folgen, die tatsächlich eintreten, keinen Einfluss auf die Beurteilung der „moralischen Schwächen oder Vorzüge“ einer Person haben sollten, dann scheint dies eine Binsenweisheit zu sein, die den Konsequentialismus in keiner Weise bedroht. Es ist bekannt, dass viele Formen der Bewertung von Handlungen (z. B. Rationalität, Tugend usw.) „internalistisch“ sind — sie konzentrieren sich auf die inneren Eigenschaften des Handelnden und nicht auf das, was in der Außenwelt außerhalb seiner Kontrolle geschieht. Hybride Utilitaristen kombinieren einen solchen Internalismus in Bezug auf die Bewertung von Handlungen mit einer utilitaristischen Darstellung unserer Gründe für Handlungen. ↩︎
Es sei denn, sie wird so interpretiert, dass sie nicht mehr nach Orientierung verlangt, wo keine möglich ist. Während es sicherlich in Ordnung ist, Fakten-relative Gründe zu haben, die unser epistemisches Fassungsvermögen übersteigen, könnte eine überzeugendere Version der Prämisse einfach behaupten, dass solche Gründe, die relativ zu bestimmter Evidenz sind, innerhalb unseres epistemischen Fassungsvermögens liegen müssen. Aber dann besteht die Gefahr, dass die Prämisse zu einer bloßen Tautologie verkommt: Per Definition sind die „Fakten-relativen Gründe“, die von jeder Theorie — einschließlich des Konsequentialismus — aufgestellt werden, epistemisch zugänglich (unter der Annahme, dass „Evidenz“ und „epistemische Zugänglichkeit“ zusammengehören). Stattdessen stellt sich die Frage, von welchen Fakten-relativen Gründen (wenn überhaupt von irgendwelchen) die Theorie impliziert, dass wir sie haben. ↩︎
Es gibt jedoch Grund zu der Annahme, dass die praktischen Schwierigkeiten für Nicht-Konsequentialisten noch größer sein könnten. Siehe Andreas Mogensen & William MacAskill (2021). The Paralysis Argument. Philosophers’ Imprint 21 (15): 1–17. ↩︎