Elon Musk sorgte in den letzten Monaten für Schlagzeilen, weil er als Chef von Twitter die Plattform grundlegend umkrempelt. Weniger bekannt ist, dass er Organisationen finanziell unterstützt, die es sich zur Aufgabe machen, gegen eine angeblich die Menschheit bedrohende Künstliche Intelligenz anzukämpfen.
Das Future of Life Institute lässt sich von Musk auch beraten. Medial sorgte das Institut mit einem Offenen Brief für Aufsehen, in dem es vor der zerstörerischen Kraft einer möglichen Superintelligenz warnte und eine Pause bei der Entwicklung neuer KI-Modelle forderte.
Eine andere Organisation, die sich über Gelder von Musk freuen durfte, ist das Future of Humanity Institute. Dabei handelt es sich um ein interdisziplinäres Forschungszentrum der Universität Oxford. Direktor ist der einflussreiche schwedische Philosoph Nick Bostrom. Er ist ein führender Vertreter des Longtermismus, einer Spielart des Effektiven Altruismus. Beide Denkschulen fordern, die Forschung dort zu konzentrieren, wo sie langfristig den größten positiven Einfluss auf die Menschheit haben kann.
Eine menschenfeindliche Ideologie
Was zunächst einleuchtend klingen mag, sorgt allerdings für massive Kritik. Welche Ideologie hinter dem Effektiven Altruismus und Longtermismus steckt, erklärt uns im Interview Émile P. Torres, derzeit Doktorand:in an der Leibniz Universität Hannover und auf Twitter als @xriskology unterwegs.
Einst hat Torres selbst für das Future of Life Institute geschrieben und war Forschungsassistenz von Ray Kurzweil, Futurist und Leiter der technischen Entwicklung (Director of Engineering) bei Google. Er ist Erfinder des Singularitätsprinzip, das mit dem Longtermismus verwandt ist. Bald erscheint Torres‘ Buch „Human Extinction: A History of the Science and Ethics of Annihilation“ im Routledge Verlag. Darin nimmt Torres unter anderem den Longtermismus kritisch ins Visier und erklärt die Vorstellungen dahinter.
netzpolitik.org: Vielleicht kannst du zunächst erklären, was Effektiver Altruismus (EA) ist. Wenn ich es richtig verstanden habe, ist Longtermismus aus dieser philosophischen Theorie hervorgegangen.
Émile P. Torres: Effektiver Altruismus ist eine Art kulturelle und intellektuelle Bewegung, die in den späten 2000er Jahren entstanden ist. Das zentrale Ziel von EA ist es, so viel Gutes wie möglich zu tun. Die Wurzeln liegen in den Arbeiten des Philosophen Peter Singer. Ich erinnere mich an einen Artikel aus dem Jahr 1972 mit dem Titel „Famine, Affluence, and Morality“. In diesem Artikel argumentiert er, dass man ein Altruist sein sollte. Ein erheblicher Teil unseres verfügbaren Einkommens sollte dafür verwendet werden, Menschen zu helfen, die vielleicht sehr weit weg sind, auf der anderen Seite der Welt. Die Tatsache, dass eine gewisse physische Distanz zwischen uns und ihnen besteht, sollte moralisch nicht relevant sein.
Eine Frage schließt sich dann an: Wenn man Singers Argumenten folgt, dass wir Altruisten werden sollten, wie sollte man die eigenen endlichen Ressourcen nutzen, um den altruistischen Effekt zu maximieren? Vor EA bedeutete Philanthropie größtenteils, verschiedene Zwecke aus emotionalen Gründen zu verfolgen. Michael J. Fox zum Beispiel gründete als Betroffener das Parkinson-Forschungsinstitut. Oder Leute spenden Geld für einen bestimmten Teil der Welt, der von einer Naturkatastrophe heimgesucht wurde, weil sie familiäre Bindungen dahin haben.
Das Besondere an EA ist, zumindest nach der Meinung der Anhänger:innen, dass sie versuchen, vernunft- und evidenzbasiert die besten Wege zu finden, um einer möglichst großen Zahl von Menschen zu helfen. Dieser Ansatz, der auf den ersten Blick überzeugend klingen mag, birgt eine ganze Reihe erheblicher Probleme.
„Giving What You Can“
Die erste EA-Organisation wurde offiziell im Jahr 2009 gegründet und hieß „Giving What We Can“. Und ihr anfänglicher Fokus lag darauf, die weltweite Armut zu bekämpfen. Sie akzeptierten Singers global ansetzende Ethik und versuchten dann, mit einer Art strenger wissenschaftlicher Methodik herauszufinden, welche Wohltätigkeitsorganisationen die meisten Menschenleben retten können. Nach ihrer Auffassung war das das Originelle an ihrem Ansatz.
netzpolitik.org: Wann ist der Longtermismus entstanden?
Torres: In den frühen 2010er Jahren. Da gab es einige Leute, die der EA-Philosophie anhingen und dann die Arbeit von Nick Bostrom und einigen anderen entdeckten. Sie lasen insbesondere Bostroms Artikel aus dem Jahr 2003 mit dem Titel „Astronomical Waste“. Darin vertritt er die These, dass unsere Abstammung, der Homo sapiens und seine Nachkommen, im Universum für einen extrem langen Zeitraum überleben könnten. Wir könnten also noch etwa eine Milliarde Jahre auf diesem Raumschiff Erde leben. Zum Vergleich: Den Homo sapiens gibt es seit etwa 300.000 Jahren, also ein Bruchteil einer Milliarde. Die Zivilisation gibt es seit 6.000 Jahren oder so. Das ist eine wirklich enorme Zeitspanne in unserer Zukunft, die die Zeit, die die Zivilisation bisher existiert hat, in den Schatten stellt.
Aber natürlich können wir laut Bostrom die Zerstörung unseres Planeten durch die Sonne in einer Milliarde Jahren vermeiden, wenn wir den Weltraum besiedeln. Dann können wir viel länger leben, vielleicht 10 hoch 40 Jahre, das ist eine Eins mit 40 Nullen. Das ist eine wirklich lange Zeitspanne. Vielleicht könnten wir sogar noch viel länger existieren, 10 hoch 100 Jahre, bis dann irgendwann der Hitzetod eintreten soll. Außerdem könnten wir nicht nur für diese enorme Zeitspanne in der zeitlichen Dimension existieren, auch das Universum ist wirklich riesig.
Ein Universum voller Menschen
netzpolitik.org: Das bedeutet, dass es sehr viele Menschen geben würde. Über wie viele Menschen sprechen wir hier?
Torres: Die erste mir bekannte Schätzung, wie viele Menschen es in Zukunft auf der Erde geben könnte, stammt von dem Kosmologen Carl Sagan. Er war der Moderator der Fernsehsendung „Cosmos“ und in den 1970er und 1980er Jahren sehr bekannt.
Er schätzte 1983, dass es in Zukunft 500 Billionen Menschen geben würde. Die Voraussetzungen: Der Homo sapiens lebt so lang wie die durchschnittliche Säugetierart, wobei er von zehn Millionen Jahren ausging. Die Weltbevölkerung bleibt konstant, die zu diesem Zeitpunkt bei circa 4 Milliarden lag. Und die Einzelnen werden 100 Jahre alt. Bislang wurde geschätzt, dass es 117 Milliarden Angehörige unserer Spezies geben wird. Das bedeutet, dass die zukünftige Bevölkerung viel größer ist als die vergangene.
Um auf Bostrom zurückzukommen: Wenn wir den Virgo-Supercluster besiedeln, könnte die Bevölkerung 10 hoch 23 biologische Menschen umfassen. Es könnten sogar noch mehr Menschen sein, wenn wir diese riesigen Computersimulationen erschaffen, in denen virtuelle Realitätswelten laufen, in denen Billionen von digitalen Menschen ein glückliches Leben führen würden.
Man kann mehr digitale Menschen in einer volumetrischen Raumeinheit unterbringen als biologische. Laut Bostrom ist das der einzige Grund, warum man Menschen und Welten simulieren sollte. Denn es passen einfach mehr hinein, so dass die zukünftige Bevölkerung noch größer sein könnte, 10 hoch 38 im Virgo-Superhaufen, 10 hoch 58 im gesamten Universum.
netzpolitik.org: Woher kommen die digitalen Menschen? Wie werden sie geboren oder wie existieren sie?
Torres: Das geht nicht wirklich klar aus der Literatur hervor. Über diese digitalen Menschen wird nur gesagt, dass sie ein glückliches Leben haben werden. Und das ist aus ethischer Sicht für die longtermistische Betrachtung wichtig. Aber ob sie Lebenszyklen haben werden wie wir, darüber gibt es keine Details. Ich glaube, viele Longtermisten wissen nicht, wie seltsam die digitale Welt aussehen würde. Vorausgesetzt eine solche Welt ist überhaupt möglich, vielleicht ist Bewusstsein etwas, das nur aus biologischem Gewebe entstehen kann.
Das Phantasma der Superintelligenz
netzpolitik.org: Du hast dich kritisch gegenüber dem Longtermismus geäußert. Was ist aus deiner Sicht falsch daran?
Torres: Zunächst muss ich betonen, wie extrem diese Sichtweise unsere Welt beeinflusst. Elon Musk sagt, sie stimme eng mit seiner Philosophie überein. Sie ist in der Tech-Branche allgegenwärtig. Sie ist die treibende Kraft hinter vielen Forschungstätigkeiten, die sich zurzeit auf die Entwicklung künstlicher allgemeiner Intelligenz (artificial general intelligence, AGI) konzentrieren. Diese wird als Sprungbrett zur künstlichen Superintelligenz verstanden.
Ein großer Teil der Forschung von OpenAI und DeepMind und anderen sehr gut finanzierten Unternehmen mit Milliarden und Abermilliarden von Dollar im Rücken wird von der longtermistischen Vision angetrieben, dass Superintelligenz das entscheidende Vehikel ist, das uns in die Lage versetzen wird, den Weltraum zu kolonisieren, den Wert zu maximieren und so weiter. Sie infiltriert die Vereinten Nationen und soll in deren Zukunftsgipfel „Summit of the future 2024“ einfließen. Sie erhält Milliarden von Dollar für Forschungsprojekte. Es handelt sich also nicht nur um eine merkwürdige und sonderbare Ideologie, über die man einfach schmunzeln kann. Nein, sie beeinflusst unsere Welt wirklich auf grundlegende Weise.
Das große Meer des Lebens
netzpolitik.org: Welche Gefahren gehen von dieser Ideologie aus?
Torres: Ich glaube, dass diese Ideologie zwei große Gefahren birgt. Die eine besteht darin, dass sie, weil sie unseren Blick auf die sehr ferne Zukunft richtet und die mögliche Erschaffung einer riesigen Anzahl zukünftiger Menschen vorwegnimmt, aktuelle Probleme, die die Menschheit als ganze nicht existenziell betreffen, sehr trivial erscheinen lassen kann.
Bostrom sagte, wenn man sich beispielsweise das 20. Jahrhundert anschaut, sieht man alle möglichen Katastrophen, einschließlich globaler Katastrophen, die den Tod von mehreren Millionen Menschen verursachten: der Zweite Weltkrieg, die AIDS-Pandemie, die Spanische Grippe von 1918. All diese Katastrophen sind in absoluten Zahlen schrecklich, aber in Bostroms Worten sind sie nicht mehr als kleine Wellen auf dem großen Meer des Lebens. Denn im Großen und Ganzen ist der Verlust von mehreren Dutzend Millionen Menschen im Vergleich dazu, wie viele Menschen in der Zukunft existieren könnten, einfach nicht so gravierend.
Trivialer Klimawandel
Nehmen wir zum Beispiel den Klimawandel: Vor dem Hintergrund der longtermistischen Literatur ergibt sich dabei ein ziemlich rosiges Bild für die Zukunft. Das heißt, der Klimawandel wird nicht zu einer existenziellen Katastrophe. Es ist viel wahrscheinlicher, dass es vor allem die Menschen im globalen Süden fundamental treffen wird, und es wird wahrscheinlich Millionen von Toten geben. Mehrere Millionen von Menschen werden vertrieben, vielleicht müssen Milliarden von Menschen umsiedeln. Das wird eine Katastrophe sein, aber wenn man das wie Bostrom aus dem kosmischen Blickwinkel betrachtet, ist das nur ein kleiner Schluckauf.
Mit den Longtermisten gesprochen: Wenn wir diese ganze Zukunft vor uns haben und die Ressourcen endlich sind, dann sollten wir diese Ressourcen nicht ausgeben oder verteilen, den Klimawandel bekämpfen oder uns mit Fragen der Klimagerechtigkeit beschäftigen. Es gibt Wichtigeres zu tun, zum Beispiel eine Superintelligenz davon abzuhalten uns zu vernichten. Zwar sterben acht Milliarden Menschen. Das ist schlimm, aber viel schlimmer ist der Verlust all der Menschen in der Zukunft. Das Problem an dieser Sichtweise ist, dass die Menschen aktuelle Probleme bagatellisieren oder trivialisieren.
Der Terror aus Utopia
netzpolitik.org: Was ist das zweite Problem?
Torres: Das zweite Problem hängt sehr stark mit dem ersten zusammen. Der Longtermismus stellt diese Art von utopischer Zukunftsvision voller astronomischer Werte und Vergnügen in Aussicht. Das könnte Menschen, die leidenschaftlich an die Existenz dieser Utopie glauben, dazu verleiten, extreme Maßnahmen zu ergreifen, um die Verwirklichung dieser techno-utopischen Zukunft sicherzustellen. Die könnten auch gewaltsam sein.
Die Geschichte ist voll von Beispielen utopischer Bewegungen, die alle möglichen schrecklichen Gewalttaten wie Terrorismus und Völkermord verübten, um ihre Utopie zu verwirklichen. Der Longtermismus hat alles, was es den utopischen Bewegungen in der Vergangenheit ermöglichte, grausame Maßnahmen zu rechtfertigen. Es muss nur einen Menschen geben, der wirklich an den Longtermismus glaubt und daran, Utopia am Horizont erkennen zu können.
Wenn ihm dabei jemand im Weg steht, wird er sagen: „Tut mir leid, ich will niemanden verletzen, aber ich muss es tun. Es steht so viel auf dem Spiel. Ich muss vielleicht fünf, zehn, vielleicht eine Million, vielleicht 10 Millionen Menschen töten.“ Die Sorge ist begründet, dass es Menschen gibt, die so sehr von Bostrom und dem Longtermismus überzeugt sind und bereit, in einer bestimmten Situation entsprechend zu handeln. Darüber bin ich ernsthaft besorgt.
Altruismus auf Effektivität getrimmt
netzpolitik.org: Kannst du etwas mehr dazu sagen, wie sich die longtermistische Sichtweise aus der Philosophie des effektiven Altruismus entwickelt hat?
Torres: Nachdem eine Gruppe von Effektiven Altruisten die Arbeiten von Bostrom entdeckt hatte, kamen sie zu dem Schluss: Wenn wir das meiste Gute tun wollen, und wenn das bedeutet, die größte Anzahl von Menschen positiv zu beeinflussen, und wenn darüber hinaus die größte Anzahl von Menschen in ferner Zukunft existiert, dann sollten wir uns weniger auf die Individuen konzentrieren, die heute leiden. Und uns stattdessen mehr darauf konzentrieren, das Leben dieser Menschen, die Millionen, Milliarden, Billionen von Jahren in der Zukunft leben, positiv zu beeinflussen.
So kam es zur Ideologie des Longtermismus. Sie basiert auf der Idee, den eigenen positiven Einfluss auf die Welt zu maximieren und dann zu erkennen, dass die Zukunft viel, viel größer sein könnte als die Gegenwart. Selbst wenn die Wahrscheinlichkeit, ein Prozent der zukünftigen Bevölkerung positiv zu beeinflussen, sehr gering ist, ist das immer noch viel wirkungsvoller, als einer Milliarde Menschen jetzt mit großer Sicherheit zu helfen.
Heute leben zum Beispiel 1,3 Milliarden Menschen in mehrdimensionaler Armut. Wenn ich etwas tun kann, das 0,0001 Prozent der 10 hoch 39 Menschen in ferner Zukunft hilft, dann ist das eine viel größere Zahl als 1,3 Milliarden. In diesem Rahmen, in dem es darum geht, möglichst viel Gutes zu tun, ist es nur logisch, dass wir uns auf die ferne Zukunft konzentrieren sollten.
Die Art von Utilitarismus, die die Longtermisten am meisten beeinflusst, besagt, dass wir nicht nur den Wert innerhalb einer Population, sondern auch den Wert des Universums als Ganzes maximieren sollten. Es gibt zwei Möglichkeiten, das zu erreichen. Die eine ist das, was ich gerade erwähnt habe: das Glück der Menschen zu erhöhen, die bereits existieren.
Maximierung des Glücks
Eine andere Möglichkeit besteht darin, neue Menschen zu schaffen, die glücklich sind. Denn wenn sie einen positiven Nettowert des Glücks haben, dann erhöht das den Glück-Gesamtwert des Universums. Plötzlich hat man ein Argument dafür, warum es nicht nur eine moralische Verpflichtung ist, Menschen glücklich zu machen, sondern auch neue glückliche Menschen zu erschaffen. Deshalb halten sie es für sehr wichtig, dass wir so lange wie möglich überleben, den Weltraum kolonisieren und schließlich diese riesigen Computersimulationen mit Billionen von digitalen Menschen erschaffen, die darin leben.
netzpolitik.org: Warum ist es wichtig, den Wert zu maximieren?
Torres: In der utilitaristischen Sichtweise geht es nur um die größte Gesamtmenge an Wert im Universum. Historisch gesehen glaube ich nicht, dass es ein Zufall ist, dass diese Version des Utilitarismus zu der Zeit entstand, als der Kapitalismus aufkam. Die Parallelen sind ziemlich signifikant: Für Kapitalisten geht es nur um die Maximierung des Profits, für Utilitaristen geht es ethisch gewendet nur um die Maximierung des Wertes. Der Wert ist das oberste Ziel. Vielleicht ist es das menschliche Glück oder etwas Ähnliches. Aber in beiden Fällen geht es nur um diese Art von hirnlosem „mehr ist besser“.
netzpolitik.org: Je mehr Menschen, desto besser – das scheint widersprüchlich. Würde es nicht mehr Probleme oder kompliziertere Probleme geben, wenn es viel mehr Menschen gäbe?
Torres: Aus philosophischer Sicht würde ich sagen, dass die Beziehung zwischen dem, was wir als Wert ansehen, und den Menschen falsch verstanden wird. Für die Utilitaristen ist der Wert das Wichtigste. Das ist der ultimative Zweck.
Was sind die Mittel? Nun, da der Wert durch etwas realisiert werden muss und dieses Etwas ein Mensch ist, muss man mehr Menschen erschaffen. Menschen werden letztlich als Mittel zum Zweck betrachtet. Sie sind wertvoll, insofern sie instrumentalisiert werden können als Mittel zum Zweck des Wertes Glück. Diese Beziehung sollen wir so verstehen, dass Glück wichtig ist, weil es gut für die Menschen ist. Glück ist ein Mittel für die Einzelnen, um ihr Wohlbefinden zu verbessern.
Der Utilitarismus ist im Grunde die Theorie des Menschen als Wert-Behälter. Je mehr Wert-Behälter man im Universum hat, desto mehr Möglichkeiten hat man, Wert zu sammeln. Laut der Longtermisten ist das gut, denn dann hat man insgesamt einen höheren Wert erreicht. Man kann den Wert maximieren, indem man den Wert erhöht, den jeder Container hat. Oder man erschafft einfach neue Container. Die Sichtweise der Kantianer, Menschen als Zweck an sich selbst zu betrachten, scheint mir die bessere zu sein.
Heldenanbetung
netzpolitik.org: Einflussreiche Philosophen im Longtermismus sind unter anderem William MacAskill und Nick Bostrom. Sie scheinen Unterschiede zwischen den Menschen in der Weise zu machen, dass einige wertvoller sind als andere. Und sie scheinen sich als diejenigen zu verkaufen, die für alles eine Lösung haben.
Torres: Ich würde sagen, dass viele der Longtermisten eine extreme Selbstherrlichkeit an den Tag legen. Ich weiß, dass es innerhalb der EA-Gemeinschaft selbst einige Kritiker:innen der Bewegung gibt. Carla Zoe Cremer zum Beispiel hat einige der Anführer dafür kritisiert, dass sie nicht genug tun, um eine Art Heldenverehrung innerhalb der Gemeinschaft zu unterbinden.
Leute wie Bostrom scheinen zu glauben, dass sie eine moralisch sehr bedeutende Rolle bei der Steuerung der zukünftigen zivilisatorischen Entwicklung zu spielen haben. Sie sind sehr elitär und fördern eine starre Hierarchie mit Menschen an der Spitze, die eine enorme Menge an Macht in ihren Händen bündeln. Ich habe auf jeden Fall den Eindruck, dass sie es so wollen, denn viele der Leute an der Spitze glauben, dass sie über überlegene intellektuelle Fähigkeiten verfügen und daher eine Art einzigartige Fähigkeit besitzen, den besten Weg zu bestimmen.
Superintelligenz bringt uns nach Utopia
Eliezer Yudkowsky und Bostrom sind zum Beispiel beide mehr oder weniger explizit elitär in ihrer Perspektive auf das Thema der künstlichen Superintelligenz. Ihrer Meinung nach ist die Entwicklung von Superintelligenz so wichtig, dass denjenigen überlassen werden sollte, die intellektuell und moralisch am besten geeignet sind, Entscheidungen darüber zu treffen, wie sie entwickelt werden soll. Dazu gehören Bostrom, Yudkowsky und andere vom Future of Humanity Institute. Ich finde die Gemeinschaft problematisch, weil sie undemokratisch, sogar antidemokratisch ist.
netzpolitik.org: Das ist sehr beunruhigend. Warum ist Superintelligenz für Longtermisten so wichtig?
Torres: Dafür gibt es zwei Gründe. Einerseits nehmen die Longtermisten allgemein an, dass Superintelligenz folgende Auswirkungen haben wird: Entweder führt sie fast unmittelbar zu unserer Vernichtung, zur totalen Vernichtung, dann sind alle auf dem Planeten tot. Oder sie wird das Mittel sein, das es uns ermöglicht, hier auf der Erde und im Himmel eine echte Utopie zu erschaffen. Sie wird ein Mittel sein, um nach Utopia zu gelangen, den riesigen Kosmos zu besiedeln und damit den Wert massiv zu maximieren.
Longtermisten nehmen an, dass es sehr schwierig ist, eine Superintelligenz zu entwerfen, die uns nicht zerstört. Es ist ein intellektuelles, philosophisches und technisches Problem, von dem Leute wie Bostrom und andere vom Future of Humanity Institute, vielleicht auch Leute von OpenAI, glauben könnten, dass sie in einer einzigartigen Position sind, es tatsächlich zu lösen.
Da so viel auf dem Spiel steht – wenn nicht die Vernichtung, dann die Utopie, wenn nicht die Utopie, dann die Vernichtung – ist es wirklich wichtig, dass wir die Superintelligenz so gestalten, dass sie das widerspiegelt, was wir eigentlich wollen, nämlich den Wert zu maximieren, den Weltraum zu kolonisieren, radikal verbesserte „Nachmenschen“ zu werden und dergleichen mehr.
„Armselige Vision von der Zukunft“
netzpolitik.org: Das klingt wie eine schlechte Science-Fiction-Geschichte.
Torres: Es ist möglicherweise noch schlimmer. Ich glaube, dass die Longtermisten eine sehr armselige Vision der Zukunft haben. Die Maßstäbe, mit denen sie die Güte von Folgen messen, sind sehr technologisch, kapitalistisch und quantitativ ausgerichtet. Die Vorstellung, nur den Wert zu maximieren, ist meiner Meinung nach eine zutiefst klägliche Art, über unsere Beziehung zum Wert nachzudenken. Man könnte mit einem Wert auch etwas Anderes tun, etwa ihn schätzen, pflegen, schützen, erhalten und so weiter.
Darüber hinaus haben einige Technologiekritiker:innen darauf hingewiesen, dass viele der Attribute, die technologische Artefakte besitzen und die diese Artefakte für uns in gewisser Weise wertvoll machen, auf den menschlichen Schöpfer selbst projiziert werden. Dazu gehören Geschwindigkeit, Verarbeitungskapazität, Funktionalität, Zuverlässigkeit und so weiter. Man kann fragen: „Ist das ein gutes Auto?“ „Nun, ja.“ „Und warum?“ „Weil es zuverlässig ist.“
Longtermisten nehmen diese Eigenschaften und projizieren sie auf die Menschen und beurteilen die Menschen schließlich auf der Grundlage dieser Kriterien. Es ist die Idee, dass wir „nachmenschlich“ werden müssen, eine Superintelligenz schaffen müssen, die es uns ermöglicht, unsere Körper zu hacken, um mit der Technologie zu verschmelzen. Aber warum sollten wir das tun wollen?
Umgekehrte Adaption
Warum sollten wir diese quantitative Denkweise für unser Leben adaptieren wollen, wie die Fähigkeit erweitern, Vergnügen zu erleben oder mehr Kontrolle über unsere Emotionen erlangen. Das ist in Langdon Winners Worten ein Phänomen der umgekehrten Anpassung. Anstatt dass wir die Technologie uns anpassen, passen wir uns der Technologie an, und die Maßstäbe, nach denen wir Technologien als gut beurteilen, beginnen wir auf uns selbst anzuwenden.
Möglicherweise sollte es nicht so sein. Vielleicht kann man davon ausgehen, dass die menschliche Erfahrung vielfältiger ist, nicht nur starr und quantitativ. Was man in der longtermistischen Literatur fast nie findet, sind Diskussionen über die Frage nach dem Sinn. Darüber, was ein sinnvolles Leben ausmacht. Es gibt fast keine ernsthaften philosophischen Überlegungen dazu.
Vielleicht geht es nicht nur darum, wie glücklich ich bin, vielleicht geht es um die Qualität dieses Glücks. Vielleicht ist es der Kontext, in dem dieses Glück entstanden ist. Wenn ich mich in einer Gemeinschaft befinde und sehr glücklich bin, aber die Menschen um mich herum leiden, ist das vielleicht kein guter Zustand. Und ja, ich glaube, in ihrer logischen Zukunftsvision fehlen eine Menge Facetten.
Longtermismus: „Eine merkwürdige und sonderbare Ideologie“ - Netzpolitik.org
Read More
No comments:
Post a Comment