singer234_Westend61_worldbreaking Westend61/Getty Images

Werden wir die nächsten 100 Jahre überleben?

MELBOURNE: Im Mai kamen Fachleute aus vielen Fachgebieten in Montenegro zu einer Konferenz zum Thema „Existenzielle Bedrohungen und andere Katastrophen: Wie sollten wir ihnen begegnen“ zusammen. Der Begriff „existenzielles Risiko“ wurde 2002 durch einen Aufsatz des Philosophen Nick Bostrom populär gemacht. Bostrom definierte ihn als Bezeichnung für Risiken, bei denen „ein ungünstiges Ergebnis intelligentes Leben auf der Erde entweder auslöschen oder sein Potenzial dauerhaft und drastisch einschränken würde“.

Um uns den Unterschied zwischen existenziellen Risiken und anderen Katastrophen bewusst zu machen, lassen Sie uns den Klimawandel betrachten. In einigen Szenarien könnte eine unkontrollierte globale Erwärmung dazu führen, dass der größte Teil der Erde zu heiß wird, als dass dort weiter Menschen leben könnten. Doch die Antarktis und einige der nördlichsten Regionen Europas, Asiens und Nordamerikas würden bewohnbar werden.

Das würde das Potenzial intelligenten Lebens auf der Erde vielleicht für Jahrtausende verringern, aber irgendwann würde sich der Planet wieder abkühlen, und die Nachkommen der Überlebenden würden ihn wieder besiedeln. Wenn dies tatsächlich die Worst-Case-Szenarien sind, dann ist der Klimawandel – so katastrophal er auch sein könnte –, kein existenzielles Risiko.

Wenn die Schwere einer Katastrophe direkt proportional ist zur Anzahl der dadurch getöteten Menschen, wäre der Unterschied zwischen einer Katastrophe, die fast die gesamte menschliche Bevölkerung der Erde tötet, und einer, die zu ihrer Auslöschung führt, natürlich nicht so groß. Für viele Philosophen, die sich mit existenziellen Risiken befassen, lässt diese Sichtweise jedoch die große Zahl von Menschen außer Acht, die geboren würden, wenn unsere Spezies lange überlebt, aber nicht, wenn der Homo sapiens ausstirbt.

Durch ihren Verweis im Titel auf „andere Katastrophen“ beschränkte sich die Konferenz von Montenegro nicht auf existenzielle Risiken, doch ein Großteil der Diskussion drehte sich um ebendiese. Am Ende der Abschlusssitzung der Konferenz vertraten einige der Anwesenden die Ansicht, dass die von uns erörterten Probleme derart schwerwiegend seien und zugleich derart vernachlässigt würden, dass wir versuchen sollten, die Aufmerksamkeit von Öffentlichkeit und Regierungen auf das Thema zu lenken. Der allgemeine Tenor einer derartigen Erklärung wurde diskutiert, und ich war Mitglied einer kleinen Gruppe, die mit der Ausarbeitung beauftragt wurde.

In der Erklärung wird festgestellt, dass es schwerwiegende Risiken für das Überleben der Menschheit gibt, von denen die meisten menschgemacht seien – und zwar entweder vorsätzlich wie beim Bioterrorismus oder unabsichtlich wie beim Klimawandel oder dem von der Entwicklung einer nicht mit unseren Werten übereinstimmenden künstlichen Superintelligenz ausgehenden Risiko. Diese Risiken, so heißt es in der Erklärung weiter, würden von den Regierungen nicht annähernd mit der ihnen gebührenden Ernsthaftigkeit und Dringlichkeit behandelt.

PS Events: Climate Week NYC 2024
image (24)

PS Events: Climate Week NYC 2024

Project Syndicate is returning to Climate Week NYC with an even more expansive program. Join us live on September 22 as we welcome speakers from around the world at our studio in Manhattan to address critical dimensions of the climate debate.

Register Now

Die Erklärung stützt sich auf zwei Behauptungen von Toby Ord aus dessen 2020 erschienenen Buch The Precipice. Ord schätzte darin die Wahrscheinlichkeit, dass unsere Spezies in den nächsten 100 Jahren ausstirbt, auf 16-17 %, also eins zu sechs. Er schätzte zudem, dass der Anteil vom weltweiten BIP, den die Menschheit für Maßnahmen zur Verringerung dieses Risikos ausgibt, weniger als 0,001 % beträgt.

In einer im Juli erschienenen Aktualisierung erklärt Ord, dass das existenzielle Risiko durch den Klimawandel geringer sei als von ihm 2020 angenommen, da neue Erkenntnisse darauf hindeuten, dass die extremsten Szenarien des Klimawandels unwahrscheinlich sind. Andererseits sei das Risiko eines unser Aussterben verursachenden Atomkriegs aufgrund des Krieges in der Ukraine nun höher, während die Risiken durch superintelligente KI und Pandemien in mancher Hinsicht geringer und in anderer höher seien.

Ord ist der Ansicht, dass der Fokus auf Chatbots die KI in eine weniger gefährliche Richtung führt, da Chatbots keine handelnden Akteure seien. Er hält es jedoch für wahrscheinlich, dass der zunehmende Wettbewerb bei der Entwicklung fortgeschrittener künstlicher allgemeiner Intelligenz zu Kompromissen bei der KI-Sicherheit führen wird.

Im Großen und Ganzen hat Ord seine – wie er zugibt sehr grobe – Schätzung, wonach die Wahrscheinlichkeit, dass unsere Spezies die nächsten 100 Jahre nicht überlebt, bei eins zu sechs liegt, nicht geändert. Er begrüßt, dass es inzwischen ein verstärktes globales Interesse an der Verringerung des Aussterberisikos gibt, und nennt als Beispiele die Aufnahme des Themas in den Bericht des UN-Generalsekretärs für das Jahr 2021 und seinen prominenten Platz auf der Agenda der als „The Elders“ bekannten internationalen Gruppe ehemaliger Staats- und Regierungschefs.

In der Erklärung von Montenegro werden die Regierungen aufgefordert, gemeinsam auf die Verhinderung existenzieller Katastrophen hinzuarbeiten. Insbesondere die Regierungen der wohlhabenden Länder werden aufgerufen, „beträchtliche Mittel“ in die Suche nach den besten Wegen zur Verringerung des Risikos des Aussterbens der Menschheit zu investieren. Obwohl die Erklärung keinen Hinweis darauf gibt, was „beträchtlich“ in diesem Zusammenhang bedeutet, hat Ord an anderer Stelle eine Verpflichtung von 1 % vom globalen BIP vorgeschlagen, um das Risiko, dass unsere Spezies ausstirbt, zu verringern. Das ist tausend Mal mehr als seine Schätzung der Regierungsausgaben für diese Aufgabe aus dem Jahr 2020, aber man kann wohl kaum behaupten, dass dies zu viel ist.

Aus dem Englischen von Jan Doolan

https://prosyn.org/0jpUARyde