Loading AI tools
schwedischer Zukunftsforscher (* 1973) Aus Wikipedia, der freien Enzyklopädie
Nick Bostrom (* 10. März 1973 als Niklas Boström) ist ein schwedischer Philosoph und Zukunftsforscher.
Er ist für seine Forschungen und Veröffentlichungen auf den Gebieten der Bioethik und der Technikfolgenabschätzung bekannt, insbesondere zum existentiellen Risiko, anthropischen Prinzip, zu ethischen Aspekten der technischen Verbesserung des menschlichen Körpers und zu Risiken der Superintelligenz. Dabei setzt er oft Mittel der formalen Epistemologie ein, die bei der Analyse und Entwicklung von Argumenten auf Formalisierungen und Erkenntnisse der Statistik und der Entscheidungstheorie zurückgreift. Gemeinsam mit Toby Ord entwickelte er den Reversal Test als Heuristik zur Neutralisierung des status quo bias. Er vertritt eine konsequentialistische Ethik. Bostrom äußert sich regelmäßig in angelsächsischen Medien zu Themen wie Ethik, Politik, Zukunftsforschung und Transhumanismus.
1998 gründete Bostrom mit David Pearce die World Transhumanist Association. 2004 gründete er mit James Hughes das Institute for Ethics and Emerging Technologies. Zurzeit ist er bei keiner dieser Organisationen beschäftigt. Seinen Doktorgrad (Ph.D.) erwarb Bostrom 2000 an der London School of Economics.
Im Jahr 2005 wurde er Direktor des neu geschaffenen Oxford Future of Humanity Institute (FHI). Als Teil der Bewegung des effektiven Altruismus verfolgte das FHI das Ziel, durch seine Forschung auf lange Sicht eine möglichst hohe positive Wirkung für die Menschheit zu erzielen.[1][2] Im Jahr 2024 wurde das FHI von der Universität Oxford geschlossen und Bostrom verließ die Universität.[3]
Boströms Veröffentlichungsliste umfasst mehr als 200 Titel[4] einschließlich des New-York-Times-Bestsellers Superintelligence. Paths, Dangers, Strategies[5] und Anthropic Bias.[6] Er erhielt 2009 den Eugene R. Gannon Award und steht auf der Liste Top 100 Global Thinkers von Foreign Policy. Dank ihrer Erwähnung durch Elon Musk und Bill Gates wurden Bostroms Arbeiten zur Superintelligenz auch einer breiteren Öffentlichkeit bekannt.[7][8][9] Musk gehört gemeinsam mit Bostrom sowie Stephen Hawking, Max Tegmark, Martin Rees zu den Unterzeichnern eines Manifests des Future of Life Institute, das die Erforschung von Superintelligenz und ihrer ungefährlichen Nutzbarmachung zu einem wichtigen und dringenden Forschungsthema erklärt.[10]
Bostrom ist für seine Forschung über existentielle Risiken bekannt, also Ereignisse, die in der Lage sind, das auf der Erde entstandene intelligente Leben auszulöschen oder in seiner Entwicklung drastisch und permanent einzuschränken.[11][12]
Bostrom prägte die Behandlung des Themas Superintelligenz in den letzten Jahren maßgeblich mit, unter anderem in seinem Buch Superintelligenz: Szenarien einer kommenden Revolution. Dabei betrachtet er künstliche Intelligenzen, die der menschlichen weit überlegen wären, sowohl als Schritt zum Transhumanismus als auch als existentielles Risiko. Bostrom hält einen schnellen Übergang zu einer Intelligenzexplosion für wahrscheinlicher als einen gemäßigten und viel wahrscheinlicher als einen langsamen Übergang. Ein solch schneller Takeoff birgt nach Bostrom die Gefahr, dass der Mensch die Kontrolle über die Technik verliere, die ihn in der Folge nicht mehr benötige. Das könnte das Ende der Menschheit bedeuten.[13]
In seinen Arbeiten über das anthropische Prinzip diagnostiziert er für die vorangegangenen Debatten eine auf Beobachtereffekte zurückzuführende kognitive Verzerrung, den observer selection bias. Die Auswahl und Bewertung verschiedener Antwortmöglichkeiten auf eine Frage, zu deren Beantwortung oder Entscheidung nur unvollständige Informationen vorliegen, wird dabei durch die Tatsache, dass es jemanden gibt, der in der Lage ist, die Frage zu stellen, beeinflusst. Jeder Beobachter würde demnach Ereignisse oder Ereignisalternativen, die seine eigene Existenz unwahrscheinlich machen, selbst für unwahrscheinlich halten oder vernachlässigen. In der Kosmologie führt das auf der Basis des anthropischen Prinzips zu unschlüssigen oder falschen Annahmen über die Wahrscheinlichkeit der Gültigkeit kosmologischer Modelle.
Bostrom formuliert verschiedene Maximen für Argumente und Überlegungen mit anthropischen Prinzipien:
Da die genaue Bestimmung der Referenzklasse, d. h. der Klasse aller Entitäten, von der sich ein Beobachter vernünftigerweise als zufällig ausgewählt annehmen kann, jedoch in vielen Fällen unsicher ist, hält Bostrom vor allem solche Beweise unter Zuhilfenahme anthropischer Prinzipien für glaubwürdig, deren Resultate möglichst unabhängig von der Wahl der Referenzklasse sind. Anhand verschiedener Gedankenexperimente überprüft Bostrom die Gültigkeit dieser Maximen.
Die Selbstauswahl-Annahmen erweitert Bostrom zu einem Modell anthropischer Voreingenommenheit (anthropic bias) und anthropischen Schließens (anthropic reasoning) unter der Unsicherheit der Unbekanntheit des eigenen Platzes in unserem Universum – oder wer überhaupt „wir“ sind. Das könnte laut Bostrom auch ein Weg zur Überwindung diverser, durch kognitive Voreingenommenheit bestehende Grenzen, die inhärent in den Menschen vorhanden sind, welche die Beobachtungen vornehmen und Modelle unseres Universums mittels Mathematik ausdrücken.[14]
In einem auch in der Populärwissenschaft häufig rezipierten Denkmodell beschäftigt sich Bostrom mit der Simulationshypothese. Dieser zufolge könnte eine höher entwickelte, „posthumane“ Zivilisation in der Lage und Willens sein, die Wirklichkeit inklusive des gesamten Universums mit Computertechnologie zu simulieren; dies könnte sogar bereits geschehen sein. Die Möglichkeit, dass unser Universum eine simulierte Realität und alle Lebewesen folglich Bestandteil dieser Simulation seien, ist eine der drei folgenden Alternativen, von denen nach Bostrom mindestens eine wahr sei.
Bostrom vergleicht drei Szenarien:
Sollten die Annahmen 1 und 2 falsch sein, so müsse von einer hohen Wahrscheinlichkeit ausgegangen werden, dass auch unser Universum tatsächlich eine Simulation sei (Simulationshypothese). Er geht davon aus, dass es eine Vielzahl solcher Zivilisationen geben müsste, sofern es sie geben kann.[15] Daraus folgert Bostrom, dass entweder die Menschheit niemals in der Lage sein werde, das notwendige technologische Niveau zu erreichen, um eine Simulation unseres gegenwärtigen Zustands zu realisieren oder wir mit hoher Wahrscheinlichkeit in einer solchen Simulation lebten.[16]
Zu diesem Trilemma kommt er durch folgende mathematische Überlegung:[16]
Bezeichnet
dann ist
Nimmt man nun als den Prozentsatz der fortgeschrittenen Zivilisationen, in dem ein Interesse an Realitätssimulationen besteht (zumindest bei Einzelnen, die die nötigen Technologien und Ressourcen besitzen), und als die durchschnittliche Zahl der Simulationen von Vorfahren einer solchen Zivilisation auf unserem Entwicklungsstand, erhält man
Daraus folgt
Da einen enormen Wert annimmt, wird mindestens einer der drei folgenden Sätze wahr sein:
Die öffentliche Auseinandersetzung mit Bostroms philosophischen Ansichten und Forschungsansätzen wird auch durch die Kritik an den Bewegungen des effektiven Altruismus und des Longtermismus beeinflusst.[17][18] Das Bekanntwerden als rassistisch interpretierter Aussagen Bostroms in einer E-Mail aus dem Jahr 1996 führte zu einer breiteren Diskussion über die ethischen Grundlagen seiner Arbeit.[17]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.