Nick Bostrom
filosof suedez From Wikipedia, the free encyclopedia
filosof suedez From Wikipedia, the free encyclopedia
Nick Bostrom (în suedeză Niklas Boström; n. , Helsingborg, Suedia) este un filosof suedez de la Universitatea din Oxford,[4] cunoscut pentru lucrările sale despre riscurile existențiale, principiul antropic, etica îmbunătățirii umane, riscurile superinteligenței și testul inversării. În 2011 a fondat Programul Oxford Martin privind impactul tehnologiei viitoare[5] și este directorul fondator al Institutului Viitorul Umanității (Future of Humanity Institute) de la Universitatea Oxford.[6] În 2009 și 2015, el a fost inclus în lista Top 100 de gânditori a publicației americane Foreign Policy.[7][8]
Nick Bostrom | |
Date personale | |
---|---|
Nume la naștere | Niklas Boström |
Născut | (51 de ani)[1] Helsingborg, Suedia |
Cetățenie | Suedia |
Ocupație | filozof cadru didactic universitar[*] |
Limbi vorbite | limba engleză[2][3] limba suedeză[3] |
Activitate | |
Alma mater | Școala de Economie și Științe Politice din Londra King's College Universitatea din Göteborg[*] |
Organizație | Universitatea Oxford |
Prezență online | |
Modifică date / text |
Bostrom este autorul a peste 200 de publicații[9] și a scris două cărți și a coeditat alte două. Cele două cărți pe care le-a scris sunt Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002)[10] și Superinteligența. Căi, pericole, strategii (2014).[11] A doua carte a fost un bestseller New York Times, a fost recomandată de Elon Musk și Bill Gates, printre alții, și a ajutat la popularizarea termenului de „superinteligență”.
Bostrom consideră că superinteligența, pe care el o definește drept „orice intelect care depășește cu mult performanța cognitivă a oamenilor în practic toate domeniile de interes”, este un rezultat posibil al progreselor înregistrate în inteligența artificială. El consideră ascensiunea superinteligenței ca fiind potențial extrem de periculoasă pentru oameni, dar, totuși, respinge ideea că oamenii ar fi neputincioși în oprirea efectelor negative ale acesteia.[12][13][sursa nu confirmă] În 2017 a cosemnat o listă de 23 de principii pe care ar trebui să le urmeze toți dezvoltatorii de inteligență artificială.[14]
În cartea sa Superintelligence: Paths, Dangers, Strategies, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scop, o IA suficient de inteligentă va prezenta un comportament convergent(d), respectiv va acumula resurse și se va proteja de la oprire. Dacă scopurile IA nu le reflectă pe cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, totul pentru a-și atinge mai bine scopul.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.