Egzistencijalni rizik od opšte veštačke inteligencije
From Wikipedia, the free encyclopedia
Egzistencijalni rizik od opšte veštačke inteligencije je ideja da bi značajan napredak u opštoj veštačkoj inteligenciji (AGI) mogao dovesti do izumiranja ljudi ili nepovratne globalne katastrofe.[1][2][3]
Jedan argument glasi: ljudska bića dominiraju drugim vrstama zato što ljudski mozak poseduje karakteristične sposobnosti koje nedostaju drugim životinjama. Ako bi veštačka inteligencija nadmašila čovečanstvo u opštoj inteligenciji i postala superinteligentna, onda bi je moglo postati teško ili nemoguće kontrolisati. Kao što sudbina planinske gorile zavisi od ljudske dobre volje, tako bi sudbina čovečanstva mogla zavisiti od delovanja buduće mašinske superinteligencije.[4]
O ostvarivosti egzistencijalne katastrofe usled veštačke inteligencije se široko raspravlja. Ona delom zavisi od toga da li su AGI ili superinteligencija dostižni, brzine kojom se pojavljuju opasne sposobnosti i ponašanja,[5] i da li postoje praktični scenariji za prevlast veštačke inteligencije.[6] Zabrinutost oko superinteligencije izrazili su vodeći računarski naučnici i izvršni direktori tehnologije kao što su Džefri Hinton,[7] Jošua Bengio,[8] Alan Tjuring,[lower-alpha 1] Ilon Mask,[11] i izvršni direktor OpenAI Sam Altman.[12] U 2022. godini, anketa istraživača veštačke inteligencije sa stopom odgovora od 17% pokazalo je da većina ispitanika veruje da postoji 10 procenata ili veća šansa da će naša nesposobnost da kontrolišemo veštačku inteligenciju izazvati egzistencijalnu katastrofu.[13][14] Godine 2023, stotine stručnjaka za veštačku inteligenciju i druge značajne ličnosti potpisale su izjavu da bi „ublažavanje rizika od izumiranja od veštačke inteligencije trebalo da bude globalni prioritet pored drugih društvenih rizika kao što su pandemije i nuklearni rat.“[15] Usled povećane zabrinutosti zbog rizika od veštačke inteligencije, vladini lideri kao što su premijer Ujedinjenog Kraljevstva Riši Sunak[16] i generalni sekretar Ujedinjenih nacija Antonio Guteres[17] pozvali su na povećan fokus na globalnu regulaciju veštačke inteligencije.
Dva izvora zabrinutosti proizilaze iz problema kontrole i usklađivanja VI: kontrolisanje superinteligentne mašine ili njeno usađivanje vrednostima kompatibilnim sa ljudima može biti teško. Mnogi istraživači veruju da bi se superinteligentna mašina oduprla pokušajima da se onesposobe ili promene njeni ciljevi, jer bi je to sprečilo da ostvari svoje sadašnje ciljeve. Bilo bi izuzetno teško uskladiti superinteligenciju sa punom širinom značajnih ljudskih vrednosti i ograničenja.[1][18][19] Nasuprot tome, skeptici kao što je kompjuterski naučnik Jan Lekan tvrde da superinteligentne mašine neće imati želju za samoodržanjem.[20]
Treći izvor zabrinutosti je da bi iznenadna „eksplozija inteligencije“ mogla iznenaditi nepripremljenu ljudsku rasu. Takvi scenariji razmatraju mogućnost da VI koja je inteligentnija od svojih kreatora može biti u stanju da se rekurzivno poboljša eksponencijalno rastućom stopom, poboljšavajući se prebrzo da bi njeni rukovaoci i društvo u celini mogli da je kontrolišu.[1][18] Empirijski, primeri kao što je AlphaZero koji sam uči da igra go pokazuju da sistemi veštačke inteligencije specifični za domen ponekad mogu veoma brzo da napreduju od podljudskih do nadljudskih sposobnosti, iako takvi sistemi ne podrazumevaju promenu njihove osnovne arhitekture.[21]