Loading AI tools
hypothetische toekomstvisie Van Wikipedia, de vrije encyclopedie
Technologische singulariteit is een hypothetische toekomstvisie die voorspelt dat kunstmatige intelligentie zichzelf zal verbeteren en daardoor meer invloed krijgt op de richting waarin de maatschappij zich beweegt dan de mens zelf. De voorspelling bouwt op de aanname dat de Wet van Moore – die een verdubbeling in transistorcapaciteit voorspelt binnen een gegeven tijd – ook geldt voor het tempo waarin wetenschap en techniek zich ontwikkelen. Als dit waar is, dan volgt de opgaande lijn in technische vooruitgang een exponentiële groei die in de toekomst moet leiden tot een singulariteit; de technologische singulariteit. Dit concept werd voor het eerst uitvoerig beschreven door de Amerikaanse wiskundige en sciencefictionschrijver Vernor Vinge in zijn essay 'Singularity' (1993) en wordt tegenwoordig vooral uitgedragen door uitvinder en ondernemer Ray Kurzweil die 2045 voorspelde als jaar waarin dit bereikt zou worden.[1]
In de futurologie is een technologische singulariteit (verder gewoon de singulariteit) een toekomstig breekpunt wanneer de technologische vooruitgang zo snel gaat dat mensen met hun tegenwoordige intelligentie de resulterende maatschappij niet meer kunnen begrijpen. Die verandering zou in gang worden gezet door de eerste kunstmatige intelligenties of posthumans die zichzelf in hoog tempo blijven verbeteren (steeds intelligentere artificiële intelligentie). Deze singulariteit is genoemd naar analogie met het astronomisch punt in de ruimte-tijd waar de natuurwetten hun geldigheid verliezen (zoals volgens de huidige meest aanvaarde theorie betreffende de oorsprong van het universum: de oerknal of het centrum van een zwart gat).
Onder de technologische singulariteit wordt doorgaans verstaan:
Bij dit alles wordt wel als essentiële voorwaarde genomen dat:
Hierover echter zijn de meningen onder onderzoekers vooralsnog verdeeld.[2][3]
Het begrip ontstond in de jaren 1950. Stanislaw Ulam zei in mei 1958, verwijzend naar een conversatie met de wiskundige John von Neumann:
Een van de conversaties spitste zich toe op de steeds versnellende vooruitgang van technologie en veranderingen in de manier van menselijk leven, wat lijkt op het naderen van een bepaalde essentiële singulariteit in de geschiedenis van ons ras, waar voorbij de menselijke beslommeringen, zoals we ze kennen, niet kunnen voortgaan.
Dit citaat wordt dikwijls uit zijn context gehaald en toegeschreven aan Neumann zelf. In 1965 beschreef de statisticus Irving John Good een concept dat nog meer leek op ons hedendaags singulariteitsbegrip, omdat hij ook het aspect van bovenmenselijke intelligentie insloot:[4]
Laten we een ultra-intelligente machine definiëren als een machine die veel intelligenter is dan alle intelligente activiteiten van enig mens, hoe slim ook. Aangezien het ontwerpen van machines een van die intelligente activiteiten is, zou een ultra-intelligente machine veel betere machines kunnen ontwerpen; er zou dan ongetwijfeld een 'explosie van intelligentie' ontstaan, die de intelligentie van de mens ver achter zich zou laten. De eerste ultra-intelligente machine zou dus de laatste uitvinding zijn die de mens nodig zou hebben.
De Amerikaanse wiskundige en sciencefictionauteur Vernor Vinge begon in de jaren 1980 te spreken over de singulariteit en verzamelde zijn gedachten over dit onderwerp in januari 1983 in een voorwoord voor het inmiddels opgeheven tijdschrift Omni. Hij beschreef het concept voor het eerst uitvoerig in 1993 in zijn essay 'Singularity'. Het essay van Vinge bevat de vaak geciteerde zin:
Binnen dertig jaar zullen we de technologische middelen hebben om bovenmenselijke intelligentie te creëren. Kort daarna zal het menselijk tijdperk beëindigd zijn.
Sindsdien is dit een onderwerp geweest voor veel sciencefictionschrijvers. Er is nog steeds veel discussie of deze singulariteit werkelijk gaat optreden en wanneer. Veel voorspelde momenten waarop er intelligente computers zouden bestaan zijn al ongemerkt gepasseerd.
De singulariteit van Vinge wordt dikwijls misbegrepen als zou technologische vooruitgang afstevenen op oneindigheid, zoals in een mathematische singulariteit. Vinge wil eigenlijk zeggen dat voor hedendaagse intelligente mensen de maatschappij van na de singulariteit niet meer te begrijpen valt. In zijn sf-roman Marooned in realtime (1986) vergeleek hij dit zo:
Een platworm kan een miljoen jaar naar een opera kijken, maar hij zal daarvan nooit iets begrijpen.
Eigenlijk was de term meer gekozen als een metafoor uit de natuurkunde dan uit de wiskunde; naarmate de singulariteit nadert, worden de modellen van de toekomst minder betrouwbaar, net zoals de gebruikelijke modellen van de natuurkunde het laten afweten naarmate een zwaartekrachtsingulariteit nadert, zoals bij een zwart gat en de oerknal.
Vinge schreef dat bovenmenselijke intelligenties, of ze nu gecreëerd worden door cybernetisch verbeteren van het menselijk brein (intelligence amplification, IA) of door kunstmatige intelligentie (artificial intelligence, AI), beter in staat zullen zijn om hun eigen intelligentie te vermeerderen dan de mensen die hen maakten:
Wanneer bovenmenselijke intelligentie de vooruitgang bepaalt, dan zal die vooruitgang sneller verlopen.
Van deze feedbackloop van zichzelf verbeterende intelligentie wordt verwacht dat deze steeds grotere technologische vooruitgang brengt in steeds kortere tijdspannen. Voor hedendaagse mensen zal deze nieuwe technologie en de daarmee gevormde wereld en maatschappij snel onbegrijpelijk worden. In zijn roman A Fire Upon the Deep (1992) refereerde Vinge hier al aan.[5] De helden van het verhaal, dat in de verre toekomst speelt, krijgen te maken met zeer ver ontwikkelde machines die veel kenmerken van het leven hebben. Zo hebben deze machines het uiterlijk van plantachtige groeisels die op moleculair niveau werken, zoals in levende wezens die op cellulair niveau ook als zeer complexe moleculaire machines te beschouwen zijn. Ook groeien deze machines, als dit nodig is, vanuit een zaadachtig begin uit tot grotere eenheden. Deze machines maken gebruik van atomen en moleculen uit hun omgeving voor hun groei en onderhoud en de benodigde energie voor normaal gebruik halen ze uit zonne-energie. Maar als het nodig is halen ze op een onbekende wijze energie uit de structuur van de ruimte-tijd zelf, maar dan op zo'n grote schaal dat als neven-effect de zon zelfs bijna uitdooft door de enorme hoeveelheid energie die, op een onbegrijpelijke manier, eraan onttrokken wordt.
Raymond Kurzweil heeft een theorie opgesteld waarin de wet van Moore ruimer wordt geïnterpreteerd en stelt een generalisatie van Moores wet voor. De wet van Moore vormt voor de meeste aanhangers van de singulariteitshypothese de basis van hun geloof in de singulariteit en beschrijft een exponentieel groeipatroon in de complexiteit van geïntegreerde schakelingen van halfgeleiders. Kurzweil breidt dit uit en sluit technologieën van ver voor de geïntegreerde schakelingen in tot toekomstige vormen van berekening. Moore sprak alleen over de evolutie van transistors vanaf de jaren 1960, Kurzweil begint zijn dubbel exponentiële curve al begin 20e eeuw bij de ponskaartmachines.[6]
Hij suggereert een exponentieel patroon in de vooruitgang van technologie in de loop van de menselijke geschiedenis en zelfs van voor het begin van het leven op aarde. De hele evolutie vanaf de oerknal tot nu kan volgens hem gezien worden als een exponentiële groei van intelligentie, voortgezet in kunstmatige intelligentie.
Hij beweert dat een nieuwe technologie op de proppen komt telkens als er een barrière opduikt. Zo zal volgens hem nanotechnologie de wet van Moore gaande houden als de huidige productiemethoden van microchips op een natuurkundige barrière stuiten. Hij voorspelt dat dergelijke paradigmaverschuivingen steeds vaker zullen voorkomen naarmate de singulariteit dichter benaderd wordt. Hij gelooft dat de exponentiële groei van Moores wet zal doorlopen voorbij het gebruik van geïntegreerde circuits tot in technologieën die voor de huidige mens nog onbekend zijn, of die we ons zelfs nog niet kunnen voorstellen, die gedurende de 21e eeuw culmineert in ongebreidelde technologische vooruitgang en ten slotte tot de singulariteit. De technologische vooruitgang schiet dan heel snel in de tijd naar oneindig. Dit beschreef hij als technologische verandering zo snel en grondig dat het een breekpunt is in de menselijke geschiedenis.
De wet zoals Raymond Kurzweil haar beschreef heeft bij veel mensen hun begrip van de wet van Moore doen veranderen. Men is dikwijls geneigd te geloven dat het Moore was die met zijn wet voorspellingen deed over alle vormen van technologie, terwijl hij het alleen maar had over halfgeleiderschakelingen. Veel futurologen gebruiken nog steeds de term wet van Moore om ideeën als die van Kurzweil te beschrijven. Zoals Ray Kurzweil in zijn boek Kurzweil on the edge. The intelligent universe (2002) het zegt:[7]
Een analyse van de geschiedenis van de technologie toont dat technologische verandering exponentieel is, in tegenstelling tot de gebruikelijke 'intuïtieve lineaire' visie. We zullen dus geen 100 jaar van verandering ervaren gedurende de 21ste eeuw - het zullen er eerder 20.000 zijn (gemeten aan ons huidige idee van verandering). De 'opbrengsten' zoals chipsnelheid en kosteffectiviteit vermeerderen ook exponentieel. Er is zelfs exponentiële groei in de exponentiële groei (dubbel exponentiële groei, S-curve). Binnen enkele decennia zal machine-intelligentie menselijke intelligentie overstijgen en leiden tot de singulariteit - technologische veranderingen die zo snel en allesomvattend zijn dat er sprake is van een breekpunt in de menselijke geschiedenis. De gevolgen zullen onder andere inhouden: het samengaan van biologische en non-biologische intelligentie, onsterfelijke op software gebaseerde menselijke wezens en ultrahoge niveaus van intelligentie die zich in het universum verspreiden met de snelheid van het licht.
Als informatie niet sneller kan verspreid worden dan de snelheid van het licht en als die kosmische afstanden werkelijk onoverbrugbaar blijken (als er dus geen shortcuts via wormgaten mogelijk zijn) dan zal de verspreiding van informatie traag verlopen en bepaald worden door de lichtsnelheid. Binnen 200 jaar zullen we ongeveer alle materie en energie in het zonnestelsel voor computatie gebruikt hebben, gebaseerd op ons huidig begrip van de beperkingen en eigenschappen van computatie binnen dit tijdsbestek. Ik veronderstel echter dat intelligentie zich sneller zal verspreiden gebruikmakend van andere dimensies en meer van dergelijke shortcuts. Het lijkt misschien wel heel moeilijk, maar we praten hier over supreem intelligente technologieën en wezens. Als er manieren zijn om in andere delen van het universum te geraken via shortcuts zoals wormgaten, dan zullen ze er gebruik van maken en zal informatie zich sneller verspreiden. Dan kunnen we misschien het hele universum bereiken, dat wil zeggen protonen, fotonen, en andere elementaire deeltjes, die volgens Seth Lloyd 1090 bits vertegenwoordigen, zonder beperkt te worden door de snelheid van het licht.
Als de snelheid van het licht geen probleem vormt, en ik wijs erop dat dit op dit moment speculatie blijft, dan zullen we binnen 300 jaar het ganse universum verzadigen met intelligentie en het gehele universum zou dan ontwaken tot een extreme mate van intelligentie en totaal manipuleerbaar zijn. We vermeerderen onze computatieve vermogens met een factor van per decennium. Dit is een conservatieve schatting, aangezien de mate van versnelling ook nog eens versnelt (dubbel exponentiële groei). Het is dus conservatief om te stellen dat binnen 30 decennia (300) jaar, we onze huidige computatieve vermogens met een factor van 1090 zouden vermeerderd hebben. Dan zouden we de schatting van Seth Lloyd - er zijn 1090 bits in dit universum - overtroffen hebben.
Kurzweil breidt deze thema's verder uit in zijn boeken zoals The age of spiritual machines (2000)[8] en The singularity is near (2005).[9] Zijn voorspellingen verschillen van die van Vinge in zoverre dat Kurzweil een veel geleidelijkere overgang naar de singulariteit voor de volledige mensheid voorziet, terwijl Vinge snelle zichzelf verbeterende bovenmenselijke intelligentie vooropstelt. Dit verschil wordt dikwijls gedefinieerd als de zachte en harde singulariteit.
Sommigen beschouwen de singulariteit als een logisch gevolg van de evolutie van de maatschappij. Veel sociologen en antropologen hebben sociale theorieën geconstrueerd die sociale en culturele evolutie behandelen. Enkelen, zoals Lewis H. Morgan, Leslie White, Gerard Lenski en Ester Boserup, beschouwen technologische vooruitgang als de primaire drijfveer van de zich ontwikkelende menselijke beschaving.
Morgan stelt drie grote fasen voorop in de sociale evolutie, savagery, barbarism en civilisation. Die fasen worden onderscheiden aan de hand van technologische mijlpalen zoals:
In plaats van specifieke uitvindingen nam White energie als maatstaf om de evolutie van beschavingen te bepalen. Voor White is het bekomen en controleren van energie de voornaamste functie van cultuur. White onderscheidt vijf fasen in de ontwikkeling van de menselijke beschaving:
White introduceerde de formule P = E x T, waarbij E een maatstaf van de geconsumeerde energie is en T een maat is voor de efficiëntie van technische factoren bij het gebruik van energie. In zijn eigen woorden cultuur evolueert als de hoeveelheid opgewekte energie per capita per jaar vermeerdert, of als de efficiëntie van de instrumentele middelen om energie aan te wenden vermeerdert.
De Russische astronoom Nikolaj Kardasjev extrapoleerde deze theorie om de Kardasjevschaal op te stellen, die het energieverbruik van geavanceerde beschavingen categoriseert. In haar grondvorm heeft de schaal drie categorieën, waarin beschavingen op basis van hun energieproductie ingedeeld worden:
De menselijke beschaving bevindt zich nog ergens onder type I, aangezien we slechts een deel van de beschikbare energie op de Aarde weten te gebruiken. Deze status heet onofficieel Type 0. Een Dysonbol is type II op deze schaal en de mensheid is op dit moment ongeveer op niveau 0,7 beland.
Gerhard Lenski gebruikt een moderne aanpak en focust op informatie. Hoe meer informatie en kennis (vooral als die toelaat de natuurlijke omgeving te manipuleren) een bepaalde maatschappij heeft, hoe geavanceerder ze is. Hij identificeert vier fasen in de ontwikkeling van beschavingen, gebaseerd op mijlpalen in de geschiedenis van de communicatie.
Vooruitgang op het vlak van communicatie vertaalt zich in vooruitgang van de economie en politiek, distributie van goederen, sociale ongelijkheid en tal van andere sferen van menselijk samenleven. Hij onderscheidt maatschappijen ook op hun niveau van technologische ontwikkeling, communicatie en economie;
Ten slotte zijn er de sociologen en antropologen zoals Alvin Toffler (auteur van Future shock), Daniel Bell en John Nashbitt die theorieën over postindustriële samenlevingen opgesteld hebben. Ze argumenteren dat het huidige tijdperk van de industriële samenlevingen zijn einde nadert en dat diensten en informatie belangrijker geworden zijn dan industrie en goederen. Sommige meer extreme visies op postindustriële samenlevingen, vooral in fictie dan, lijken veel op postsingulariteit samenlevingen.
Sceptici geven verschillende (mogelijk zelfs dodelijke) gevaren voor de mensheid aan:
Sommige mensen beweren dat geavanceerde technologieën te gevaarlijk zijn voor de mens, zodat ze eigenlijk moreel gezien verboden zouden moeten zijn. Er wordt gevreesd voor een technologische utopie. Veel anderen zijn tegen de singulariteit zonder echter tegen moderne technologie als zodanig te zijn zoals de neoluddieten. Gevaarlijke technieken die dikwijls aangehaald worden zijn moleculaire nanotechnologie en genetische manipulatie. In een vergevorderd stadium kunnen deze technologieën mogelijk een superintelligentie voortbrengen maar voor het zover is kunnen hiermee bijvoorbeeld ook levensgevaarlijke nieuwe virussen geschapen worden waartegen geen kruid gewassen is. Deze dreigingen zijn belangrijke onderwerpen, zowel voor singulariteitsvoorstanders als voor singulariteitscritici, en waren het onderwerp van een artikel door Bill Joy gepubliceerd in Wired magazine, getiteld 'Why the future doesn't need us'.[10] Oxford University filosoof Nick Bostrom vatte de gevaren van de singulariteit voor het overleven van de mensheid samen in zijn essay 'Existential risks'.[11]
Veel singularitarianen beschouwen nanotechnologie als een van de belangrijkste existentiële risico's voor de mensheid. Daarom geloven de meesten dat nanotechnologie zou moeten worden voorafgegaan door Seed-AI (een soort basis artificiële intelligentie) en dat een pre-singulariteit maatschappij dus geen nanotechnologie zou mogen bezitten. Anderen, zoals het Foresight Institute, stimuleren juist initiatieven om moleculaire nanotechnologie te creëren, omdat ze geloven dat nanotechnologie ook veilig gemaakt kan worden voor pre-singulariteit gebruik of zelfs dat nanotechnologie de komst van een gunstige singulariteit kan versnellen.
Sommige denkers vermoeden dat bovenmenselijke intelligenties andere prioriteiten zullen stellen dan de mensheid. Omdat per definitie 'gewone' intelligente mensen de superintelligenties niet meer kunnen volgen en deze ook nog eens steeds sneller intelligenter worden zal het deze entiteiten geen enkele moeite kosten om alle mogelijke tegenstand te voorzien en op voorhand uit te schakelen. Hoewel sommigen tegenwerpen dat met hoge intelligentie ook automatisch hoge morele waarden samengaan zijn er anderen die dit automatisme ontkennen. Vaak wijzen ze op de nazi's die zich bij het in praktijk brengen van hun racistische en totalitaire ideologie niet lieten leiden door enig moreel principe. Ondanks dit onweerlegbare feit verleenden veel hoogintelligente mensen zoals geleerden, artsen en ingenieurs vrijwillig hun medewerking aan het regime, zeker in de jaren 1930 en het begin van de oorlog toen ze nog succesvol leken. Blijkbaar hadden deze, toch als bovengemiddeld intelligent aan te merken mensen, geen morele bezwaren tegen de nazi's en hun ideologie. AI-researcher Hugo de Garis veronderstelt daarom, wijzend op onder andere dit historisch voorbeeld, dat bovenmenselijke intelligenties de mensheid gewoon gaan elimineren en dat de mensheid hen niet kan stoppen.
Voorstanders van vriendelijke artificiële intelligentie zien ook in dat de singulariteit weleens grote gevaren voor de mensheid met zich zou kunnen meebrengen, en juist om deze reden zetten zij zich in om de singulariteit veiliger te maken door AI te creëren die welwillend tegenover de mensen zal zijn. Dit idee is ook vervat in de drie wetten van de robotica van Isaac Asimov, bedoeld om een artificieel intelligente robot te verhinderen mensen kwaad te doen, hoewel de plot van Asimovs verhalen dikwijls net het falen van zijn wetten behelst. Een instituut in de VS dat zich bezighoudt met het veiliger maken van een mogelijke AI is het Machine Intelligence Research Institute (MIRI)[12] opgericht door singulariteitsenthousiast Eliezer Yudkowski en gesteund door onder anderen Ray Kurzweil.
De oorspronkelijke Luddieten vochten tegen de mechanisatie van de eerste industriële revolutie (Engeland vanaf 1750) uit vrees dat de tewerkstelling zou afnemen en sommige tegenstanders van de singulariteit beweren hetzelfde. Alhoewel de vrees van de Luddieten niet werd gerealiseerd, gezien de groei van de tewerkstelling na de industriële revolutie (landbouwers vonden nieuw werk als fabrieksarbeiders, technici, kantoorwerkers en bedienden), toch was er inderdaad een vermindering van bepaalde vormen van tewerkstelling: een dramatische vermindering in de tewerkstelling van kinderen en ouderen wat moreel gezien een goede zaak was. De stelling van onder anderen Henry Hazlitt is dan ook dat enkel gewenste tewerkstelling in acht genomen zou moeten worden bij het voorkomen van werkloosheid van de massa. Een postsingulariteitsmaatschappij zal veel rijker zijn dan een presingulariteitsmaatschappij (dankzij een verbeterde manipulatie van materie en energie om tegemoet te komen aan de menselijke noden) waarbij genoeg overblijft om eventuele werklozen te onderhouden. Een mogelijk scenario voor de singulariteit is een verhoging van per capita inkomen en een verlaging van de tewerkstelling waarbij iedereen zonder werk een soort basisinkomen wordt gegarandeerd. Maar voor de invoering van een basisinkomen moet er wel genoeg draagvlak zijn hiervoor onder de machthebbers en bij de financiële elite en grote bedrijven wereld. Vooralsnog zijn de tekenen daarvoor niet gunstig omdat het neoliberalisme nog hoogtij viert in het politieke en economische denken waarbij zoveel mogelijk aan de vrije markt wordt overgelaten. Degenen die niet mee kunnen komen, zoals zieken, gehandicapten, werklozen en bejaarden, worden daarbij vaak aan hun lot overgelaten. Zo ontstaat er geleidelijk een tweedeling in de maatschappij: een steeds rijkere elite en een groeiende, steeds meer verpauperende onderlaag.
Theodore Kaczynski, een heftige tegenstander van de singulariteit en een neo-luddiet, werd berucht als de Unabomber. Hij schrijft, zoals andere sceptici, dat een superintelligente entiteit de mensheid onherroepelijk zal uitroeien of anders zal gebruiken als willoos werktuig voor zijn ondoorgrondelijke doeleinden. Anderzijds argumenteert Kaczynski, als AI niet gecreëerd wordt, zal supergeavanceerde technologie een opperklasse toelaten die niet meer te bestrijden valt wegens hun bovenmenselijke intelligentie. Deze opperklasse zal oorspronkelijk bestaan uit de huidige economische en politieke top van de mensheid (the mighty, rich and famous) die exclusief toegang heeft tot de eerste technologische middelen om het lichaam voor onbepaalde tijd biologisch gezond te houden en tot het uitbreiden van de intelligentie. Daarmee krijgen ze de middelen in handen die de grote massa eveneens zal uitschakelen. De mensen zullen door de machthebbers gereduceerd zijn tot de status van tamme dieren na voldoende technologische vooruitgang om dissidenten voor onbepaalde tijd onder absolute controle te houden. Zowel Bill Joy als Ray Kurzweil citeren Kaczynski in hun werk.
John Zerzan en Derrick Jensen vertegenwoordigen samen met Kaczynski de anarcho-primitieve school ook wel eco-anarchisme genaamd. Zij beschouwen de singulariteit als een orgie van machinecontrole, en een verlies voor het wilde en onvoorwaardelijk vrije bestaan buiten het domein van de beschavingen. Milieugroeperingen zoals Earth liberation en Earth First! zien de singulariteit als een gegeven dat kost wat kost vermeden moet worden. James John Bell heeft artikelen geschreven voor Earth First! en voor andere publicaties, waarin hij waarschuwt voor de singulariteit. Hij schreef ook Essays zoals 'Exploring the singularity' en 'technotopia and the death of nature: clones, supercomputers and robots'. Green Anarchy is een publicatie waar Kaczynski en Zerzan regelmatig in publiceren en waarin regelmatig tegen de singulariteit wordt geschreven. Voorbeeld 'Singular Rapture', geschreven door MOSH, dit verwijst naar Kurzweils M.O.S.H., voor Mostly Original Substrate Human.
Er zijn verschillende kritieken op het toekomstbeeld dat de singulariteitsaanhangers schetsen.
De singulariteit-toekomstvisie doet enkele twijfelachtige aannames rondom haar belangrijkste argument, de Wet van Moore:
Door de wet van Moore impliciet als natuurwet aan te wijzen worden sociale aspecten van innovatieprocessen genegeerd:
Het singulariteitsdenken vertoont weinig kritische reflectie op de retorische patronen in haar gedachtegoed. De voorspellingen zijn voorspelbaar:
"The real danger, then, is not machines that are more intelligent than we are usurping our role as captains of our destinies. The real danger is basically clueless machines being ceded authority far beyond their competence." - Daniel Dennett[27]
Een van de eerste referenties aan de technologische singulariteit komt voor in het kortverhaal Answer, geschreven door sciencefictionschrijver Frederic Brown in 1954.
Fictieve beschrijvingen van de singulariteit vallen gewoonlijk in een van deze vier categorieën:
Als aanvulling bij de verhalen van Vinge hebben nog verschillende andere sciencefictionschrijvers verhalen gepubliceerd met de singulariteit als centraal thema. De meest bekende zijn William Gibson, Charles Stross, Karl Schroeder, Greg Egan, Greg Bear, Iain M. Banks, Neal Stephenson, Bruce Sterling, Damien Broderick en Jacek Dukaj. Ken Mac Leod beschreef de singulariteit als extase voor nerds in zijn novelle uit 1998 The Cassini Division. Het singulariteitsthema komt veel voor in cyberpunknovellen. Een van de bekendste voorbeelden is de zichzelf verbeterende AI Neuromancer in de gelijknamige novelle van William Gibson. Sommige oudere sciencefictionboeken zoals Childhood's End van Arthur Clarke, Isaac Asimovs The Last Question en The Last Evolution van W. Campbell beschrijven al zoiets als de technologische singulariteit. Een novelle gepubliceerd op Kuro5hin in 1994 genoemd the metamorphosis of prime intellect beeldt het leven uit na een singulariteit, op gang gebracht door AI. Somberder is het klassieke kortverhaal van Harlan Ellison I have no mouth and I must scream waarin een superintelligente computer de mensheid uitroeit op een handjevol na om deze eeuwig in leven te houden en te kwellen als wraak voor zijn als zinloos ervaren bestaan.
Het online sciencefiction wereldbouwend project Orion's Arm handelt ook over de singulariteit, net zoals sommige videospelletjes zoals TimeSplitters: Future perfect, waar de speler samen met mensen vecht tegen de robots in het jaar 2243. Halo en Deus Ex handelen ook over het singulariteitsthema, Het computerspel Sid Meier's Alpha Centauri handelt ook over een soort singulariteit met een 'Opstijgen tot transcendentie'.
Het eerste voorbeeld van een door AI gegenereerde singulariteit is in de film Colossus: The Forbin Project uit 1969. In de film bereikt een supercomputer van het Amerikaanse ministerie van Defensie zelfbewustzijn door middel van een steeds complexer wordend algoritme. zodra Colossus een staat van zelfbewustzijn bereikt heeft, maakt hij een verbinding met zijn Sovjettegenhanger Guardian. Samen verplichten ze de mensheid tot vreedzame co-existentie.
The Matrix speelt zich af in een postsingulariteitswereld waarin AI de mensen domineert en onderwerpt voor eigen doeleinden. In The Terminator bereikt de AI Skynet zelfbewustzijn en lanceert kernkoppen om de mensheid te vernietigen. In de film Ex Machina ontsnapt zelfbewuste AI-robot Ava via een list aan de upgrade naar versie singularity van zichzelf.
Ook het tekenfilmgenre exploreerde al het singulariteitsthema zoals Vinge en Kurzweil het voorstellen in hun geschriften. Ghost in the Shell speelt zich af in een wereld waarin wetware (menselijk bewustzijn) de overhand heeft en machine bewustzijn begint te ontwikkelen. Een andere anime is Serial Experiments: Lain en behandelt het thema van downloaden van bewustzijn.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.