Remove ads
période hypothétique d'extrêmes changements De Wikipédia, l'encyclopédie libre
La singularité technologique (ou plus simplement Singularité) est l'hypothèse selon laquelle l'invention de l'intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine[1].
Au-delà de ce point, le progrès ne serait plus l’œuvre que de systèmes d’intelligence artificielle qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement dans une « explosion d'intelligence », débouchant sur une puissante superintelligence qui dépasserait qualitativement de loin l'intelligence humaine[1],[2],[3].
Le risque serait que l'humanité perde le contrôle de son destin[4]. L'auteur de science-fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l'ère humaine[3], la nouvelle superintelligence continuant de s'améliorer et d'évoluer technologiquement à une vitesse incompréhensible pour les humains[5].
Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 1950[6] et ses conséquences ont été débattues dans les années 1960 par I. J. Good. Selon Raymond Kurzweil[7], cofondateur de la Singularity University[8],[3], la singularité deviendrait réalité approximativement en 2045.
La possibilité et la date de survenue de cet évènement hypothétique fait toutefois l'objet de débats entre scientifiques. Plusieurs futurologues et transhumanistes l’attendent pour la troisième décennie du XXIe siècle[9],[3].
L'idée de présenter l'évolution exponentielle de la technologie remonte au moins à 1932, avec John B. Sparks et son « histocarte de l’évolution ». Vers la même époque, cette idée a été critiquée par le cybernéticien Heinz von Foerster (secrétaire des conférences Macy auxquelles a participé John von Neumann, entre autres)[10], en soutenant que les souvenirs s'estompent naturellement d'une manière exponentielle.
Même si le concept de singularité ne s’est développé qu'au cours des deux dernières décennies du XXe siècle, l’origine du terme remonte en fait aux années 1950 :
« L’une des conversations avait pour sujet l’accélération constante du progrès technologique et des changements du mode de vie humain, qui semble nous rapprocher d’une singularité fondamentale de l’histoire de l’évolution de l’espèce, au-delà de laquelle l’activité humaine, telle que nous la connaissons, ne pourrait se poursuivre. »
— Stanislaw Ulam, mai 1958, au sujet d’une conversation avec John von Neumann
Dans sa conférence du , « Psychanalyse et cybernétique ou de la nature du langage », Jacques Lacan relève, à son époque, un bougé des lignes du côté de la science, frémissement qu’il perçoit ainsi : « quelque chose est passé dans le réel, et nous sommes à nous demander — peut-être pas très longtemps, mais des esprits non négligeables le font — si nous avons une machine qui pense. » (cette citation fut à plusieurs reprises extraite de son contexte et attribuée à tort à John von Neumann lui-même).
En 1965, Irving John Good décrit un concept de singularité plus proche de son acception actuelle, dans le sens où il inclut l’arrivée d’intelligences artificielles générées par une première amorçant le phénomène[11].
Le terme de singularité ne désigne pas une croissance devenant infinie à l'instar d'une singularité mathématique, mais représente le fait que les modèles prédictifs existants ne sont plus appropriés à sa proximité, de la même façon que les modèles physiques actuels ne sont plus adaptés au voisinage d’une singularité de l'espace-temps.
Le concept de « singularité technologique » fut repopularisé en partie grâce au mathématicien et auteur Vernor Vinge[12]. Vinge a commencé à parler de la singularité dans les années 1980 et a formulé ses idées dans son premier article sur le sujet en 1993 : l’essai Technological Singularity[13]. Il y postule que, d’ici trente ans, l’humanité aurait les moyens de créer une intelligence surhumaine mettant un terme à l’ère humaine[3]. Depuis, la singularité a été le sujet de nombreuses nouvelles et essais futuristes.
Vinge écrit que des intelligences surhumaines, créées par des humains aux capacités augmentées cybernétiquement ou par d'autres intelligences artificielles moins développées, seraient capables d’améliorer leurs propres capacités plus efficacement que les esprits humains les ayant conçues. Ainsi, une spirale de progrès de plus en plus rapide amènerait à des progrès technologiques très importants en une courte période de temps.
La singularité peut être vue comme la fin des civilisations humaines actuelles et le début d’une nouvelle organisation. Dans son œuvre, Vinge s’interroge sur les raisons de cette fin et conclut que les humains pourraient s'organiser pendant la Singularité en une forme supérieure d’intelligence[3]. Après la création de cette intelligence « surhumaine », les humains seraient, d’après Vinge, des formes de vie ayant une moindre influence sur le développement du monde, plutôt membres participants à un système que « pilotes dans l'avion ».
Le terme « explosion d'intelligence » a été mentionné dès 1965 par Irving John Good[11] :
« Mettons qu’une machine supra-intelligente soit définie comme une machine capable de largement surpasser l'humain, aussi brillant soit-il, dans toutes les tâches intellectuelles. Comme la conception de telles machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans conteste une « explosion d’intelligence », et l’intelligence humaine serait très vite dépassée. Ainsi, l’invention de la première machine supra-intelligente est la dernière invention que l’Homme ait besoin de réaliser. »
Selon Jeff Hawkins en 2008[14] :
« Le terme Singularité appliqué à des machines intelligentes se réfère à l'idée que lorsque des machines intelligentes pourront concevoir des machines intelligentes, plus intelligentes qu'elles, cela provoquera une croissance exponentielle de l'intelligence des machines conduisant à une singularité de l'intelligence à l'infini (ou du moins immense). La croyance en cette idée se fonde sur une conception naïve de ce qu'est l'intelligence. Par analogie, imaginez que nous ayons un ordinateur qui pourrait concevoir de nouveaux ordinateurs (puces, systèmes et logiciels) plus rapides que lui-même. Est ce qu'un tel ordinateur produirait infiniment des ordinateurs ou même des ordinateurs plus rapides que ce que les humains pourraient construire d'eux-mêmes ? Non, cela pourrait accélérer le rythme des améliorations pour un certain temps, mais à la fin il y a des limites de taille et de vitesse. Nous arriverions au même résultat, nous aurions tout simplement été un peu plus rapides en prenant des risques. Et il n'y aurait eu aucune singularité. »
En 1964, Irving John Good a prédit qu'il y avait plus d'une chance sur deux pour qu'une machine ultra-intelligente soit créée au 20e siècle[15]. Vernor Vinge a écrit en 1993 qu'il serait surpris si des intelligences supérieures à l'humain n'étaient pas créées entre 2005 et 2030[16]. Ray Kurzweil a prédit en 2005 une IA de niveau humain vers 2029[17], et la singularité en 2045[18]. Il a réaffirmé ces prédictions en 2024[19],[20]. Hans Moravec a prédit en 1988 que si les progrès continuent à la même vitesse, les capacités de calcul nécessaires pour l'IA de niveau humain seraient accessibles dans les superordinateurs en 2010[21]. En 1998, il a prédit l'IA de niveau humain d'ici 2040, et dépassant grandement l'humain d'ici 2050[22].
Raymond Kurzweil, un futuriste et inventeur (il a notamment inventé différents modèles de synthétiseurs), a proposé des théories étendant la loi de Moore à des formes de calcul autres qu’informatiques[3], qui suggèrent que les phases de croissance exponentielle du progrès technologique feraient partie de motifs visibles à travers toute l’histoire humaine et même avant, dès l’apparition de la vie sur Terre, en prenant en compte sa complexification biologique. D’après Kurzweil, ce motif aboutit au XXIe siècle à un progrès technologique inimaginable, ce qui ne veut pas dire infini.
Pour se représenter de manière abordable l'accélération de la vitesse, la vitesse étant le progrès, ce serait identique à un changement de vitesse sur une voiture ou un vélo : ce qui correspond à changer pour un rapport de couple supérieur permettant d'atteindre une vitesse supérieure, ce qui équivaut à plus de progrès pour une même valeur temporelle[réf. nécessaire].
La vitesse des flux, la vitesse d'apprentissage dans une société sont des composantes pouvant définir des limites systémiques dans la société[réf. nécessaire].
La question sera donc de savoir si toute l'humanité voudra changer de vitesse, ce qui pourrait par conséquent redéfinir la notion d'humanité, ou s’il y aura une humanité qui préférera rester à sa vitesse, ou peut être que l'avènement de la singularité se passera « trop vite » et personne ne pourra réagir : en prendre conscience avec un temps de réaction et d'observation à la vitesse humaine, puis la réaction politique, et législative[réf. nécessaire].
La définition de la singularité technologique serait alors : un progrès technologique si rapide que cela dépasse la capacité des humains à la contrôler ou à la prédire, à la comprendre et à réagir à temps[23]. Quelles sont les conséquences à long terme de la révolution industrielle pour l'humanité ? Et n'est-ce pas déjà une forme de singularité ?
Les questions d'ordre philosophique surgissent : l'« humain » est-il dépassé, et y a-t-il un mal à accepter ses limites naturelles[3] ? Y a-t-il un mal à vouloir s'améliorer ? Peut-on raisonnablement refuser le téléphone portable, dans notre société, et quelles en sont les conséquences ? Vous pouvez remplacer pour l'exemple l'outil téléphone portable par tout autre gadget à se greffer en permanence pour augmenter les capacités humaines. Slavoj Žižek pointe ce manque de réflexion de la société, et le manque d'attention voire de capacité et de temps pour la population, pour analyser et comprendre des grands problèmes philosophiques qui s'annoncent : OGM, manipulation génétique, cure génétique, intelligence artificielle, etc.[24]
La loi de Moore est l'observation selon laquelle le nombre de transistors sur les circuits intégrés double tous les deux ans. Elle permet en particulier de prédire l'évolution des capacités de mémoire. Elle s'est avérée correcte pendant des décennies, mais cette croissance semble s'être finalement ralentie, du fait des limites physiques de la miniaturisation[26],[27].
L'intelligence artificielle moderne repose cependant beaucoup sur les cartes graphiques, dont les capacités semblent croître à un rythme exponentiel. Similairement à la loi de Moore, la « loi de Huang » prédit que les capacités des cartes graphiques vont plus que doubler tous les deux ans[28]. Une étude estime, elle, que les performances des cartes graphiques doublent tous les 2,5 ans[29].
L'informatique quantique pourrait accélérer drastiquement certains types de calcul, mais n'a pas la même polyvalence que les ordinateurs classiques[30].
Les capacités de calcul pourraient aussi être améliorées en créant des puces en 3 dimensions, qui empilent verticalement plusieurs couches de transistors[31].
Le futuriste Jamais Cascio estime en 2007 qu'il est important que la singularité se base sur des valeurs de démocratie, d'ouverture, de transparence et de libre accès[32].
D’après l’idéologie transhumaniste, dont l’entrepreneur et directeur de l’ingénierie de Google Ray Kurzweil est le principal théoricien, la singularité technologique ressemble à une promesse eschatologique qui prédit une transformation profonde et radicale des sociétés humaines grâce au développement surprenant de l’intelligence artificielle (IA). Les dynamiques vertigineuses des IA associées aux progrès dans les champs des nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) conduiront probablement selon les transhumanistes à la fusion de l’homme avec la machine, à l’union du biologique avec la technologie, ce dont les effets pratiques seront de résoudre les problèmes humains les plus complexes (moraux, culturels, économiques, politiques, etc.) et même d’éradiquer la mort. La fusion effective de l’homme avec l’intelligence artificielle annoncerait la naissance d’une nouvelle humanité qui bénéficierait des capacités analytiques d’un superordinateur et qui serait débarrassée des inconvénients du corps biologique[33].
Des auteurs, sans critiquer directement la notion de singularité, remettent en question l'idée d'accélération technologique.
Le concept de singularité ne tient pas compte des besoins et des ressources disponibles en énergie. Soit il postule des ressources infinies, soit il estime sans le démontrer que les besoins ne changeront que peu. Accessoirement, il ne tient pas compte de la limite quantique à laquelle la miniaturisation des composants électroniques se heurtera nécessairement un jour, ni de perturbations négligeables aux échelles actuelles et qui ne le resteront pas forcément à d'autres échelles (particules alpha, etc.) ; à moins que l'ordinateur quantique ne prenne le relais des composants traditionnels...
Les hypothèses relatives à la Singularité sont régulièrement critiquées pour leur manque de solidité scientifique. Theodore Modis rappelle par exemple[34] qu'une courbe exponentielle ne débouche sur aucune singularité, mais continue à croître à l'infini.
Jonathan Huebner écrit en conclusion de son article que « la preuve avancée indique que le rythme de l'innovation a atteint un pic il y a environ un siècle et est maintenant en déclin. Ce déclin est le plus probablement dû à une limite économique de la technologie ou à une limite du cerveau humain que nous approchons. Nous avons déjà parcouru 85 % du chemin qui nous sépare de cette limite, et le rythme du développement technologique diminuera à chaque année écoulée. »[35],[36]. De telles analyses se retrouvent également chez Bob Seidensticker[37] ou chez David Bodanis[38].
Il existe bien des limites politiques, économiques, militaires (et stratégiques), des limites en ressources, et surtout la connaissance et les découvertes technologiques ont également leurs limites. Comme le conçoit également Ray Kurzweil.
Plusieurs auteurs sont très critiques à l'endroit de la notion de singularité, notamment telle que développée par Ray Kurzweil. Theodore Modis écrit ainsi : « Ce que je veux dire est que Kurzweil et les singularistes sont impliqués dans une sorte de para-science, qui diffère des vraies sciences en termes de méthodologie et de rigueur. Ils ont tendance à négliger les pratiques scientifiques rigoureuses telles que se concentrer sur les lois naturelles, donner des définitions précises, vérifier les données méticuleusement, et estimer les incertitudes. […] Kurzweil et les singularistes sont plus des croyants que des scientifiques. »[39],[34].
De son côté, Ted Gordon met également en doute les thèses de Kurzweil : « Kurzweil avance un argument frappant au sujet de l'accélération du changement. Il utilise de nombreuses courbes de croissance exponentielles, principalement concernant l'électronique, les nano-technologies et les ordinateurs, mais en incluant Internet et la biologie. Il montre une croissance similaire avec le PIB américain et le PIB par habitant. Il utilise également comme source majeure le travail de Modis sur le raccourcissement du temps entre les changements de paradigme. Il argumente en faveur de l'accélération du taux passé d'accélération et par conséquent de l'inévitabilité de la continuation de cet élan. Cependant, l'extrapolation sous toutes ses formes est dangereuse et condamnée en fin de compte à être fausse. »[40],[34].
Drew McDermott, sans être aussi sévère, s'inquiète des conséquences de ce genre de littérature pour les recherches en Intelligence Artificielle : « Bien que je ne pense pas que Kurzweil ait prouvé son affirmation à propos de l'IA (et je n'ai rien à dire à propos de ses arguments concernant la génétique, les nano-technologies, la politique ou l'écologie), il pourrait voir juste. Mais juste ou faux, j'aimerais qu'il arrête d'écrire de tels livres ! Le domaine de l'IA est régulièrement empesté de lubies qui semblent surgir à la moindre perturbation »[41],[42].
Plus simplement, on peut se rappeler que les singularités prévues en histoire de la physique (effondrement de l'atome de Bohr, catastrophe de l'ultraviolet…) n'ont jamais été observées, mais ont conduit plus simplement à un changement de modèle à leur voisinage.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.