Risque de catastrophe planétaire lié à l'intelligence artificielle générale
hypothèse selon laquelle les progrès en IA pourraient causer l'extinction humaine ou un sort comparable / De Wikipedia, l'encyclopédie encyclopedia
La notion de risque existentiel ou risque de catastrophe planétaire lié à l'intelligence artificielle générale désigne le risque d'extinction humaine ou autre catastrophe mondiale irréversible hypothétiquement associé à des progrès substantiels ou incontrôlés dans l'intelligence artificielle générale (IAG)[1],[2],[3],[4].
Un argument avancé en faveur de la réalité de ce risque est que l'espèce humaine domine actuellement les autres espèces parce que son cerveau a certaines capacités que les autres animaux n'ont pas. Si l'IA dépasse l'humanité en matière d'intelligence générale et devient « superintelligente », elle pourrait devenir difficile voire impossible à contrôler par les humains. Tout comme le sort du gorille dépend aujourd'hui de la bonne volonté des humains, le sort de l'humanité pourrait dépendre des actions d'une future superintelligence artificielle[5].
La plausibilité de risque est débattue ; elle dépend de la capacité de l'intelligence artificielle générale et d'une superintelligence à émerger, et de la vitesse à laquelle elle développerait des aptitudes dangereuses[6], et des potentiels scénarios concrets de prise de contrôle[7]. D'éminents chercheurs et chefs d'entreprises comme Geoffrey Hinton[8], Alan Turing[9], Sam Altman[10], Stephen Hawking[11], Bill Gates[12] ou Elon Musk[13] ont alerté sur ce risque. Selon une étude réalisée en 2022 avec un taux de réponses de 17%, environ la moitié des chercheurs en IA estiment à 10 % ou plus le risque qu'un échec à contrôler l'intelligence artificielle cause une catastrophe existentielle comme l'extinction humaine[14],[15]. En 2023, des centaines d'experts en IA et autres figures notables ont signé une déclaration affirmant que « l'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. »[16]. Suivant ces préoccupations grandissantes, des dirigeants comme le premier ministre du Royaume-Uni Rishi Sunak[17] et le secrétaire général des Nations Unies António Guterres[18] ont appelé à amplifier l'effort de réglementation de l'IA à l'échelle mondiale.
Contrôler une superintelligence ou lui inculquer des valeurs compatibles avec l'homme (alignement des intelligences artificielles) peut s'avérer plus difficile qu'on ne le supposerait naïvement. De nombreux chercheurs pensent qu'une superintelligence résisterait aux tentatives faites pour l'éteindre ou pour modifier ses objectifs (car cela l'empêcherait d'atteindre ses objectifs actuels) et qu'il sera extrêmement difficile d'aligner la superintelligence sur l'ensemble des valeurs humaines et contraintes importantes[2],[19],[20]. Des sceptiques tels que Yann Le Cun affirment au contraire que les superintelligences artificielles n'auront aucun désir d'auto-préservation[21].
Une autre source d'inquiétude vient du risque qu'une soudaine « explosion d'intelligence » prenne l'humanité au dépourvu. De tels scénarios considèrent que si une IA avait la capacité de s'auto-améliorer récursivement, elle pourrait relativement vite atteindre la superintelligence[2],[19]. Empiriquement, des exemples comme AlphaZero au jeu de Go montrent que les systèmes d'IA peuvent parfois passer en peu de temps d'un niveau à peu près humain à un niveau largement surhumain[22].