Inteligencia artificial que es igual o mayor que la inteligencia humana De Wikipedia, la enciclopedia libre
La inteligencia artificial general (IAG, en inglés AGI), también llamada inteligencia general artificial e inteligencia artificial fuerte,[2]es un tipo hipotético de inteligencia artificial que iguala o excede la inteligencia humana promedio.[3] Si se hiciera realidad, una IAG sería capaz de realizar cualquier tarea intelectual que los seres humanos o los animales puedan llevar a cabo.[4][5] La IAG también se ha definido como un sistema autónomo que supera las capacidades humanas en la mayoría de las tareas económicamente valiosas.[6] La creación de la IAG es un objetivo primordial de algunas investigaciones sobre inteligencia artificial y de empresas como OpenAI[7], DeepMind y Anthropic. La IAG es un tema habitual en la ciencia ficción y en los estudios sobre el futuro.
Los plazos para el desarrollo de la inteligencia artificial siguen siendo objeto de debate entre investigadores y expertos. Algunos sostienen que podría realizarse en años o décadas; otros, que podría tardar un siglo o más; y una minoría cree que quizá nunca se consiga.[8]Existe un debate sobre la definición exacta de IAG y sobre si los modelos de lenguaje grandes modernos, como GPT-4, son formas tempranas pero incompletas de IAG.[9]
Hay una amplia discusión sobre la posibilidad de que la IAG suponga una amenaza para la humanidad.[3] Por ejemplo, OpenAI la considera un riesgo existencial, mientras que otros creen que el desarrollo de la inteligencia artificial es demasiado remoto como para suponer un riesgo.[10][8][11]
Una encuesta realizada en 2020 identificó 72 proyectos activos de investigación y desarrollo en IAG distribuidos por 37 países.[12]
Una cuestión importante es que el surgimiento y la aplicación de este tipo de inteligencia artificial supondría nuevos problemas como las incógnitas sobre la posición que deberíamos tomar como seres humanos ante un ser que por su nueva inteligencia podría no considerarse solamente como una máquina más.
Otra incógnita es si esta podría alcanzar un grado tal donde llegue a tener conciencia, es decir una conciencia emergente a partir de las interacciones que se produzcan dentro de su sistema complejo que da origen a su inteligencia.
La intención básica del sector de la IAG consiste en implementar la inteligencia general (término acuñado por el psicólogo Charles Spearman) en un sistema computacional. Pei Wang y Ben Goertzel consideran que la diferencia clave entre los conceptos IAG e IA se halla en la “finalidad y alcance de la investigación.”[13] Esto quiere decir que la inteligencia artificial trata propiedades específicas en sus proyectos, como por ejemplo la capacidad de aprendizaje lingüístico o reconocimiento de imágenes, sin pretender integrarlas en un sistema más amplio. La IAG, en cambio, se refiere a emprendimientos cuya ambición cubre la entera complejidad de la inteligencia humana.
Es una fuente común de confusiones el hecho de que el significado original de IA se asemeja más a la actual IAG que a aquello que hoy en día se entiende, científicamente, como IA. Las habituales equivocaciones producidas entre ambos términos se deben a que, originariamente, IA designó el sueño de moda de la época (mediados del sigloXX): la conciencia artificial. En aquel momento parecía un campo de investigación prometedor pero, al devenir aparente la desproporción de las expectativas situadas sobre el sector —y la realidad de que, aunque fuera posible alcanzar la conciencia artificial, esta meta sería mucho más lejana de lo anticipado— la decadencia en el estudio de aquello que se conocía con el nombre de IA fue notable.
Posteriormente al fracaso de esa generación pionera de investigadores, aquellos que permanecieron en general trasladaron su trabajo a otras materias más asumibles (sobre todo aspectos particulares de la inteligencia), y no volvieron a acercarse al reto de la conciencia artificial. Así pues, la expresión IA cobró un nuevo significado y un extenso ámbito de investigación científica fue desprestigiado durante décadas.[14]
Nada garantiza que el desarrollo de una IAG implique el surgimiento de la conciencia artificial o que se genere una conciencia emergente, pero esta tiende a ser considerada como la posibilidad más plausible. La razón porque se cree que la existencia de uno de estos conceptos probablemente lleve al otro deriva de como de intrínsecamente entrelazadas se encuentran la conciencia y la inteligencia general en los seres vivos. Peter Voss, profesional del campo de la IAG, justifica la coincidencia fundamental de las cualidades necesarias para el desarrollo tanto de un sistema de IAG como de una conciencia artificial afirmando que las personas poseen "autoconciencia conceptual" (conceptos abstractos del yo físico y mental), característica que resultaría imprescindible en la IAG, ya que esta tendría que "poder conceptualizar qué acciones ha tomado, [...] de qué acciones es [...] capaz, y cuáles son sus efectos más probables".[15]
Goertzel, Ben; Wang, Pei (2007). Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms Proceedings of the AGI Workshop 2006(en inglés). Amsterdam: IOS Press.
Feigenbaum, Edward A.; McCorduck, Pamela (1983), The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World, Michael Joseph, ISBN978-0-7181-2401-4.
Holte, R. C.; Choueiry, B. Y. (2003), «Abstraction and reformulation in artificial intelligence», Philosophical Transactions of the Royal Society B358 (1435): 1197-1204, PMC1693218, PMID12903653, doi:10.1098/rstb.2003.1317..
Kurzweil, Ray (2005), The Singularity is Near, Viking Press.
Lighthill, Professor Sir James (1973), «Artificial Intelligence: A General Survey», Artificial Intelligence: a paper symposium, Science Research Council.
Newell, Allen; Simon, H. A. (1963), «GPS: A Program that Simulates Human Thought», en Feigenbaum, E. A.; Feldman, J., eds., Computers and Thought, New York: McGraw-Hill.
Omohundro, Steve (2008), The Nature of Self-Improving Artificial Intelligence, presented and distributed at the 2007 Singularity Summit, San Francisco, California.
Sandberg, Anders; Boström, Nick (2008), Whole Brain Emulation: A Roadmap, Technical Report #2008‐3, Future of Humanity Institute, Oxford University, archivado desde el original el 25 de marzo de 2020, consultado el 5 de abril de 2009.
Simon, H. A. (1965), The Shape of Automation for Men and Management, New York: Harper & Row.
Sutherland, J. G. (1990), «Holographic Model of Memory, Learning, and Expression», International Journal of Neural Systems, 1–3: 256-267..
de Vega, Manuel; Glenberg, Arthur; Graesser, Arthur, eds. (2008), Symbols and Embodiment: Debates on meaning and cognition, Oxford University Press, ISBN978-0-19-921727-4..
Zucker, Jean-Daniel (July 2003), «A grounded theory of abstraction in artificial intelligence», Philosophical Transactions of the Royal Society B358 (1435): 1293-1309, PMC1693211, PMID12903672, doi:10.1098/rstb.2003.1308..