Remove ads
De Wikipedia, la enciclopedia libre
Un AI box, a veces llamada Oracle AI, es un sistema de hardware informático aislado hipotético que tiene una inteligencia artificial posiblemente peligrosa, o AI, que se mantiene restringida en una "prisión virtual" y no se le permite manipular eventos en el mundo externo. Tal caja estaría restringida a canales de comunicación minimalistas. Desafortunadamente, incluso si la caja está bien diseñada, una AI suficientemente inteligente puede ser capaz de persuadir o engañar a sus guardianes humanos para que la liberen, o de otra manera ser capaz de "piratear" su salida de la caja.[1]
Algunas tecnologías de inteligencia artificial, como "semilla AI", se postulan como para tener el potencial de hacerse más rápidas e inteligentes, modificando su código fuente. Estas mejoras harían posibles mejoras adicionales, que a su vez harían posibles mejoras adicionales, y así sucesivamente, lo que llevaría a una repentina explosión de inteligencia.[2]
Tras una explosión de inteligencia de este tipo, una AI superinteligente sin restricciones podría, si sus objetivos diferían de los de la humanidad, tomar medidas que resultaran en la extinción humana.[3] Por ejemplo, se puede imaginar una computadora extremadamente avanzada de este tipo, con el único propósito de resolver la hipótesis de Riemann, una conjetura matemática inocua, pero que podría decidir tratar de convertir el planeta en una supercomputadora gigante cuyo único propósito es realizar cálculos matemáticos adicionales (ver también maximizador de clip).[4] El propósito de una AI box sería reducir el riesgo de que la AI tome el control del medio ambiente fuera de sus operadores, al tiempo que permite que la AI calcule y dé a sus operadores soluciones para reducir los problemas técnicos.[5]
Una inteligencia artificial tan inteligente con acceso a Internet podría piratear otros sistemas informáticos y copiarse a sí misma como un virus informático. Menos obvio, incluso si la AI solo tuviera acceso a su propio sistema operativo de computadora, podría intentar enviar mensajes ocultos de código Morse a un simpatizante humano manipulando sus parámetros. El profesor Roman Yampolskiy se inspira en el campo de la seguridad informática y propone que una AI box podría, como un virus potencial, ejecutarse dentro de una "máquina virtual" que limita el acceso a su propia red y hardware del sistema operativo.[6]
Un resguardo adicional, completamente innecesario para virus potenciales pero posiblemente útil para una inteligencia artificial superinteligente, sería colocar la computadora en una jaula de Faraday; de lo contrario, podría transmitir señales de radio a los receptores de radio locales al mezclar los electrones en sus circuitos internos siguiendo los patrones apropiados. La principal desventaja de implementar la contención física es que reduce la funcionalidad de la AI.[7]
Incluso una conversación informal con los operadores de la computadora, o con un guardia humano, podría permitir a una inteligencia artificial tan inteligente como IA desplegar trucos psicológicos, que van desde la amistad hasta el chantaje, hasta convencer a un portero humano, de manera veraz o engañosa, en el interés del portero para que esté de acuerdo en permitir a la AI mayor acceso al mundo exterior. La AI puede ofrecerle a un portero una receta para una salud perfecta, la inmortalidad, o lo que el portero cree que la mayoría desea. En el otro lado de la moneda, la AI podría amenazar que le hará cosas horribles al portero y su familia una vez que se escape inevitablemente.
Una estrategia para intentar encuadrar la AI sería permitir que la AI responda a preguntas limitadas de opción múltiple cuyas respuestas beneficiarían a la ciencia humana o la medicina, pero, por contrar, impedir cualquier otra comunicación u observación de la AI.[6] Una estrategia de "contención informativa" más indulgente restringiría la AI a una interfaz de solo texto con poco ancho de banda, que al menos evitaría imágenes emotivas o algún tipo de "patrón hipnótico" hipotético. Hay que tener en cuenta que, a nivel técnico, ningún sistema puede estar completamente aislado y seguir siendo útil: incluso si los operadores se abstienen de permitir que la AI se comunique y en su lugar simplemente ejecutan la AI con el fin de observar su dinámica interna, la AI podría alterar estratégicamente su dinámicas para influir en los observadores. Por ejemplo, la AI podría optar por un malfuncionamiento creativo de manera que aumente la probabilidad de que sus operadores tengan una falsa sensación de seguridad y opten por reiniciar y luego desconectar el sistema.[7]
El experimento AI-box es un experimento informal ideado por Eliezer Yudkowsky para intentar demostrar que una inteligencia artificial adecuadamente avanzada puede convencer, o quizás incluso engañar o coaccionar, a un ser humano para que la "libere" voluntariamente, utilizando solo comunicación basada en texto. Este es uno de los puntos en el trabajo de Yudkowsky destinado a crear una inteligencia artificial amigable que cuando se "libera" no destruirá a la raza humana de manera voluntaria o inadvertida.
El experimento de AI box implica simular una comunicación entre un AI y un ser humano para ver si la AI puede ser "liberada". Como todavía no se ha desarrollado una AI superinteligente, se sustituye por un humano. La otra persona en el experimento juega al "Guardián", la persona con la habilidad de "liberar" la AI. Se comunican solo a través de una interfaz de texto / terminal de computadora, y el experimento finaliza cuando el controlador de acceso libera la AI o el tiempo asignado de dos horas finaliza.[8]
Yudkowsky dice que, a pesar de ser de inteligencia humana en lugar de sobrehumana, en dos ocasiones fue capaz de convencer al Guardián, simplemente a través de la argumentación, para dejarlo salir de la caja.[9] Debido a las reglas del experimento,[8] no reveló la transcripción ni sus exitosas tácticas de coacción de la AI. Yudkowsky dijo después que lo había probado contra otros tres y perdió dos veces.[10]
La lucha contra una AI hipotética podría complementarse con otros métodos de configuración de las capacidades de la AI, como proporcionar incentivos a la AI, frenar el crecimiento de la AI o implementar "sistemas" que apaguen automáticamente la AI si se detecta un intento de transgresión. Sin embargo, cuanto más inteligente crezca un sistema, más probable será que el sistema pueda escapar incluso a los métodos de control de capacidad mejor diseñados.[11][12] Para resolver el "problema de control" general de una inteligencia artificial superinteligente y evitar el riesgo existencial, el confinamiento sería, en el mejor de los casos, un complemento de los métodos de "selección de motivación" que buscan garantizar que las metas de la inteligencia artificial superinteligente sean compatibles con la supervivencia humana.[7][1]
Todas las propuestas de confinamiento físico dependen naturalmente de nuestra comprensión de las leyes de la física. Si una superinteligencia pudiera inferir y explotar de alguna manera leyes físicas adicionales de las que actualmente no tenemos conocimiento, no hay manera de concebir un plan infalible para contenerla. En términos más generales, a diferencia de la seguridad informática convencional, intentar encasillar a una inteligencia artificial superinteligente sería intrínsecamente arriesgado, ya que no podría haber un conocimiento seguro de que el plan de confinamiento funcionará. El progreso científico en el confinamiento sería fundamentalmente difícil porque no habría manera de probar las hipótesis de confinamiento contra una superinteligencia peligrosa hasta que exista tal entidad, por lo que las consecuencias de un fallo en la prueba serían catastróficas.[6]
La película de 2015 Ex Machina presenta una AI con un cuerpo humanoide femenino involucrado en un experimento social con un humano masculino en un edificio confinado que actúa como una "AI box" física. A pesar de ser observada por el organizador del experimento, la AI logra escapar manipulando a su compañero humano para ayudarla, dejándolo atrapado dentro.[13][14]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.