Loading AI tools
empresa de inteligencia artificial propiedad de Google De Wikipedia, la enciclopedia libre
Google DeepMind es una compañía inglesa de investigación y desarrollo de inteligencia artificial adquirida en 2014 por Alphabet Inc., empresa matriz de Google.
Google DeepMind | ||
---|---|---|
Tipo | filial y negocio | |
Industria | Inteligencia artificial | |
Forma legal | filial | |
Fundación | 2010 | |
Fundador |
| |
Sede central |
| |
Área de operación | Mundial | |
CEO | Demis Hassabis | |
Productos | AlphaGo, AlphaZero | |
Propietario | Google y Alphabet Inc. | |
Empleados | 1000 | |
Empresa matriz | Alphabet Inc. | |
Sitio web | https://deepmind.google/ | |
La compañía fue fundada en 2010, por Demis Hassabis. Desde ese entonces, la empresa ha creado varios desarrollos, como una red neuronal que aprende cómo jugar a los videojuegos de una manera similar a la de los seres humanos,[2] así como una máquina de Turing Neural, o una red neuronal que puede ser capaz de acceder a una memoria externa como una máquina convencional de Turing, lo que resulta en una computadora que imita la memoria a corto plazo del cerebro humano.[3]
La compañía generó titulares en 2016 después de que su programa AlphaGo derrotó a un jugador humano profesional de Go de 9 dan por primera vez.[4]
En 2010 el start-up fue creado por Demis Hassabis, Shane Legg y Mustafa Suleyman.[5][6] Hassabis y Legg se conocieron por primera vez en UCL en la Unidad de Neurociencia Computacional Gatsby.[7]
Desde entonces las principales firmas de capital de riesgo Horizons Ventures y Founders Fund han invertido en la compañía,[8] así como el empresario Scott Banister.[9] Jaan Tallinn fue de los primeros inversionistas y consejeros de la compañía.[10]
En 2014, DeepMind recibió el premio de la "Compañía del año" por el Laboratorio de Computación de Cambridge.[11]
La compañía creó una red neuronal que aprende a jugar videojuegos de manera similar a los humanos[12] y una red neuronal que puede ser capaz de acceder a la memoria externa como una máquina de Turing convencional, resultando en una computadora que parece imitar posiblemente la memoria a corto plazo del cerebro humano.[3]
El 26 de enero de 2014, Google anunció[13] que había acordado adquirir Tecnologías DeepMind. La adquisición tuvo lugar después de que Facebook acabara negocios con Tecnologías DeepMind en 2013.[14] Después de la adquisición la compañía fue renombrada a Google DeepMind.[1]
Los costos estimados de la adquisición varían entre $400 millones[15] y $500 millones.[16][17][18][19][20]
Una de las condiciones de DeepMind para Google era que establecieran un comité de Ética de la inteligencia artificial.[21]
El 20 de abril de 2023, Deepmind anuncia que se fusionará con el equipo Brain de Google Research para formar una nueva unidad llamada Google DeepMind, liderada por Demis Hassabis. El objetivo de esta unidad es acelerar el progreso hacia una inteligencia artificial general que ayude a resolver los mayores desafíos que enfrenta la humanidad.[22]
Según Demis Hassabis:
Creo que podemos llegar a ese futuro más rápido. Construir una IA cada vez más capaz y general, de forma segura y responsable, exige que resolvamos algunos de los desafíos científicos y de ingeniería más difíciles de nuestro tiempo. Para ello, necesitamos trabajar con mayor velocidad, una colaboración y ejecución más sólidas, y simplificar la forma en que tomamos decisiones para centrarnos en lograr el mayor impacto.
En octubre de 2015, un programa llamado AlphaGo, impulsado por DeepMind, venció al campeón europeo de Go Fan Hui, un profesional de 2 Dan (de 9 Dan posibles), cinco a cero[23] Esta es la primera vez que una inteligencia artificial (AI) venció a un jugador profesional de Go[24] Anteriormente, las computadoras sólo eran conocidas por haber jugado Go al "nivel amateur".[23][25] Go se considera mucho más difícil para las computadoras de ganar en comparación con otros juegos como el ajedrez, debido al mucho mayor número de posibilidades, por lo que es prohibitivamente difícil para los métodos tradicionales de IA como la fuerza bruta.[23][25] El anuncio de la noticia se retrasó hasta el 27 de enero de 2016 para coincidir con la publicación de un artículo en la revista Nature describiendo los algoritmos utilizados.[23] En marzo de 2016 jugó contra un jugador de 9-dan profesional, Lee Sedol (9 Dan), en Corea. De las cinco partidas AlphaGo ganó las tres primeras, la cuarta partida la ganó Lee Sedol y la quinta nuevamente fue ganada por la inteligencia artificial quedando el resultado cuatro a uno. Sobre este evento existe un documental creado por Netflix en el 2017 denominado AlphaGo Archivado el 4 de febrero de 2018 en Wayback Machine.
El 4 de diciembre de 2017, el equipo de DeepMind logró un gran avance al derrotar el módulo AlphaZero a Stockfish 8 en una serie de cien partidas, la mitad jugando con blancas y la mitad con negras. El resultado fue que ganó 28 e hicieron tablas en 72, no perdiendo ninguna. Para lograrlo, tan solo ha necesitado conocer las reglas del juego y 4 horas de entrenamiento jugando contra sí mismo.[26] En 2017, StockFish 8 era el campeón vigente del campeonato mundial de ajedrez por computadora, con un ELO de 3400 puntos.[27]
El objetivo de Tecnologías DeepMind es "resolver la inteligencia",[28] la cual están tratando de lograr mediante la combinación de " Las mejores técnicas de Aprendizaje automático y Neurociencia de sistemas para construir potentes algoritmos de aprendizaje de propósito general".[28] Están tratando de formalizar la inteligencia[29] con el fin de no solo implementarla a las máquinas, pero también al cerebro humano, como explica Demis Hassabis:
"El intento de destilar inteligencia en una construcción algorítmica puede llegar a ser el mejor camino para la comprensión de algunos de los misterios perdurables de nuestra mente."
Actualmente el enfoque de la compañía está en publicar investigaciones en sistemas computacionales que son capaces de jugar juegos, y desarrollar estos sistemas, que van desde juegos como Go[30] hasta juegos de arcade. De acuerdo con Shane Legg la inteligencia a un nivel humano en una máquina puede ser lograda " cuando una máquina pueda jugar un rango amplio de juegos desde la percepción de corriente de entrada y salida, y transferir conocimiento a través de los juegos[...]."[31] La investigación describe una IA jugando 7 juegos diferentes en Atari (Pong, Breakout, Space Invaders, Seaquest, Beamrider, Enduro, y Q*bert) según los informes, que llevó la adquisición por Google.[12]
A diferencia de otras IA, como Deep Blue o Watson de IBM, las cuales fueron desarrolladas para un propósito predefinido y solo funcionan dentro de su ámbito, Google DeepMind dice que sus sistemas no están pre-programados: aprenden de la experiencia, usando solo píxeles primos como datos de entrada.[1][32] Prueban el sistema en videojuegos, en especial en juegos arcade, como Space Invaders o Breakout.[32][33] Sin alterar el código, el IA empieza a entender como jugar el juego, y después de jugar varias veces, en algunas juego (especialmente en Breakout), tiene una mayor eficiencia al jugar que cualquier humano.[33] Para la mayoría de los juegos (por ejemplo, Space Invaders, Ms Pacman, Q*Bert), DeepMind jugó por debajo del actual récord mundial. La aplicación del IA de DeepMind para videojuegos es actualmente para juegos que se crearon en los setenta y en los ochenta, con el trabajo que se realiza en juegos más complejos en 3D como Doom, el cual apareció por primera vez al principio de los años noventa.[33]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.