DeepMind, de Google, acaba de encontrar la única pregunta en Inteligencia Artificial que no puede responder
Cuando lleguen los super robots, ¿deciden matarnos o cooperar con nosotros?
Una nueva investigación de DeepMind, la unidad de inteligencia artificial de Google, podría finalmente explicar esta pregunta tan importante.
El equipo de DeepMind ha estado investigando las condiciones en las que los seres que optimizan para tener una recompensa, sean humanos o robots, opten por cooperar en lugar de competir. La respuesta podría tener implicaciones sobre cómo la inteligencia en informática puede ser desplegada para manejar sistemas complejos tales como la economía, flujos de tráfico en la ciudad, o política del medio ambiente.
Joel Leibo, autor principal de un artículo de DeepMind publicado en Internet recientemente, dijo que la investigación de su equipo indica que si los agentes aprenden a cooperar o competir depende en gran medida del entorno en el que operan.
Aunque la investigación no tiene una aplicación inmediata en el mundo real, ayudaría a DeepMind a diseñar agentes de inteligencia artificial que puedan trabajar juntos en entornos con información imperfecta. En el futuro, tal trabajo podría ayudar a tales agentes a navegar por un mundo lleno de entidades inteligentes, tanto humanas como de máquinas, ya sea en las redes de transporte o en los mercados de valores.
Manzanas, lobos
El artículo de DeepMind describe cómo los investigadores usaron dos juegos diferentes para investigar cómo los agentes de software aprenden a competir o cooperar.
En el primero, dos de estos agentes tenían que maximizar el número de manzanas que podían reunir en un entorno digital bidimensional. Los investigadores podían variar la frecuencia con la que aparecían las manzanas. Los investigadores descubrieron que cuando las manzanas eran escasas, los agentes aprendían rápidamente a atacarse unos a otros – zapping, o «etiquetar» a su oponente con un rayo que los inmoviliza temporalmente. Cuando las manzanas eran abundantes, los agentes preferían coexistir más pacíficamente.
Sin embargo, los investigadores encontraron que cuando intentaron este mismo juego con agentes más inteligentes que se basaban en redes neuronales más grandes – una especie de inteligencia artificial diseñada para imitar el funcionamiento de ciertas partes del cerebro humano – intentarían «etiquetar» al otro agente con mayor frecuencia, es decir, se comportan menos cooperativamente, sin importar cómo variemos la escasez de manzanas», escribieron en un blog en el sitio web de DeepMind.
En un segundo juego, llamado Wolfpack, los agentes eran lobos que tuvieron que aprender a capturar «presas». El éxito dio como resultado una recompensa no sólo por el lobo que hizo la captura, sino por todos los lobos presentes dentro de un cierto radio de la captura. Cuantos más lobos estén presentes en este radio de captura, más puntos recibirían todos los lobos.
En este juego, los agentes generalmente aprendieron a cooperar. A diferencia del juego de recolección de manzanas, en Wolfpack, cuanto más avanzada era la capacidad cognitiva del agente, mejor aprendía a cooperar. Los investigadores postulan que esto se debe a que en el juego de recolección de manzanas, el comportamiento zapping o «etiquetado» era más complejo – mientras que en el juego Wolfpack, la cooperación era el comportamiento más complejo.
Los investigadores especularon que debido a que los sistemas de inteligencia artificial menos sofisticados tenían más dificultades para dominar estos comportamientos complejos, la inteligencia artificial más simple no podía aprender a usarlos de manera efectiva.
¿Qué es DeepMind?
DeepMind, que Google compró en 2014, es más conocido por haber creado una inteligencia artificial que puede vencer a los mejores jugadores humanos del mundo en el antiguo juego de estrategia asiático Go. En noviembre, DeepMind anunció que estaba trabajando con Blizzard Entertainment Inc., la división de Activision Blizzard que hace que el videojuego Starcraft II, para convertir el juego en una plataforma para la investigación de la inteligencia artificial.
Gracias a DeepMind: Google está utilizando Inteligencia Artificial para reducir su enorme factura de electricidad
Joel dijo que los agentes utilizados en los experimentos de recolección de manzanas y de Wolfpack no tenían memoria a corto plazo y, en consecuencia, no podían hacer inferencias sobre la intención del otro agente. «En el futuro sería interesante equipar a los agentes con la capacidad de razonar sobre las creencias y objetivos de otros agentes», dijo.
Mientras tanto, podría ser prudente mantener algunas manzanas de repuesto.
Lee también: Conoce Viv, inteligencia artificial que quiere leer tu mente y ayudarte en tu vida