domingo, 1 de marzo de 2015

Este programa juega mejor a los 'marcianitos' que un humano

Expertos en inteligencia artificial de Google crean un algoritmo que aprende por sí solo a jugar con decenas de videojuegos de los años 80 como 'Space Invaders' o el 'Comecocos'.


Esta recreación muestra la red neuronal artificial que usa el programa DQN para vencer a las hordas del mítico juego 'Space Invaders'. 
La inteligencia artificial le está ganando la partida a la humana paso a paso. Las máquinas lo hacen mejor al ajedrez o al póquer, están desplazando a los cirujanos en los quirófanos y, en la Bolsa de Nueva York, el 75% de las operaciones las realizan algoritmos matemáticos. Ahora, expertos en inteligencia artificial de Google han creado un algoritmo capaz de conseguir más puntos que un humano jugando a los marcianitos. Y lo logra tras aprender de la experiencia, reforzado por los premios y reposando lo aprendido. Casi como lo hacen los seres humanos.
DeepMind es una joven empresa británica dedicada a la inteligencia artificial de solo cinco años de vida. Algo debían de estar haciendo bien cuando Google la compró el año pasado en una dura pugna con Facebook por casi 700 millones de euros. Lo suyo es el aprendizaje de máquinas, las redes neuronales artificiales o agentes y algoritmos matemáticos, los elementos sobre los que se apoya la inteligencia artificial.
La última creación de DeepMind es DQN (o deep Q-network). Se trata de un programa, o agente en la jerga de la inteligencia artificial, que juega y muy bien a los videojuegos. Con un mínimo de información sobre las reglas del juego, las acciones permitidas (como el movimiento del cursor o los disparos) y las pantallas, este algoritmo se tuvo que enfrentar a una cincuentena de juegos de la mítica videoconsola Atari 2600 y las máquinas Arcade que, con títulos como el Comecocos (Pacman), Space Invaders o Pong, desplazaron al futbolín o al pinball de los salones recreativos en la década de los años 80 del siglo pasado.
"DQN superó a los anteriores sistemas de aprendizaje de máquinas en 43 de los 49 juegos", comenta Demis Hassabis, uno de los fundadores de DeepMind. Aunque el objetivo de la investigación, publicada hoy en la revista Nature, no era demostrar que también podía batir a los humanos, este agente "rindió por encima del 75% del nivel de un jugador humano profesional en más de la mitad de los juegos", añade Hassabis.
El algoritmo se enfrentó a 49 juegos Arcade de los años 80 superando a otros algoritmos y a un jugador humano profesional
En los títulos más populares de entonces, como el juego de boxeo Boxing, los de matar marcianos como Space Invaders, el juego de bolas Video Pinball o Pong, basado en el tenis de mesa, DQN superó al jugador humano, llegando a obtener puntuaciones 25 veces más altas.
Pero lo más llamativo de este agente de inteligencia artificial es su capacidad para aprender y el método con el que lo hace. Hassabis lo ejemplifica con el juego Breakout, evolución del Pong donde había que derribar series de ladrillos situados en la parte superior de la pantalla con una pelota. En las primeras fases de su entrenamiento, DQN mueve torpemente la barra para devolver la bola, perdiendo muchas vidas. Pero tras unos centenares de ensayos, descubre algo que parecería solo al alcance de un jugador humano: si rompía los ladrillos del lateral, podía colar la pelota sobre ellos y derribarlos por arriba mientras la barra sestea.
"DQN adoptó estrategias sorprendentemente anticipatorias que le permitieron conseguir la máxima puntuación posible", comenta el investigador de DeepMind. Y lo hizo sin ninguna instrucción o truco que le chivaran sus programadores. En su código, disponible para usos no comerciales, solo cuenta con los parámetros generales del juego y las pantallas en forma de píxeles. El algoritmo y su red neuronal artificial hicieron el resto.
Para leer más:
http://elpais.com/elpais/2015/02/25/ciencia/1424860455_667336.html

No hay comentarios:

Publicar un comentario