El año pasado estuvimos hablando de DeepMind el proyecto de inteligencia artificial que esta desarrollando Google. DeepMind ha logrado hacer de a poco progresos bastante interesantes como el de dominar videojuegos de Atari, superando el nivel de habilidad de un jugador profesional, siguiendo un modelo de aprendizaje de prueba y error.
Recientemente Google ha hecho público el nuevo avance en inteligencia artificial que ha tenido DeepMind al dominar el arte de Go, el juego de mesa chino que es considerado por muchos expertos como el más complejo de todos y un santo grial para la inteligencia artificial.
El juego de mesa Go fue creado en la China hace aproximadamente 2500 años y existen incluso escritos de Confucio donde lo menciona como un arte esencial para cualquier niño en la edad escolar. Go en esencia es un juego con reglas muy simples; dos jugadores se enfrentan por turnos en un tablero vacío, colocando fichas de color blanco o negro en intento por capturar las fichas de su oponente y ocupar el mayor espacio posible del tablero. Go es un juego que se juega más a un nivel intuitivo que técnico. Muchos de los expertos del Go admiten que muchas de las jugadas son seleccionadas simplemente porque “se sienten bien con ellas”.
Sin embargo por más simple que parezca, Go es un juego profundamente complejo. Para poner las cosas en contexto, un jugador de ajedrez tiene en promedio 20 pasividades de movimientos cada que tiene un turno, mientras que en Go, el jugador enfrenta un promedio de 200 jugadas posibles, lo que hace que la combinatoria de jugadas de una partida de GO sea tan, pero tan, enorme que el número de jugadas posibles supera la cantidad de átomos que se calculan, existe en el universo.
Una partida de Go tiene tantas jugadas posibles que superaría el número de átomos del universo, esto es incluso más grande que el numero Google!
Esta vastedad de posibilidades del Go, hace que la inteligencia artificial no pueda predecir los movimientos posibles de un tablero para luego planificar su próxima movida, simplemente porque esto le tomaría años y un enorme poder de computo. En 1997 la computadora Deep Blue derrotó a Garry Kasparov campeón mundial de Ajedrez utilizando ese tipo de métodos de análisis de posibilidades y predicción de movimientos de su oponente (ver video a continuación), sin embargo los investigadores de Google se dieron cuenta que con el juego Go, no podrían usar esta misma estrategia.
Debido al carácter intuitivo del juego, DeepMind fue programado para pensar de una manera más humana la forma de jugar al Go, utilizando los recientes avances en procesamiento de información por medio de redes neuronales. El algoritmo AlphaGo que se desarrolló para que DeepMind jugara como un profesional al Go utiliza 12 redes neuronales para analizar el tablero de Go que se le presente, usando una de sus redes para buscar posibles movidas, mientras las demás redes deciden que jugada hacer y cuál sería la jugada ganadora.
Luego de entrenar a DeepMind por meses y de mejorar constantemente el algoritmo AlphaGo, los investigadores decidieron que era el momento de ponerlo a prueba contra una mente maestra de Go, enfrentado a la maquina contra Fan Hui, un tres veces campeón europeo considerado un jugador Elite de Go. En una serie de partidas a puerta cerrada, AlphaGo derroto cinco veces consecutivas a Fan Hui dejando al experto totalmente desconcertado y convirtiéndose en la primera vez en la historia que una computadora pudo vencer a un jugador profesional de Go (ver video a continuación).
Los desarrolladores de AlphaGo, esperan poder poner a DeepMind en marzo de este año en un cara a cara contra Lee Sedol el jugador de Go número uno del mundo, y con suerte repetir la hazaña que Deep Blue hiciera en el 94 contra Kasparov.
Lee también: