Aquel movimiento de la máquina de Google en el Go fue tan perfecto que a todos nos recorrió una corriente por la espina dorsal similar a la que hace unos años nos recorrió cuando Kasparov fue vencido por Deep Blue en aquella partida de 1997. Aquí también se enfrentaban un ser humano y una máquina. Por un lado, al surcoreano Lee Sedol; por el otro, AlphaGo, un programa informático de inteligencia artificial desarrollado por Google DeepMind para jugar al juego de mesa Go.
La inteligencia artificial de Google no ha logrado una victoria perfecta en su partida disputada hace apenas unos días, pero la puntuación de 4 a 1 contra uno de los mejores jugadores de Go del mundo ha dado otro espaldarazo a lo que pronto nos espera si la Inteligencia Artificial continúa desarrollándose.
Mucho más que ajedrez
Haber vencido a un humano a Go tiene mucho mérito, más que haberle vencido a una partida al ajedrez, porque este juego milenario precisa de un algoritmo con ramificación de 200 (en el ajedrez una ramificación de 20). El Go es, pues, un juego enormemente complejo, y necesita de inteligencia, estrategia, creatividad e intuición. Cualidades que parecen muy humanas, exclusivamente humanas, de hecho. Pero la máquina se adjudicó la victoria en la serie al mejor de cinco, ganando cuatro juegos y perdiendo sólo uno.
La máquina de Google emplea el aprendizaje por refuerzo y el método de Montecarlo para adquirir su propia intuición, por ello, entre los surcoreanos, ha suscitado una admiración por la belleza de sus movimientos, pero también cierto temor sombrío a lo que se avecina.
Por de pronto, la victoria es notable porque las tecnologías que anidan en el corazón de AlphaGo son el futuro. Ya están cambiando Google, Facebook, Microsoft y Twitter; para ayudar a identificar las caras en las fotos, reconocer comandos de voz en los teléfonos inteligentes, conducir los motores de búsqueda, y mucho más. También están tratando de simular la manera que tiene el hipocampo de aprender sobre nuevas experiencias. Han anunciado una colaboración con el National Health Service en el Reino Unido para mejorar los diagnósticos médicos humanos.
Si alimentamos con suficientes fotos de una langosta a una red neuronal artificial, ésta puede aprender a reconocer una langosta. Si alimentamos con suficientes diálogos humanos, la red neuronal puede aprender a mantener una conversación medianamente decente. Y si la alimenta con 30 millones de movimientos de jugadores expertos, la red neuronal puede aprender a tocar Go. Pero AlphaGo fue más allá, aprendió por sí mismo, descubriendo nuevas estrategias que nadie le había enseñando jugando contra sí mismo.
¿Temores con fundamento?
Con este hito, AlphaGo marca un antes y un después en el mundo de la Inteligencia Artificial. Pero todavía queda por dar más pasos, pasos de gigante, pasos exponenciales. El siguiente paso exponencial será comprobar las capacidades de un algoritmo "estratégico" para vencer a los jugadores de Starcraft. DeepMind, la ingente obra de ingeniería de Google en Inteligencia Artificial detrás de AlphaGo aspira a volverse a mejor que cualquier humano en este juego de Blizzard de 1998.
Mientras, algunos humanos expresan sus temores, como antaño se manifestaron ante la victoria de Deep Blue. El primer ministro coreano, por ejemplo, ha relativizado esta victoria de Google:
No quiero comentar el resultado, pero tanto ganando o perdiendo, esa máquina fue construida por los humanos.
El deep learning permite analizar imágenes (documentos, vídeos, fotos, etc.) mucho mejor que un ser humano, localizando patrones, tendencias, errores y posibles mejoras. Y, con victorias como la producida en la partida de Go de hace unos días, parecemos abocados a delegar cada vez más asuntos que antes parecían mejore resueltos por seres humanos. Con todo, no son pocos los que expresan, como el ministro coreano, su rechazo más o menos velados.
Stephen Hawking y otros 1.000 expertos, como el emprendedor Elon Musk, presidente de Tesla y SpaceX, o el cofundador de Apple, Steve Wozniak, alertan sobre el peligro de máquinas demasiado inteligentes. Ahora, los firmantes de la nueva carta han pedido que se prohíba específicamente el uso de la inteligencia artificial para el desarrollo de armas. El profesor del MIT Noam Chomsky, el responsable de inteligencia artificial de Google, Demis Hassabis, y el filósofo Daniel Dennett también han firmado esta carta de protesta. El debate incluso ha llegado hasta Naciones Unidas. ¿Exageraciones? ¿Se nos puede ir de las manos? Quién sabe. Estamos pisando terreno totalmente desconocido.
Vía | Wired
Ver todos los comentarios en https://www.xatakaciencia.com
VER 4 Comentarios