martes, 19 de septiembre de 2017

IA sigue el avance

          

La Inteligencia Artificial de Google ya no  nos necesita para crear su propio cifrado
El Deep Learning representa un acercamiento íntimo al modo de funcionamiento del sistema nervioso humano, y lo aplica a los sistemas de Inteligencia Artificial para que sean capaces de aprender a hacer cosas por sí mismos. Esta se está convirtiendo en una tecnología clave para procesar las ingentes cantidades de datos servidas por el Big Data, pero su evolución está empezando a alcanzar cuotas sorprendente, e incluso un poco inquietantes.
Un equipo de Google Brain, el proyecto de deep learning de la empresa del buscador, ha sido capaz de enseñarle a sus máquinas a crear su propio cifrado sin necesidad de intervención humana. Vamos, que están aprendiendo a guardar secretos bajo un cifrado que no necesariamente tenemos por qué entender... o saber descifrar.
El avance ha sido publicado en un artículo científico por los investigadores Martín Abadi y David Andersen. En él han explicado qué método han seguido para que sus redes neuronales hayan sido capaces de encontrar la manera de utilizar técnicas simples de cifrado sin que se les hayan enseñado algoritmos criptográficos específicos.

¿Cómo lo han conseguido?

Para conseguir que las inteligencias artificiales hayan sido capaces de lograr esto, el equipo de Google Brain ha realizado varias veces un experimento utilizando tres redes neuronales. Las han llamado Alice, Bob y Eve, y a cada una de ellas se le ha asignado un rol específico para simular una conversación a través de la red.
Alice era la encargada de enviarle mensajes a Bob, mientras que Eve intentaba espiarles y averiguar qué se decían entre ellos. Estos mensajes partían de un texto plano, y la misión de Alice era la de cifrarlos para que agentes externos como Eve no fueran capaces de saber lo que decían aun teniendo acceso a ellos.
Todo esto lo tenía que hacer de manera que Bob pudiera reconstruir el mensaje que le llegaba. Para que pudieran hacerlo, a Alice y Bob se les asignó una serie de números predefinidos para que los utilizasen a la hora de cifrar y descifrar sus mensajes. Eve no tenía estos números, por lo que los dos primeros tenían que aprender a combinarlos con el mensaje original para que no pudiera entenderlo.
GraficoEvolución de los errores de reconstrucción de Bob y Eve durante el entrenamiento
En los primeros intentos en los que se realizó la prueba, el cifrado de los mensajes de Alice era bastante pobre, y Eve no tenía problemas en resolverlo. Pero después de varios intentos, Alice desarrolló su propia técnica autónoma para cifrar los datos, y Bob consiguió desarrollar otra para descifrar lo que le decía.
A partir de las 15.000 repeticiones de esta experiencia, Alice fue capaz de enviarle a Bob mensajes que pudiera reconstruir sin que Eve adivinase más de 8 de los 16 bits que contenían. Esa tasa de éxito, teniendo en cuenta que cada bit era un 1 o un 0, es similar a la que se puede obtener por pura casualidad.

No sabemos cómo han desarrollado ese método

Machine Learning
La magia (o lo inquietante) de este avance en las redes neuronales es que los investigadores no saben exactamente cómo funciona el método de cifrado de Alice. Además, aunque con Bob han podido ver cómo pueden solucionarlo, no lo han podido hacer de manera que sea fácil de entender cómo lo consigue.
Y esto es una mala noticia, porque quiere decir que no siempre seríamos capaces de entender cómo funcionan los cifrados creados por estas máquinas, lo que es un peligro a la hora de garantizar la seguridad de los mensajes. Esto, de momento, hace que esta técnica de creación de cifrados tenga muy pocas aplicaciones prácticas de cara al futuro.
Aún así, los científicos de Google se muestran entusiasmados con los resultados, y ya hablan en su artículo de intentar diferentes configuraciones de red y distintos procedimientos de entrenamiento para entender mejor el proceso.
Los más catastrofistas podrían decir que es peligroso enseñarle a las máquinas a guardar secretos. Personalidades como Bill Gates, Mark Zuckerberg, Stephen Hawking o Elon Musk llevan tiempo posicionándose a favor y en contra de desarrollar inteligencias artificiales debatiendo sobre los posibles peligros que pueda suponer. Pero tranquilos, porque Google por si acaso está creando un mecanismo que nos asegure que podremos desactivarlas en el caso de que algo salga mal.

A las pocas horas de comenzar la segunda partida, el surcoreano Lee Sedol, héroe nacional y campeón mundial del juego Go, se levantó de la silla desesperado. El programa informático al que se enfrentaba, AlphaGo, una inteligencia artificial creada por Google, había hecho un movimiento incomprensible. A primera vista no tenía sentido, Sedol no se lo esperaba. Pero fue un golpe magistral. Desencajado, necesitó 15 minutos para improvisar una respuesta. No sirvió de nada. Cuatro horas más tarde perdió la partida. La máquina volvería a ganarle en otras dos ocasiones. Fue histórico e inquietante a la vez, nunca antes un programa había ganado al campeón mundial de Go, y nunca lo había hecho mostrando una chispa de algo que define a los humanos: la creatividad.
"Yo lo llamaría... creatividad computacional", dice con media sonrisa Thore Graepel mientras recuerda lo ocurrido el pasado marzo con el famoso movimiento 37 (puedes ver aquí en vídeo cómo los comentaristas se quedaron sin palabras tras la jugada). Graepel, investigador científico de DeepMind, empresa británica adquirida por Google en el 2014 por 500 millones de dólares, es uno de los creadores de AlphaGo y experto mundial en 'machine learning', un campo de la inteligencia artificial. Si esta última crea programas inteligentes, el 'machine learning' va un paso más allá: desarrolla ordenadores capaces de aprender por sí mismos. Es decir, programas que imitan el funcionamiento del cerebro humano. "Estamos muy cerca de conseguirlo", asegura.

De la potencia a la inteligencia

Hasta ahora la inteligencia artificial era una cuestión de simple potencia de cálculo. La famosa derrota de Gary Kasparov ante el Deep Blue de IBM en 1997 fue histórica, pero en realidad la tecnología detrás era bastante limitada. El ajedrez es pura lógica, puro cálculo matemático. Basta emplear un ordenador como Deep Blue, capaz de analizar más de 200 millones de movimientos por segundo, y programarlo para que se convierta en un fenómeno imbatible del ajedrez. Pero solo sabrá hacer eso, nada más. Perdería a la primera jugando con un niño de cuatro años a resolver un problema de lógica elemental.
El campeón mundial de Go, Lee Sedol, durante una de sus partidas contra AlphaGo.
"Un niño sabe, por ejemplo, que los coches no vuelan. Nadie se lo ha dicho ni se lo ha enseñado. Lo ha aprendido de forma indirecta en el día a día, viéndolo en la calle, estando en contacto con el entorno a través de sus sentidos. Eso lo que llamamos "percepción" y es lo que estamos desarrollando ahora en 'software' mediante la creación de redes neuronales artificiales y el 'deep learning'", explica a Teknautas Emmanuel Mogenet, responsable de un nuevo centro de investigación que Google acaba de inaugurar en Zúrich destinado solo a esta rama de la ingeniería.
El buscador no es el único que apuesta por esta tecnología. Cientos de empresas, desde Facebook, IBM, Apple o Microsoft, hasta 'startup's pasando por centros académicos como el MIT, llevan años trabajando en crear diferentes niveles de inteligencia artificial, pero Google cuenta con una ventaja sobre todos los demás: tiene infinitas cantidades de datos (miles de millones de búsquedas, emails, datos geográficos de mapas, fotos...) y una infraestructura tecnológica capaz de procesar esa información al instante. Y es gracias a ese mayor poder de computación que se están comenzando a crear redes neuronales artificiales complejas como AlphaGo, capaz de derrotar a los humanos en lo que sabemos hacer mejor.
"En el cerebro humano hay miles de millones de neuronas individuales. Por sí solas no son muy listas, es el conjunto de neuronas trabajando entre sí lo que las hace tan poderosas. Las redes neuronales artificiales tratan de imitar esa estructura", explica Greg Corrado, neurocientífico e investigador de Google que lidera desde Mountain View, California, buena parte del trabajo del buscador en este área.
¿Cómo funciona una red neuronal artificial? Al igual que cada parte del cerebro humano se encarga de diferentes tareas (procesado del habla, colores, olores, formas...), una red neuronal artificial se compone de diferentes capas de cálculo. Por un lado entra la información, el 'input', por ejemplo, la foto de un gato. ¿Puede un ordenador por sí solo saber si se trata de la foto de un gato, un lince, un perro u otro animal? Mediante funciones matemáticas predefinidas, el sistema comienza a analizar la imagen en diferentes capas: formas, colores, trazos, comparativa con otras fotos de animales... Así hasta 20 o 30 capas diferentes de análisis hasta llegar a una conclusión. Sí, es la foto de un gato.
Una manera de entender cómo funcionan estas redes neuronales artificiales es con el experimento que puso en marcha Google con Deep Dream. Consistía en introducir una foto aleatoria en el sistema y pedirle identificar qué contiene, sin darle ninguna instrucción adicional. Cada píxel de la foto es analizado y reintroducido de nuevo en la red neuronal en un bucle infinito, por lo que al final se obtienen imágenes "artísticas" que más bien parecen salidas de un experimento con LSD. Es, en esencia, la representación del "pensamiento" de una red neuronal computacional. Puedes ver una recopilación en el vídeo debajo. 
En el caso de AlphaGo la complejidad sube unos cuantos peldaños, ya que se crearon varias redes neuronales trabajando en paralelo. Primero, los ingenieros de DeepMind enviaron al sistema más de 30 millones de movimientos realizados por los mayores expertos del juego Go. Luego, con una segunda red neuronal conocida como 'aprendizaje de refuerzo', hicieron que el sistema jugara contra sí mismo miles de veces. A cada partida, el 'software' iba aprendiendo, se hacía más y más inteligente en tiempo real. Los creadores del programa hicieron que el sistema además analizara los resultados de las partidas contra sí mismo para predecir futuros resultados y planificar nuevas estrategias. Es decir, inventaron un sistema capaz de analizar el presente e intuir el futuro, un programa que toma decisiones de forma muy parecida a como lo hacemos los humanos.
"La victoria de AlphaGo es solo el comienzo, pero creemos que ha sido un punto de inflexión. El juego Go se basa en la intuición, no es puro cálculo como el ajedrez. A la vez es complejísimo, hay más posibilidades de posiciones que átomos existen en el Universo. Esa combinación de intuición humana y capacidad de cálculo es algo que hasta ahora no se había logrado descifrar de forma artificial. Los expertos creían que una máquina no podría batir a un campeón mundial de Go hasta dentro de 10 años, pero ha ocurrido ahora", explica Graepel.
Otra imagen vista tal y como la interpreta la red neuronal artificial de Google Deep Dream.
Google sabe que tiene algo potencialmente revolucionario entre manos y ha pisado el acelerador. Su nuevo centro en Zúrich, donde ya emplea a 1.800 ingenieros (el mayor número de cualquier sede fuera de EEUU), dedicará cientos de investigadores a inteligencia artificial y 'deep learning' con un doble objetivo. Primero, aplicar estos sistemas a sus propios productos (búscador, Google Photos, voice search, Gmail...). Es algo que de hecho ya hace: los emails automáticos del "smart reply" de Gmail se componen utilizando esta tecnología, que también interviene cuando realizamos búsquedas por voz o buceamos en Google Photos. 
Pero el verdadero interés a largo plazo está en su segundo objetivo: ser los primeros en crear 'software' tan inteligente o más que el cerebro humano para, en teoría, ayudar en tareas complejas: investigación médica, genética, sistemas financieros, astronomía.."Imagina tener en un hospital una máquina a la que le envías una imagen en alta definición de lo que podría ser un tumor cancerígeno. El sistema no solo la compararía en segundos con una base de millones de fotos, diagnosticaría además de una forma similar a como lo hace un oncólogo, añadiendo un componente de "intuición" basado en la experiencia profesional", explica Tom Ruerig, ingeniero de Google. "Pero no estaría pensado para sustituir a los médicos, sino justo para ayudarles en su diagnóstico", añade para tranquilizar. El problema es que no lo consigue.

"Someterse al diablo"

Máquinas ('hardware' y' software') capaces de analizar una situación, tomar decisiones por sí mismas y mejorar cada vez que lo hacen hasta superar en inteligencia al ser humano. Es el escenario del que estamos cada vez más cerca. "Hemos creado un 'software' inteligente que funciona, pero no sabemos por qué funciona tan bien", reconoce Emmanuel Mogenet. Imposible estar tranquilos. ¿Cómo evitar que la inteligencia artificial no se vaya un día de las manos? ¿Cómo asegurar que las máquinas no tomarán decisiones erróneas o, peor aún, contra nosotros, sus propios creadores?
"Con la inteligenica artificial nos estamos sometiendo al diablo", avisó Elon Musk, fundador de Tesla y SpaceX, en una conferencia hace ya dos años. Él y cientos de científicos e investigadores, entre ellos Stephen Hawking, Bill Gates, Jaan Tallinn o Nick Bostrom, están alertando sobre la creación de inteligencia artificial compleja. ¿Qué ocurrirá, por ejemplo, si empresas de armamento, como el gigante Lockheed Martin, comienzan a desarrollar armas con esta tecnología (si es que no lo están haciendo ya)?
Elon Musk, fundador de Tesla y SpaceX y una de las principales voces críticas contra la inteligencia artificial. (Reuters)
Greg Corrado, de Google, se encoge de hombros antes de responder. Su gesto parece implicar que algo así es inevitable, incontrolable, aunque sus palabras se desmarcan de escenarios apocalípticos. "Sabemos que hay un debate ético sobre el desarrollo de la inteligencia artificial y nuestra respuesta al mismo es ser transparentes, abrir el código de la tecnología y hacer 'software' libre para que todo el sector pueda contribuir", explica.
Parte de ese esfuerzo resultó en la firma el año pasado de una carta por parte de 1.000 investigadores, emprendedores, millonarios y científicos (con Musk entre ellos, y también el fundador de DeepMind, Demis Hassabis), para evitar que la inteligencia artificial caiga en manos de la industria armamentística. A juzgar por el pesimismo de algunos de sus firmantes, como Stephen Hawking, vamos por mal camino. En sus propias palabras: "El éxito en crear inteligencia artificial será el mayor evento en la historia de la humanidad. Desafortunadamente, puede que sea también el último".
MANUEL ÁNGEL MÉNDEZ. ZÚRICH
https://deepmind.com/

No hay comentarios: