Ir al contenido principal

Hacia una inteligencia artificial general

In this work, published in Science (Open Access version), we introduce the Generative Query Network (GQN), a framework within which machines learn to perceive their surroundings by training only on data obtained by themselves as they move around scenes. Much like infants and animals, the GQN learns by trying to make sense of its observations of the world around it. In doing so, the GQN learns about plausible scenes and their geometrical properties, without any human labelling of the contents of scenes. The GQN model is composed of two parts: a representation network and a generation network. The representation network takes the agent's observations as its input and produces a representation (a vector) which describes the underlying scene. The generation network then predicts (‘imagines’) the scene from a previously unobserved viewpoint. (Google DeepMind)


Como ya es costumbre, Google DeepMind acaba de dar otro paso (o pasito si peca uno de escéptico y quiere ser conservador) hacia una inteligencia artificial general mediante un paper publicado en la revista Science...y la prensa apenas se hizo eco :(.
¿Qué pensarías si te digo que Google ha logrado un sistema formado por tres subredes neuronales interconectadas capaz de generalizar a partir de un entorno y sin ayuda de supervisión humana alguna, el número y tipo de objetos que hay en una escena, sus propiedades y la manera en que estos objetos se relacionan unos con otros? Pues es lo que han logrado.
DeepMind ha conseguido este hito como digo mediante la interconexión de tres subredes neuronales que trabajan juntas (la salida de una es la entrada de otra, etc.). Así pues, una primera red neuronal compuesta principalmente de capas convolucionales (como las que tenemos nosotros en el córtex visual) "codifica" una representación del mundo (de la escena), y luego otras dos subredes neuronales (que utilizan fundamentalmente redes recurrentes LSTM) se encargan de tomar esta representación interna del "mundo" e interpretar y extrapolar qué hay y que se puede esperar del mismo en el tiempo.
De este modo el modelo neuronal completo es capaz de observar por ejemplo una escena (nunca vista antes), detectar cuántos objetos hay y de qué tipo son (qué propiedades tienen y cual es el modo normal en que se suelen comportar en el tiempo cada uno de estos tipos de objeto), de manera que la red neuronal finalmente puede recrear y predecir con mucho éxito futuros estados de la escena sin ninguna otra ayuda. Es capaz, por ejemplo, de observar una escena cualquiera y dar respuesta a preguntas sobre qué podemos esperar que ocurra después dadas las circunstancias. Algo similar a que nosotros veamos un vaso volando por el aire y automáticamente sepamos (e imaginemos mentalmente) que en pocos segundos el vaso habrá chocado con el suelo y se habrá roto. De hecho, hay que notar que la manera en que este modelo neuronal aprende es bastante similar al modo en que lo hacen los bebés humanos conforme van creciendo y desarrollándose cognitivamente poco a poco.
Pero no sólo este novedoso modelo de red neuronal de Google es capaz de generalizar asombrosamente lo que ve, ¡sino que incluso es capaz de mantener cierto razonamiento algebraico (más detalles en el paper)!
Como colofón sólo mencionar que Google DeepMind reconoce que uno de los principales impedimentos que encontró para utilizar esta misma técnica en entornos más realistas (como nuestro mundo) es simplemente que no disponen de momento del hardware necesario (no tienen ni de lejos un poder de cómputo capaz de igual al de nuestro cerebro).
Por lo tanto, y a modo de resumen, remarcar el siguiente hecho: dado que al imitar el modo neuronal en que funciona, aprende, y se desarrolla nuestro cerebro se consiguen resultados tan similares a nuestra representación interna del mundo, junto con la afirmación de que el impedimento más importante encontrado para mejorar aún más el proceso sea que no se dispone de la suficiente potencia de cálculo; casi (casi) nos demuestra ya con poco margen para la duda de que lo único necesario para que TODAS nuestras habilidades cognitivas sean simuladas artificialmente es...¡más potencia! (http://quevidaesta2010.blogspot.com/2017/12/mas-potencia.html)

Entradas populares de este blog

¡Más potencia!

«¡Es la guerra! ¡Traed madera! ¡Más madera!»  (Los hermanos Marx) Introducción. El mundo de las ciencias de la computación están estos días de enhorabuena, un nievo hito histórico acaba de acontecer: hablamos por supuesto del casi milagroso desarrollo de Google DeepMind denominado AlphaZero , un modelo neuronal capaz de aprender de manera autónoma no supervisada (sin apoyo de datos etiquetados ofrecidos por el hombre) a jugar con capacidades sobrehumanas a varios juegos milenarios como el Go y el ajedrez ( aquí podéis descargar el paper de este proyecto). DeepMind acaba de demostrar así que la metodología que utilizaron para que un modelo neuronal aprendiera (con capacidades sobrehumanas) por sí misma sin apoyo de datos humanos el juego de Go, es generalizable a cualquier otro tipo de juego o situación. En el arriba comentado paper nos explican por ejemplo como en 4 horas (sí, sólo 4 horas), la red neuronal fue capaz de aprender a jugar al ajedrez (entre otros juegos) con una ca...

Replicando el desarrollo de Google DeepMind: AlphaGo Zero

Previous versions of AlphaGo initially trained on thousands of human amateur and professional games to learn how to play Go. AlphaGo Zero skips this step and learns to play simply by playing games against itself, starting from completely random play. In doing so, it quickly surpassed human level of play and defeated the previously published champion-defeating version of AlphaGo by 100 games to 0. If similar techniques can be applied to other structured problems, such as protein folding, reducing energy consumption or searching for revolutionary new materials, the resulting breakthroughs have the potential to positively impact society.  (Profesor David Silver) Hace unos meses   Google DeepMind   hizo público uno de sus resultados más asombrosos: una versión del modelo neuronal que fue capaz de derrotar al campeón del mundo de   Go , solo que esta vez no necesitaron hacer uso de ningún aprendizaje supervisado de juegos entre humanos (hablé en este mismo blog en   ...

Sobre el mito de la caja negra en el campo de la inteligencia artificial

En relación a esta  buena entrada de Santiago  donde trata el hito que  DeepMind  ha logrado con el sistema de inteligencia artificial  Alpha Zero , me gustaría comentar algo sobre la cuestión que más se malinterpreta actualmente de la moderna IA: ¿es cierto que no sabemos cómo hace lo que hace? ¿Se trata realmente de una misteriosa caja negra inexpugnable? Pues bien, la respuesta es no y no. Sabemos perfectamente (los que se dedican e investigan en este campo) por qué la moderna IA hace lo que hace y cómo lo hace. Y lo de "la caja negra" pues...sencillamente es un mito sensacionalista. Todo el machine learning actual ( Alpha Zero  incluido) es el resultado de procesos matemáticos algebraicos trabajando sobre números reales. Más en concreto, millones de operaciones de sumas y multiplicaciones tensoriales sobre un conjunto de (millones) de números reales almacenados en un fichero para tal fin. Como veis no hay misterio ni "magia" por ninguna parte. Y...