Ir al contenido principal

Sobre el mito de la caja negra en el campo de la inteligencia artificial

En relación a esta buena entrada de Santiago donde trata el hito que DeepMind ha logrado con el sistema de inteligencia artificial Alpha Zero, me gustaría comentar algo sobre la cuestión que más se malinterpreta actualmente de la moderna IA: ¿es cierto que no sabemos cómo hace lo que hace? ¿Se trata realmente de una misteriosa caja negra inexpugnable?
Pues bien, la respuesta es no y no. Sabemos perfectamente (los que se dedican e investigan en este campo) por qué la moderna IA hace lo que hace y cómo lo hace. Y lo de "la caja negra" pues...sencillamente es un mito sensacionalista. Todo el machine learning actual (Alpha Zero incluido) es el resultado de procesos matemáticos algebraicos trabajando sobre números reales. Más en concreto, millones de operaciones de sumas y multiplicaciones tensoriales sobre un conjunto de (millones) de números reales almacenados en un fichero para tal fin. Como veis no hay misterio ni "magia" por ninguna parte.
Y tampoco hay de momento misterio en por qué esos números y no otros (diferentes conjuntos de números aplicados a estructuras algebraicas distintas producen finalmente un resultado casi idéntico). Hay que entender que el entrenamiento de una red neuronal (en todas sus variantes), consiste simplemente en ajustar (derivar o modificar) poco a poco números reales sobre un (estático) "molde" operacional (algrebráico) concreto de modo que finalmente se logra encontrar una función (matemática) que permite correlacionar muy bien un gran (casi infinito) conjunto de entradas (información fenomenológica), con un gran (casi infinito) conjunto de salida (lo que se entiende como generalización). Este proceso de ajuste (entrenamiento) utiliza una cantidad de información finita, por un periodo de tiempo finito, con un hardware muy limitado, y trabaja sobre una estructura algebraica (red neuronal) finita ¡y sin embargo conseguimos como resultado encontrar una función matemáticacapaz de relacionar con poco margen de error los elementos de dos subconjuntos de fenómenos (casi) infinitos!
Es decir, que si hay de verdad en el campo de la IA algo que podamos llamar misterioso, no es otra cosa que el hecho de observar (con asombro) cómo es posible que nuestro mundo funcione de modo tal que una larga cadena de operaciones algebraicas con una cantidad limitada y finita de constantes numéricas (una vez entrenada la red, los números ya no cambian) pueda aprehender un patrón capaz de relacionar dos subconjuntos fenomenológicos (casi) infinitos de entradas y salidas. ¡Sin embargo esto mismo se puede aplicar igualmente a nuestro propio cerebro y a nuestra propia cognición!...lo cual trae sin duda a cuento al socorrido principio antrópico: el mundo es como es porque de ser de otro modo no sería posible que un cerebro como el nuestro pudiese generalizar la realidad. Pero una vez aceptado ésto la poca "magia" que quedaba desaparece y ya no es tan sorprendente que nosotros hayamos podido imitar este asombroso comportamiento natural (esencial) de una manera "artificial" (usando silicio en lugar de carbono).
En resumen: que de misteriosa la moderna inteligencia artificial tiene más bien poco, lo mismo que de caja negra no tiene nada a parte de que nos cuesta poder seguir el rastro de las operaciones que se deben ejecutan en cada momento al procesar la información de entrada (limitación práctica). Y si hay algo de "mágico" en todo ésto, es el prodigioso hecho de que las leyes del mundo permiten que CUALQUIER objeto capaz de procesar cierto tipo de información siguiendo un cierto proceso algebraico concreto (recordemos que nuestro cerebro hace ésto mismo), obtiene automáticamente la capacidad para poder generalizar patrones fenomenológicos: es decir, que la verdadera fascinación de la IA se aplicaría también a todo sistema nervioso central en animales, y no sería otra cosa que el descubrir que con una cantidad finita de información y de procesado matemático ("estructura" algebraica operacional y números reales en el caso de la IA, estructura sináptica y umbrales de potenciales eléctricos en el caso biológico), es posible relacionar un conjunto (casi) infinito de entradas y salidas fenomenológicas.
Repitamos una vez más: la "magia" que parece rodear a la inteligencia artificial es extrapolable a nuestra propia inteligencia, y gira todo en torno al hecho de que la esencia de nuestra realidad genera lo que entendemos como fenómeno natural siguiendo unas leyes físicas tan concretas y restringidas, que hacen posible ¡a priori! que un procesado matemático de información finita (sin importar el sustratoque haga los cálculos) pueda conectar (relacionar) dos conjuntos casi infinitos de hechos naturales ¡simplemente mediante el uso de una función algebraica!
Ya luego, si este maravilloso hecho esencial (condición necesaria para que "funcione" Alpha Zero pero también para que "funcione" nuestro cerebro), es fruto de la casualidad, del principio antrópico, o si por contra tiene una base o sentido teleológico (o directamente teológico), es una cuestión que pertenece al mundo de la metafísica. Y en este sentido cada cual puede creer en lo que más le convenza. ¿Es más digerible la idea de una infinidad de Universos -con leyes naturales diversas- conviviendo en un multiverso? ¿Que sólo existe un mundo que es del modo en que es por casualidad? ¿O quizás que algún tipo de "Intencionalidad" trascendental afinó las leyes para que la cognición pudiera aparecer? Hoy por hoy es ésta una cuestión subjetiva que cada cual libremente puede racionalizar como mejor le convenga ya que no hay evidencia empírica que apoye o refute una postura de la contraria.
Yo personalmente apuesto por lo que Max Tegmark denominó como multiverso de nivel IV: una realidad matemática (platónica) donde todas las estructuras matemáticas realmente existen, siendo sólo en aquellas donde las leyes físicas (las matemáticas que la sustentan) son tales que permiten la generalización fenomenológica (esto es, la cognición) donde aparecen seres que se preguntan asombrados por su propia condición. Pero como digo, se trata de pura especulación.

Entradas populares de este blog

¡Más potencia!

«¡Es la guerra! ¡Traed madera! ¡Más madera!»  (Los hermanos Marx) Introducción. El mundo de las ciencias de la computación están estos días de enhorabuena, un nievo hito histórico acaba de acontecer: hablamos por supuesto del casi milagroso desarrollo de Google DeepMind denominado AlphaZero , un modelo neuronal capaz de aprender de manera autónoma no supervisada (sin apoyo de datos etiquetados ofrecidos por el hombre) a jugar con capacidades sobrehumanas a varios juegos milenarios como el Go y el ajedrez ( aquí podéis descargar el paper de este proyecto). DeepMind acaba de demostrar así que la metodología que utilizaron para que un modelo neuronal aprendiera (con capacidades sobrehumanas) por sí misma sin apoyo de datos humanos el juego de Go, es generalizable a cualquier otro tipo de juego o situación. En el arriba comentado paper nos explican por ejemplo como en 4 horas (sí, sólo 4 horas), la red neuronal fue capaz de aprender a jugar al ajedrez (entre otros juegos) con una ca...

Replicando el desarrollo de Google DeepMind: AlphaGo Zero

Previous versions of AlphaGo initially trained on thousands of human amateur and professional games to learn how to play Go. AlphaGo Zero skips this step and learns to play simply by playing games against itself, starting from completely random play. In doing so, it quickly surpassed human level of play and defeated the previously published champion-defeating version of AlphaGo by 100 games to 0. If similar techniques can be applied to other structured problems, such as protein folding, reducing energy consumption or searching for revolutionary new materials, the resulting breakthroughs have the potential to positively impact society.  (Profesor David Silver) Hace unos meses   Google DeepMind   hizo público uno de sus resultados más asombrosos: una versión del modelo neuronal que fue capaz de derrotar al campeón del mundo de   Go , solo que esta vez no necesitaron hacer uso de ningún aprendizaje supervisado de juegos entre humanos (hablé en este mismo blog en   ...