Ir al contenido principal

Sobre el mito de la caja negra en el campo de la inteligencia artificial

En relación a esta buena entrada de Santiago donde trata el hito que DeepMind ha logrado con el sistema de inteligencia artificial Alpha Zero, me gustaría comentar algo sobre la cuestión que más se malinterpreta actualmente de la moderna IA: ¿es cierto que no sabemos cómo hace lo que hace? ¿Se trata realmente de una misteriosa caja negra inexpugnable?
Pues bien, la respuesta es no y no. Sabemos perfectamente (los que se dedican e investigan en este campo) por qué la moderna IA hace lo que hace y cómo lo hace. Y lo de "la caja negra" pues...sencillamente es un mito sensacionalista. Todo el machine learning actual (Alpha Zero incluido) es el resultado de procesos matemáticos algebraicos trabajando sobre números reales. Más en concreto, millones de operaciones de sumas y multiplicaciones tensoriales sobre un conjunto de (millones) de números reales almacenados en un fichero para tal fin. Como veis no hay misterio ni "magia" por ninguna parte.
Y tampoco hay de momento misterio en por qué esos números y no otros (diferentes conjuntos de números aplicados a estructuras algebraicas distintas producen finalmente un resultado casi idéntico). Hay que entender que el entrenamiento de una red neuronal (en todas sus variantes), consiste simplemente en ajustar (derivar o modificar) poco a poco números reales sobre un (estático) "molde" operacional (algrebráico) concreto de modo que finalmente se logra encontrar una función (matemática) que permite correlacionar muy bien un gran (casi infinito) conjunto de entradas (información fenomenológica), con un gran (casi infinito) conjunto de salida (lo que se entiende como generalización). Este proceso de ajuste (entrenamiento) utiliza una cantidad de información finita, por un periodo de tiempo finito, con un hardware muy limitado, y trabaja sobre una estructura algebraica (red neuronal) finita ¡y sin embargo conseguimos como resultado encontrar una función matemáticacapaz de relacionar con poco margen de error los elementos de dos subconjuntos de fenómenos (casi) infinitos!
Es decir, que si hay de verdad en el campo de la IA algo que podamos llamar misterioso, no es otra cosa que el hecho de observar (con asombro) cómo es posible que nuestro mundo funcione de modo tal que una larga cadena de operaciones algebraicas con una cantidad limitada y finita de constantes numéricas (una vez entrenada la red, los números ya no cambian) pueda aprehender un patrón capaz de relacionar dos subconjuntos fenomenológicos (casi) infinitos de entradas y salidas. ¡Sin embargo esto mismo se puede aplicar igualmente a nuestro propio cerebro y a nuestra propia cognición!...lo cual trae sin duda a cuento al socorrido principio antrópico: el mundo es como es porque de ser de otro modo no sería posible que un cerebro como el nuestro pudiese generalizar la realidad. Pero una vez aceptado ésto la poca "magia" que quedaba desaparece y ya no es tan sorprendente que nosotros hayamos podido imitar este asombroso comportamiento natural (esencial) de una manera "artificial" (usando silicio en lugar de carbono).
En resumen: que de misteriosa la moderna inteligencia artificial tiene más bien poco, lo mismo que de caja negra no tiene nada a parte de que nos cuesta poder seguir el rastro de las operaciones que se deben ejecutan en cada momento al procesar la información de entrada (limitación práctica). Y si hay algo de "mágico" en todo ésto, es el prodigioso hecho de que las leyes del mundo permiten que CUALQUIER objeto capaz de procesar cierto tipo de información siguiendo un cierto proceso algebraico concreto (recordemos que nuestro cerebro hace ésto mismo), obtiene automáticamente la capacidad para poder generalizar patrones fenomenológicos: es decir, que la verdadera fascinación de la IA se aplicaría también a todo sistema nervioso central en animales, y no sería otra cosa que el descubrir que con una cantidad finita de información y de procesado matemático ("estructura" algebraica operacional y números reales en el caso de la IA, estructura sináptica y umbrales de potenciales eléctricos en el caso biológico), es posible relacionar un conjunto (casi) infinito de entradas y salidas fenomenológicas.
Repitamos una vez más: la "magia" que parece rodear a la inteligencia artificial es extrapolable a nuestra propia inteligencia, y gira todo en torno al hecho de que la esencia de nuestra realidad genera lo que entendemos como fenómeno natural siguiendo unas leyes físicas tan concretas y restringidas, que hacen posible ¡a priori! que un procesado matemático de información finita (sin importar el sustratoque haga los cálculos) pueda conectar (relacionar) dos conjuntos casi infinitos de hechos naturales ¡simplemente mediante el uso de una función algebraica!
Ya luego, si este maravilloso hecho esencial (condición necesaria para que "funcione" Alpha Zero pero también para que "funcione" nuestro cerebro), es fruto de la casualidad, del principio antrópico, o si por contra tiene una base o sentido teleológico (o directamente teológico), es una cuestión que pertenece al mundo de la metafísica. Y en este sentido cada cual puede creer en lo que más le convenza. ¿Es más digerible la idea de una infinidad de Universos -con leyes naturales diversas- conviviendo en un multiverso? ¿Que sólo existe un mundo que es del modo en que es por casualidad? ¿O quizás que algún tipo de "Intencionalidad" trascendental afinó las leyes para que la cognición pudiera aparecer? Hoy por hoy es ésta una cuestión subjetiva que cada cual libremente puede racionalizar como mejor le convenga ya que no hay evidencia empírica que apoye o refute una postura de la contraria.
Yo personalmente apuesto por lo que Max Tegmark denominó como multiverso de nivel IV: una realidad matemática (platónica) donde todas las estructuras matemáticas realmente existen, siendo sólo en aquellas donde las leyes físicas (las matemáticas que la sustentan) son tales que permiten la generalización fenomenológica (esto es, la cognición) donde aparecen seres que se preguntan asombrados por su propia condición. Pero como digo, se trata de pura especulación.

Entradas populares de este blog

Evidencia a favor de la teoría de Jeremy England (usando computación evolutiva)

"You start with a random clump of atoms, and if you shine light on it for long enough, it should not be so surprising that you get a plant." Jeremy England (2014), interview commentary with Natalie Wolchover Hace ya un mes que terminé de estudiar a fondo el interesante trabajo que el físico  Jeremy England  está realizando en el  MIT (Massachusetts Institute of Technology) . En mi blog he divulgado todo lo referente a este trabajo con mucho nivel de detalle, siendo esta entrada un compendio de todo lo que el trabajo cuenta. La idea de esta línea de investigación viene a decir, a grosso modo , que la física de nuestro mundo mantiene una relación implícita entre complejidad y energía . Esta relación indica que, cuanto más complejo es un fenómeno, más energía debe disiparse de modo que crezca la probabilidad de que tal fenómeno finalmente acontezca. Esta teoría de Jeremy parte, y se deduce, de una base termodinámica y de mecánica estadística ya establecida, por lo que sus concl

Aprendizaje automático mediante Deep Q Ntework (DQN + TensorFlow)

"[Las neuronas son] células de formas delicadas y elegantes, las misteriosas mariposas del alma, cuyo batir de alas quién sabe si esclarecerá algún día el secreto de la vida mental."  (Ramón y Cajal) Introducción. Este artículo es una continuación de mi entrada anterior "Las matemáticas de la mente" [2]. Vimos en ese artículo cómo era posible que un simple algoritmo de computación pudiese imitar el modo en que nuestro cerebro aprende a realizar tareas con éxito, simplemente a partir del equivalente computacional de una red neuronal. Sin embargo, a pesar de que en dicha entrada os comentaba el caso de cómo se puede programar un algoritmo capaz de conseguir  literalmente,  aprender a jugar al Conecta4 (4 en raya) sin especificar ( pre-programar ) en ningún momento las reglas del juego; es posible que muchos notasen que aún así, todavía había que pre-procesar la entrada de la red neuronal para ofrecerle a las neuronas (nodos) de la capa de entrada ( inputs ) qué ficha

Aprendizaje autónomo por computación evolutiva (Conecta 4)

"[Las neuronas son] células de formas delicadas y elegantes, las misteriosas mariposas del alma, cuyo batir de alas quién sabe si esclarecerá algún día el secreto de la vida mental."  (Ramón y Cajal) Introducción. Dibujo de Ramón y Cajal de las células del cerebelo de un pollo,  mostrado en "Estructura de los centros nerviosos de las aves", Madrid, 1905. Dos noticias muy importantes que han tenido lugar estas últimas semanas en el campo de la neurociencia y la inteligencia artificial (de las cuales me hice eco en este mismo blog: aquí [1][2] y  aquí [3]), me hizo recordar un trabajo de computación que hice allá por el 2011 cuando inicié el doctorado en ingeniería (el cual por cierto aún no terminé, y que tengo absolutamente abandonado :( Ya me gustaría tener tiempo libre para poder retomarlo; porque además odio dejar las cosas a medias). Pues bien, el trabajo original[4] (que he mejorado) consistía en ser el desarrollo de un algoritmo capaz de aprender a jugar a