Ir al contenido principal

Revisión del ejemplo I de computación evolutiva


Acabo de terminar de convertir este ejemplo de computación evolutiva que realicé hace años, pero de modo que no sea necesario utilizar ya un Applet de Java. Ahora el algoritmo se ejecuta exclusivamente mediante el intérprete de Javascript del navegador.

Además he mejorado el algoritmo original, de modo que ahora es posible interpolar funciones de dos variables (y no sólo de una como en el ejemplo original). Es decir; que el siguiente programa aproxima numéricamente la interpolación de funciones con dos variables mediante el uso de un algoritmo de computación evolutiva:



Para más detalles técnicos del funcionamiento del algoritmo podéis visitar el enlace con el ejemplo original. Y si necesitas el código fuente de esta revisión con Javascript nativo, déjame tu correo en un comentario en esta misma entrada y te lo mandaré.

Entradas populares de este blog

LeelaFish: cómo usar una red neuronal para sustituir la mejor función de evaluación de ajedrez hecha a mano por programadores humanos

LeelaFish UCI chess playing engine derived from Stockfish and LeelaChess Zero:  https://github.com/LeelaChessZero ,  https://github.com/official-stockfish/Stockfish Introduction This is a chess engine based in the Stockfish tree search but where we use the LCZero value head as evaluation function. So in this project we are just using the Stockfish code but replacing the human developed evaluation function for the neural network value head of the LeelaChess Zero project. This is a kind of experiment in which we try to figure out if the results are good even without the use of the MCTS LCZero does. Results Results are very promising and in a 1:1 ratio (when the number of nodes used by the original Stockfish or LCZero are forced to be equal to the number of nodes used by LeelaFish ) our development is able to beat both SF and LCZero. We used for these tests the LCZero network tesnet 10510. One thing is clear: the value head of the network is as good as the orig...

Random memory adaptation model inspired by the paper: "Memory-based parameter adaptation (MbPA)"

Os dejo a continuación el contenido de un trabajo de investigation sobre machine learning que he realizado en mi escaso tiempo libre: https://github.com/Zeta36/random-memory-adaptation ------------------------------------------------------------------------------------------------------------------------------------------------------------------ Introduction. I present in this repository a (very simple) random memory adaptation model (RMA) inspired by the Google DeepMind paper: "Memory-based parameter adaptation (MbPA)" ( https://arxiv.org/pdf/1802.10542.pdf ) In the paper, point 4.1. CONTINUAL LEARNING: SEQUENTIAL DISTRIBUTIONAL SHIFT (inside experiments and results), they study the improvements their model suppose in relation to the catastrophic forgetting problem. They explored the effects of their model (MbPA) on continual learning, i.e. when dealing with the problem of sequentially learning multiple tasks without the ability to revisit a task. For this purposed they use...

Replicando el desarrollo de Google DeepMind: AlphaGo Zero

Previous versions of AlphaGo initially trained on thousands of human amateur and professional games to learn how to play Go. AlphaGo Zero skips this step and learns to play simply by playing games against itself, starting from completely random play. In doing so, it quickly surpassed human level of play and defeated the previously published champion-defeating version of AlphaGo by 100 games to 0. If similar techniques can be applied to other structured problems, such as protein folding, reducing energy consumption or searching for revolutionary new materials, the resulting breakthroughs have the potential to positively impact society.  (Profesor David Silver) Hace unos meses   Google DeepMind   hizo público uno de sus resultados más asombrosos: una versión del modelo neuronal que fue capaz de derrotar al campeón del mundo de   Go , solo que esta vez no necesitaron hacer uso de ningún aprendizaje supervisado de juegos entre humanos (hablé en este mismo blog en   ...