Los galardonados de este año utilizaron herramientas de la física para construir métodos que ayudaron a sentar las bases del potente aprendizaje automático actual. John Hopfield creó una estructura que puede almacenar y reconstruir información. Geoffrey Hinton inventó un método que puede descubrir de forma independiente propiedades en los datos y que se ha vuelto importante para las grandes redes neuronales artificiales que se utilizan actualmente.
Utilizaron la física para encontrar patrones en la información.
Muchas personas han experimentado cómo las computadoras pueden traducir entre idiomas, interpretar imágenes e incluso mantener conversaciones razonables. Lo que quizás sea menos conocido es que este tipo de tecnología ha sido importante durante mucho tiempo para la investigación, incluida la clasificación y el análisis de grandes cantidades de datos. El desarrollo del aprendizaje automático se ha disparado en los últimos quince a veinte años y utiliza una estructura llamada red neuronal artificial. Hoy en día, cuando hablamos de inteligencia artificial , a menudo nos referimos a este tipo de tecnología.
Aunque los ordenadores no pueden pensar, las máquinas pueden imitar funciones como la memoria y el aprendizaje. Los laureados de este año en física han contribuido a que esto sea posible. Utilizando conceptos y métodos fundamentales de la física, han desarrollado tecnologías que utilizan estructuras en redes para procesar información.
El aprendizaje automático se diferencia del software tradicional, que funciona como una especie de receta. El software recibe datos, los procesa según una descripción clara y produce los resultados, de forma similar a cuando alguien recoge ingredientes y los procesa siguiendo una receta para producir un pastel. En cambio, en el aprendizaje automático, el ordenador aprende con ejemplos, lo que le permite abordar problemas que son demasiado vagos y complicados para ser gestionados con instrucciones paso a paso. Un ejemplo es la interpretación de una imagen para identificar los objetos que contiene.
Imita el cerebro
Una red neuronal artificial procesa información utilizando toda la estructura de la red. La inspiración surgió inicialmente del deseo de comprender cómo funciona el cerebro. En la década de 1940, los investigadores habían comenzado a razonar sobre las matemáticas que subyacen a la red de neuronas y sinapsis del cerebro. Otra pieza del rompecabezas provino de la psicología, gracias a la hipótesis del neurocientífico Donald Hebb sobre cómo se produce el aprendizaje porque las conexiones entre neuronas se refuerzan cuando trabajan juntas.
Más tarde, a estas ideas les siguieron intentos de recrear el funcionamiento de la red cerebral mediante la construcción de redes neuronales artificiales como simulaciones por ordenador. En ellas, las neuronas del cerebro se imitan mediante nodos a los que se les asignan valores diferentes, y las sinapsis se representan mediante conexiones entre los nodos que pueden hacerse más fuertes o más débiles. La hipótesis de Donald Hebb todavía se utiliza como una de las reglas básicas para actualizar las redes artificiales mediante un proceso llamado entrenamiento .
A finales de los años 60, algunos resultados teóricos desalentadores hicieron que muchos investigadores sospecharan que estas redes neuronales nunca serían de utilidad real. Sin embargo, el interés por las redes neuronales artificiales se reavivó en los años 80, cuando varias ideas importantes tuvieron su impacto, incluido el trabajo de los galardonados de este año.
Memoria asociativa
Imagina que estás intentando recordar una palabra bastante inusual que rara vez utilizas, como por ejemplo la que designa ese suelo inclinado que se encuentra a menudo en los cines y las salas de conferencias. Buscas en tu memoria. Es algo así como rampa ... ¿quizás ra…dial ? No, eso no. Rake , ¡eso es!
Este proceso de búsqueda entre palabras similares para encontrar la correcta recuerda a la memoria asociativa que descubrió el físico John Hopfield en 1982. La red de Hopfield puede almacenar patrones y tiene un método para recrearlos. Cuando se le proporciona a la red un patrón incompleto o ligeramente distorsionado, el método puede encontrar el patrón almacenado que sea más similar.
Hopfield ya había utilizado su formación en física para explorar problemas teóricos de biología molecular. Cuando lo invitaron a una reunión sobre neurociencia, se topó con una investigación sobre la estructura del cerebro. Lo que aprendió le fascinó y empezó a pensar en la dinámica de las redes neuronales simples. Cuando las neuronas actúan juntas, pueden dar lugar a características nuevas y poderosas que no son evidentes para alguien que solo observa los componentes separados de la red.
En 1980, Hopfield dejó su puesto en la Universidad de Princeton, donde sus intereses de investigación lo habían llevado fuera de las áreas en las que trabajaban sus colegas en física, y se trasladó al otro lado del continente. Había aceptado la oferta de una cátedra de química y biología en Caltech (Instituto Tecnológico de California) en Pasadena, al sur de California. Allí, tenía acceso a recursos informáticos que podía utilizar para experimentar libremente y desarrollar sus ideas sobre redes neuronales.
Sin embargo, no abandonó sus bases en física, donde encontró inspiración para su comprensión de cómo los sistemas con muchos componentes pequeños que trabajan juntos pueden dar lugar a fenómenos nuevos e interesantes. En particular, le benefició haber aprendido sobre materiales magnéticos que tienen características especiales gracias a su espín atómico, una propiedad que convierte a cada átomo en un pequeño imán. Los espines de los átomos vecinos se afectan entre sí, lo que puede permitir que se formen dominios con espín en la misma dirección. Fue capaz de construir una red modelo con nodos y conexiones utilizando la física que describe cómo se desarrollan los materiales cuando los espines se influyen entre sí.
La red guarda imágenes en formato horizontal.
La red que construyó Hopfield tiene nodos que están conectados entre sí mediante conexiones de distinta intensidad. Cada nodo puede almacenar un valor individual; en el primer trabajo de Hopfield, este podía ser 0 o 1, como los píxeles de una imagen en blanco y negro.
Hopfield describió el estado general de la red con una propiedad que es equivalente a la energía en el sistema de espín que se encuentra en la física; la energía se calcula utilizando una fórmula que utiliza todos los valores de los nodos y todas las intensidades de las conexiones entre ellos. La red de Hopfield se programa mediante una imagen que se alimenta a los nodos, a los que se les asigna el valor de negro (0) o blanco (1).
Las conexiones de la red se ajustan luego utilizando la fórmula de energía, de modo que la imagen guardada tenga una energía baja. Cuando se alimenta otro patrón a la red, existe una regla para recorrer los nodos uno por uno y verificar si la red tiene una energía menor si se cambia el valor de ese nodo. Si resulta que la energía se reduce si un píxel negro es blanco en su lugar, cambia de color. Este procedimiento continúa hasta que es imposible encontrar más mejoras. Cuando se llega a este punto, la red a menudo ha reproducido la imagen original en la que fue entrenada.
Puede que esto no parezca tan sorprendente si solo guardas un patrón. Tal vez te preguntes por qué no guardas la imagen en sí y la comparas con otra imagen que se está probando, pero el método de Hopfield es especial porque se pueden guardar varias imágenes al mismo tiempo y la red generalmente puede diferenciarlas.
Hopfield comparó la búsqueda de un estado guardado en la red con el hecho de hacer rodar una pelota por un paisaje de picos y valles, con una fricción que ralentiza su movimiento. Si se deja caer la pelota en un lugar determinado, rodará hasta el valle más cercano y se detendrá allí. Si se le da a la red un patrón cercano a uno de los patrones guardados, seguirá avanzando de la misma manera hasta que termine en el fondo de un valle en el paisaje energético, encontrando así el patrón más cercano en su memoria. La red de Hopfield se puede utilizar para recrear datos que contienen ruido o que se han borrado parcialmente...................