“Padres” de IA
En 1985 dos científicos vislumbraron el potencial de las redes neuronales. Hoy son “los padres de la IA” y Premio Nobel.
En 1956 un grupo de científicos, matemáticos y pensadores se reunieron en el Darmouth College. Entre ellos estaban Marvin Minsky, Claude Shannon o John Nash —el de ‘Una mente maravillosa’— se reunieron para hablar de una disciplina totalmente nueva. Ahora esas dos palabras están por todas partes, pero en aquel momento sonaban extrañas y utópicas.
John Hopfield y Geoffrey Hinton, galardonados por sus aportes a la inteligencia artificial
Historia
En 1956 un grupo de científicos, matemáticos y pensadores se reunieron en el Darmouth College. Entre ellos estaban Marvin Minsky, Claude Shannon o John Nash —el de ‘Una mente maravillosa’— se reunieron para hablar de una disciplina totalmente nueva.
El nombre IA (AI en inglés) se le ocurrió a John McCarthy, un joven profesor de aquella institución que trabajó durante un año en organizar ese ciclo de reuniones. Todos los que participaron en ese congreso salieron entusiasmados con el proyecto de crear una inteligencia artificial, aunque acabarían darse de bruces con una realidad terrible: se habían adelantado a su tiempo. La capacidad de computación de la época no permitía resolver los grandes retos de la IA.
Ese problema permitía por ejemplo interpretar imágenes y que una máquina pudiese reconocer lo que mostraba una imagen. Que un perro era un perro o un humano un humano, por ejemplo. El trabajo en ese campo evolucionó de forma errática, pero en 1982 pasó algo.
Ese año John Hopfield, físico teórico —nacido en 1933, e hijo de dos físicos teóricos— publicó un trabajo sobre un modelo de una memoria asociativa basada en una red neuronal recurrente. Los conceptos que manejó estaban muy ligados al campo de la física a pesar de aplicarse al ámbito de la computación —en concreto, a la descripción de materiales magnéticos—, y Hopfield tenía eso muy claro.
Su idea era singular y permitía que un sistema inicializado con un patrón incorrecto —por ejemplo, una palabra mal deletreada— acababa “atraído por un nodo “de mínima energía” de la red neuronal, lo que daba como resultado la corrección del sistema —que la palabra resultado fuese escrita correctamente—.
La idea acabó desembocando en un trabajo de Hopfield y David Tank de 1986. En él proponían un sistema que resolvía problemas complejos inspirado en cómo se comportan los sistemas físicos a lo largo del tiempo.
En el “modelo analógico”, como lo llamaban, en lugar de trabajar con números (ceros y unos) y ordenadores, usaban un sistema que cambiaba de forma suave, gradual y continua. Codificaban el problema con una red en la que las conexiones entre las distintas partes de la red tenían ciertos pesos y eso guiaba al sistema a lograr la mejor solución. Según la Real Academia Sueca de Ciencias, “Hopfield hizo una contribución fundacional a nuestro entendimiento de las capacidades computacionales de las redes neuronales”.
Precisamente para “redondear” el trabajo de Hopfield fue crucial la labor de Geoffrey Hinton, que entre 1983 y 1985 trabajó con Terrence Sejnowski y otros investigadores para desarrollar una extensión estocástica (probabilística) del modelo de Hopfield de 1982. Lo llamó la máquina de Boltzmann, y tenía una peculiaridad que seguro que nuestros lectores captan fácilmente:
Era un modelo generativo.
En eso se diferenciaba del modelo de Hopfield. Aquí Hinton se centraba en distribuciones estadísticas de patrones, y no en patrones individuales. Su máquina de Boltzmann —también una red neuronal recurrente— contenía nodos visibles que se correspondían con los patrones que debían ser “aprendidos”. El sistema trata de aprender cómo de buenas o malas son las distintas soluciones al resolver al problema, no se centra en una única solución exacta.


