“Padres” de IA

En 1985 dos científicos vislumbraron el potencial de las redes neuronales. Hoy son “los padres de la IA” y Premio Nobel.

 

En 1956 un grupo de científicos, matemáticos y pensadores se reunieron en el Darmouth College. Entre ellos estaban Marvin Minsky, Claude Shannon o John Nash —el de ‘Una mente maravillosa’— se reunieron para hablar de una disciplina totalmente nueva. Ahora esas dos palabras están por todas partes, pero en aquel momento sonaban extrañas y utópicas.

 

 

 

John Hopfield y Geoffrey Hinton, galardonados por sus aportes a la inteligencia artificial

Historia

En 1956 un grupo de científicos, matemáticos y pensadores se reunieron en el Darmouth College. Entre ellos estaban Marvin Minsky, Claude Shannon o John Nash —el de ‘Una mente maravillosa’— se reunieron para hablar de una disciplina totalmente nueva

El nombre IA (AI en inglés) se le ocurrió a John McCarthy, un joven profesor de aquella institución que trabajó durante un año en organizar ese ciclo de reuniones. Todos los que participaron en ese congreso salieron entusiasmados con el proyecto de crear una inteligencia artificial, aunque acabarían darse de bruces con una realidad terrible: se habían adelantado a su tiempo. La capacidad de computación de la época no permitía resolver los grandes retos de la IA.

Ese problema permitía por ejemplo interpretar imágenes y que una máquina pudiese reconocer lo que mostraba una imagen. Que un perro era un perro o un humano un humano, por ejemplo. El trabajo en ese campo evolucionó de forma errática, pero en 1982 pasó algo.

Ese año John Hopfield, físico teórico —nacido en 1933, e hijo de dos físicos teóricos— publicó un trabajo sobre un modelo de una memoria asociativa basada en una red neuronal recurrente. Los conceptos que manejó estaban muy ligados al campo de la física a pesar de aplicarse al ámbito de la computación —en concreto, a la descripción de materiales magnéticos—, y Hopfield tenía eso muy claro.

Su idea era singular y permitía que un sistema inicializado con un patrón incorrecto —por ejemplo, una palabra mal deletreada— acababa “atraído por un nodo “de mínima energía” de la red neuronal, lo que daba como resultado la corrección del sistema —que la palabra resultado fuese escrita correctamente—.

La idea acabó desembocando en un trabajo de Hopfield y David Tank de 1986. En él proponían un sistema que resolvía problemas complejos inspirado en cómo se comportan los sistemas físicos a lo largo del tiempo.

En el “modelo analógico”, como lo llamaban, en lugar de trabajar con números (ceros y unos) y ordenadores, usaban un sistema que cambiaba de forma suave, gradual y continua. Codificaban el problema con una red en la que las conexiones entre las distintas partes de la red tenían ciertos pesos y eso guiaba al sistema a lograr la mejor solución. Según la Real Academia Sueca de Ciencias, “Hopfield hizo una contribución fundacional a nuestro entendimiento de las capacidades computacionales de las redes neuronales”.

Precisamente para “redondear” el trabajo de Hopfield fue crucial la labor de Geoffrey Hinton, que entre 1983 y 1985 trabajó con Terrence Sejnowski y otros investigadores para desarrollar una extensión estocástica (probabilística) del modelo de Hopfield de 1982. Lo llamó la máquina de Boltzmann, y tenía una peculiaridad que seguro que nuestros lectores captan fácilmente:

Era un modelo generativo.

En eso se diferenciaba del modelo de Hopfield. Aquí Hinton se centraba en distribuciones estadísticas de patrones, y no en patrones individuales. Su máquina de Boltzmann —también una red neuronal recurrente— contenía nodos visibles que se correspondían con los patrones que debían ser “aprendidos”. El sistema trata de aprender cómo de buenas o malas son las distintas soluciones al resolver al problema, no se centra en una única solución exacta.

 

NotebookLM

La herramienta es una fantástica forma de aprender y entender mejor todo tipo de temas a partir de los documentos y fuentes que nosotros elegimos

 La herramienta es una fantástica forma de aprender y entender mejor todo tipo de temas a partir de los documentos y fuentes que nosotros elegimos

Su propio nombre apuntaba a su objetivo: convertirse en una especie de cuaderno de apuntes potenciado por el aprendizaje automático, o lo que es lo mismo, la inteligencia artificial. El proyecto pasó desapercibido durante meses, pero la última de sus funciones lo ha convertido en la última sensación de la IA.

 

Un profesor particular a tu alcance. La introducción de documentos también permite usar NotebookLM como un profesor particular: podemos hacerle preguntas sobre todos esos contenidos si no entendemos algo, pero también podremos pedirle que nos haga preguntas para ver si lo hemos entendido todo bien. Así, si metemos el temario de un examen, luego podemos pedirle que nos haga preguntas para repasar ese examen.

Pregunta y obtendrás respuesta. Una, y otra, y otra vez. Fijaos en los pequeños botones con números: NotebookLM siempre enlaza a la fuente de donde saca esa información.

Energía nuclear e IA

Amazon, Google y Microsoft están apostando el futuro de la IA a la energía nuclear.

  Y si hay algo que necesite la IA —aparte de datos para entrenarla, claro— es energía. Mucha energía. Las grandes empresas tecnológicas lo están descubriendo a la fuerza. Sus gigantescas inversiones en nuevos centros de datos obligan a un suministro colosal, y muchas de ellas ya tienen claro cómo solucionarlo. Con energía nuclear.

Cambios en la demanda energética por región, 2022 – 2026. Fuente: IEA.

Diferenciar el contenido IA en Internet es cada vez más difícil. La solución pasa por algo similar a los filetes

 

C2PA. La llamada Coalition for Content Provenance and Authenticity (C2PA) se ha convertido en una de las opciones más interesantes para ofrecer algo cada vez más importante: información sobre el origen de una imagen. La trazabilidad que la tecnología posibilita en muchas industrias —es posible seguirle la pista a ese filete que te comiste ayer gracias a ella— es una prometedora opción para los contenidos que inundan internet.

Etiquetas con un montón de información. Las tecnologías de C2PA —con la especificación Content Credentials a la cabeza— permiten añadir una especie de “etiquetas” a los contenidos, metadatos que permiten revelar su origen, pero también todas las etapas por las que esos contenidos han pasado. No solo cómo han sido creados —¿una captura de una cámara? ¿un prompt de IA?— sino cuándo, quién y cómo las modificó —¿alguien la subió a Instagram aplicando un filtro? ¿Alguien la editó con el editor mágico de Android, borró objetos y puso un cielo distinto?—.

Son (de momento) invisibles, pero muy completas. Esas etiquetas pueden ser luego consultadas con una sencilla aplicación que nos “chivará” todo sobre la imagen: tanto su procedencia como sus posibles variantes. Uno esperaría una especie de “sello” identificativo por ejemplo para imágenes generadas por IA que permitiera rápidamente comprobar su origen, pero de momento esa visibilidad no existe.

 

En su propio blog Character.AI indica cómo ya en junio de 2024 servían 20.000 peticiones por segundo. Eso, afirman, es más o menos un 20% de las peticiones que el buscador de Google recibe por segundo. Da una buena medida de la popularidad de un servicio que ha demostrado lo mucho que ha evolucionado esta tecnología.

Lo ha hecho además en un momento clave: los móviles y las redes sociales nos ido aislando más, pero desde la pandemia la sensación de soledad parece más acusada. Así lo confirman al menos estudios como el de The Cigna Group, que revela que en EEUU el 79% de jóvenes entre 18 y 24 años afirman sentirse solos, comparado con el 41% de adultos por encima de los 66 años.

La realidad es que lo que estamos viviendo es en cierta forma una extensión de lo que ya hemos vivido con las redes sociales. Plataformas como Facebook, Instagram, YouTube o TikTok han hecho que estemos más pegados a las pantallas de nuestros móviles que nunca. Los más jóvenes han sufrido también los efectos nocivos de tales servicios. Hasta la propia Facebook reconoció que Instagram era tóxico para los adolescentes, y TikTok también sabe muy bien que su algoritmo genera adicción entre los jóvenes y hace poco por evitarlo.