¿De dónde viene la inteligencia artificial?

Inteligencia artificial: el miedo no es un argumento

La medicina del siglo XXI se nutre de unos descubrimientos genéticos y embriológicos del XIX y la IA hunde sus raíces en la investigación secreta que bullía bajo las bombas durante la Segunda Guerra Mundial

Inteligencia artificial

Un usuario interactúa con una aplicación móvil para personalizar un avatar para el chatbot personal de inteligencia artificial Replika, en Varsovia (Polonia) el 22 de julio de 2023.JAAP ARRIENS (NURPHOTO/GETTY IMAGES)

[Esta pieza es una versión de uno de los envíos de la newsletter semanal de Tendencias de EL PAÍS, que sale todos los martes. Si quiere suscribirse, puede hacerlo a través de este enlace]

El conocimiento científico puede avanzar muy deprisa, pero sus efectos sociales, económicos y políticos suelen ser extraordinariamente lentos. La medicina del siglo XXI se nutre de unos descubrimientos genéticos y embriológicos del XIX. Nuestra tecnología actual se basa por entero en una física cuántica formulada hace un siglo. Y la inteligencia artificial (IA) de la que no paramos de hablar, ni pararemos, hunde sus raíces en la investigación secreta que bullía bajo las bombas durante la Segunda Guerra Mundial.

‌El matemático británico Alan Turing, que había ideado en 1935 un ordenador puramente conceptual, logró descifrar el código ‘Enigma’ que usaban los submarinos alemanes para sus comunicaciones, y después de la guerra introdujo los conceptos esenciales de la IA, incluido el de entrenar una red de neuronas artificiales. Benedict Cumberbatch hizo un buen Turing en Descifrando Enigma, óscar de guion adaptado en 2014. Y esa es justo la idea que subyace a la actual revolución de la IA.

‌Se llaman redes neurales, o neuronales, y consisten en varias capas de neuronas artificiales. Cada neurona recibe muchos inputs (aportaciones) de la capa inferior y emite un único output(producto resultante) a la capa superior, como hacen las muchas dendritas y el único axón de las neuronas naturales. Capa a capa, la información se va haciendo más abstracta, como ocurre en nuestro córtex (corteza cerebral) visual.

‌Las redes neurales existen desde hace décadas, pero la potencia de computación necesaria para añadir cada vez más capas solo se ha alcanzado en los últimos tiempos. Tiene algo de fuerza bruta, pero los resultados han sido espectaculares: reconocimiento de imágenes, interpretación del lenguaje hablado y, por supuesto, ChatGPT, el conversador digital de fama mundial.

‌El tipo de sistemas al que pertenece ChatGPT se llaman modelos grandes de lenguaje (large languaje models, LLM), o también “generativos”. Empiezan por darse un atracón de datos —tragarse toda la Wikipedia, por ejemplo— y los procesan con unas estrategias estadísticas muy simples, como ver qué palabras suelen aparecer al lado de qué otras. No es la brillantez de sus algoritmos, sino el poderío de su computación, lo que hace especiales a estos sistemas. Pero eso son las tripas del sistema.

‌Lo verdaderamente chocante es que, con una materia prima tan reconocidamente modesta, los modelos grandes de lenguaje han superado de largo el llamado test de Turing (aquí vuelve aquel genio pionero otra vez). Consiste en que un humano no sepa si se está comunicando con otra persona o con una máquina. ChatGPT y sus primos dan el pego. De hecho, hay gente investigando cómo se puede distinguir un texto de ChatGPT de uno humano, cuestión que preocupa comprensiblemente a maestros y profesoras, entre otros gremios como el mío, por poner un ejemplo tonto.

‌Tan valeroso en el juzgado como en la rotativa, el diario The New York Times se ha decidido a demandar a OpenAI (la firma creadora de ChatGPT) y a Microsoft (su principal accionista) con un argumento legal incisivo: estas empresas han engullido millones de artículos del diario neoyorkino para entrenar a unos robots que ahora pretenden competir con él. Hay más demandas del mismo estilo. Ni el New York Times ni ningún otro autor de contenidos de la red ha autorizado el uso de sus artículos para entrenar a un sistema de IA, ni nadie ha recibido una compensación por ello. Esto no solo nos afecta a los periodistas, sino también a guionistas, actores, novelistas, ensayistas y al resto de la gente que alimenta la red con sus textos.

‌Hablaremos de esto durante 2024 y siguientes, porque es una cuestión importante. Pero también hablaremos de la previsible cascada de aplicaciones de la IA que está a punto de anegar al mundo empresarial. En el año que acabamos de despedir, las acciones de Alphabet, Amazon, Apple, Meta, Microsoft y Nvidia se revalorizaron un 80%, y la principal razón es que vendieron sus modelos grandes de lenguaje (LLM) o las infraestructuras para mantenerlos a toda clase de empresas de sectores ajenos a la tecnología.

Estas firmas utilizarán esos sistemas durante 2024, como parece lógico. Ya se usan por todas partes para esbozar borradores de contratos y estrategias de mercado, y cada vez más para resumir los contenidos de las reuniones, de los documentos y demás cosas que hasta ahora daban trabajo a los Homo sapiens.

Según The Economist, las firmas de capital riesgo invirtieron el año pasado 36.000 millones de dólares (33.000 millones de euros) en IA generativa. Es el doble que el año anterior, y la tendencia va al alza. Los indicadores económicos predicen que habrá mucho trabajo para jóvenes formados en IA. Lo que no sabemos es si eso va a compensar la pérdida inevitable de otros empleos.

En cualquier caso, la velocidad de la evolución tecnológica es en sí misma un poderoso argumento para impulsar decididamente la formación continua de los trabajadores. Si es verdad que no queremos dejar atrás a nadie, esta es una excelente ocasión de demostrarlo, ¿no crees?

Share this post:

Relacionados
Category

Suscríbete a nuestro boletín exclusivo

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore