Interminables lanzamientos de productos, golpes de efecto en las juntas directivas, intensos debates políticos y una carrera en busca del próximo gran éxito: ha sido un año ajetreado.
Este ha sido uno de los años más convulsos para la IA en mucho tiempo. Interminables lanzamientos de productos, golpes de efecto en los consejos de administración, intensos debates políticos sobre la fatalidad de la IA y una carrera por encontrar la próxima gran novedad. También hemos visto herramientas y políticas concretas destinadas a conseguir que el sector de la IA se comporte de forma más responsable y exija cuentas a los poderosos. Eso me da esperanzas para el futuro de la IA.
2023 me enseñó lo siguiente:
1. La IA generativa salió del laboratorio con fuerza, pero no está claro cuál será su próximo destino.
El año empezó con las grandes empresas tecnológicas apostando fuerte por la IA generativa. El éxito arrollador de ChatGPT de OpenAI llevó a todas las grandes corporaciones a lanzar su propia versión. Puede que 2023 pase a la historia como el año con más lanzamientos de IA: LLaMA 2 de Meta, Bard y Gemini de Google, el bot Ernie de Baidu, GPT-4 de OpenAI y algunos modelos más, incluido Mistral, un aspirante francés de código abierto.
Sin embargo, a pesar de la expectación inicial, no hemos visto ninguna app de IA que se haya convertido en un éxito de la noche a la mañana. Microsoft y Google lanzaron potentes búsquedas basadas en IA, pero resultaron ser más un fracaso que una killer app. Los defectos fundamentales de los modelos lingüísticos, como la invención de datos, provocaron algunas meteduras de pata embarazosas. Y, seamos sinceros, son divertidísimas. Bing, de Microsoft, respondía con frecuencia a las preguntas de los usuarios con teorías conspirativas y sugirió a un periodista del New York Times que dejara a su mujer. Bard, de Google, generaba respuestas incorrectas para su campaña de marketing, lo que supuso un descenso de 100.000 millones de dólares (91.120 millones de euros) en el precio de las acciones de la empresa.
Ahora, hay una frenética búsqueda de un producto de IA popular que todo el mundo quiera adoptar. Tanto OpenAI como Google experimentan con permitir que empresas y desarrolladores creen chatbots de IA personalizados y dejen que las personas creen sus propias aplicaciones con IA, sin necesidad de conocimientos sobre codificación. Quizá la IA generativa acabe integrada en herramientas aburridas pero útiles que nos ayuden a aumentar nuestra productividad en el trabajo. Podría adoptar la forma de los asistentes de IA, quizá con capacidades de voz, y soporte de codificación. 2024 será crucial para determinar el valor real de la IA generativa.
2. Hemos aprendido mucho sobre el funcionamiento real de los modelos lingüísticos, pero aún sabemos muy poco.
Aunque las empresas tecnológicas ya están introduciendo grandes modelos lingüísticos en sus productos a un ritmo frenético, todavía hay muchos aspectos que no sabemos sobre su funcionamiento. Inventan tecnologías, y tienen graves sesgos raciales y de género. En 2023, también hemos descubierto que los distintos modelos lingüísticos generan textos con diferentes sesgos políticos y son herramientas excelentes para piratear la información privada de las personas. A los modelos de texto a imagen pueden pedirse imágenes protegidas por derechos de autor y fotos de personas reales, y pueden ser engañados con facilidad para generar imágenes perturbadoras. Ha sido estupendo que se hayan investigado los defectos de estos modelos, porque podría acercarnos a entender por qué se comportan como lo hacen y, en última instancia, solucionarlos.
Los modelos generativos pueden ser impredecibles, y en 2023 hubo muchos intentos para que se comporten como sus creadores quieren. OpenAI compartió que emplea la técnica de aprendizaje por refuerzo a partir de la retroalimentación humana, así utiliza las respuestas de los usuarios para guiar a ChatGPT hacia conclusiones más deseables. Un estudio de Anthropic, el laboratorio de IA, demostró cómo unas sencillas instrucciones en lenguaje natural pueden dirigir a los grandes modelos lingüísticos para que sus resultados sean menos tóxicos. Por desgracia, muchos de estos intentos acaban siendo soluciones rápidas y no permanentes. También hay enfoques erróneos, como prohibir palabras aparentemente inocuas, como placenta, en los sistemas de IA generadores de imágenes para evitar el morbo. Las empresas tecnológicas inventan este tipo de soluciones porque no saben por qué los modelos generan este contenido que generan.
También hemos podido conocer mejor la verdadera huella de carbono de la IA. Los investigadores de Hugging Face, la empresa de IA, y la Universidad Carnegie Mellon (Pensilvania, EE UU) han descubierto que generar una imagen con un potente modelo de IA consume tanta energía como cargar un smartphone. Hasta ahora, la cantidad exacta de energía que utiliza la IA generativa había sido una pieza faltante en el rompecabezas. Una investigación mayor sobre este tema podría ayudarnos a cambiar la forma en que utilizamos la IA para que sea más sostenible.
3. La fatalidad de la IA se generalizó.
Las conversaciones sobre la posibilidad de que la IA suponga un riesgo existencial para los humanos han sido cada vez más familiares durante este año. Cientos de científicos, líderes empresariales y responsables políticos se han pronunciado al respecto, desde Geoffrey Hinton y Yoshua Bengio -pioneros del aprendizaje profundo- hasta los CEO de las principales empresas de IA, como Sam Altman y Demis Hassabis. E incluso Ted Lieu, el congresista californiano, y Kersti Kaljulaid, la expresidenta de Estonia.
El riesgo existencial se ha convertido en uno de los mayores memes de la IA. La hipótesis es que un día construiremos una IA mucho más inteligente que los humanos, que podría acarrear graves consecuencias. Es una ideología defendida por muchos en Silicon Valley, incluido Ilya Sutskever, científico jefe de OpenAI, que desempeñó un papel fundamental en la destitución de Sam Altman, CEO de OpenAI (y su reincorporación unos días después).
Sin embargo, no todos están de acuerdo con esta idea. Yann LeCun y Joelle Pineau, líderes de IA de Meta, aseguraron que estos temores son "ridículos" y que la conversación sobre los riesgos de la IA se ha "desquiciado". Otros protagonistas de la IA, como la investigadora Joy Buolamwini, afirman que centrarse en riesgos hipotéticos distrae de los daños reales que la IA está causando hoy en día.
No obstante, la creciente atención sobre el potencial de la tecnología para causar daños extremos ha suscitado muchas conversaciones importantes sobre la política de la IA y animó a legisladores de todo el mundo a tomar medidas.
4. Llega a su fin la época de Salvaje Oeste de la IA.
Gracias a ChatGPT, todo el mundo, desde el Senado de EE UU hasta el G7, ha hablado este año de política y regulación de la IA. A principios de diciembre, los legisladores europeos cerraron un ajetreado año político con la aprobación de la Ley de Inteligencia Artificial, que introducirá normas y estándares vinculantes sobre cómo desarrollar la IA más arriesgada de forma más responsable. También prohibirá ciertas aplicaciones "inaceptables" de la IA, como el uso policial del reconocimiento facial en lugares públicos.
Por su parte, la Casa Blanca presentó una orden ejecutiva sobre la IA, además de los compromisos voluntarios de las principales empresas de IA. Sus esfuerzos pretendían aportar más transparencia y normas para la IA, y daban mucha libertad a las agencias para adaptar las normas a sus sectores.
Una propuesta concreta sobre las marcas de agua suscitó mucha atención, es decir, señales invisibles en textos e imágenes que pueden ser detectadas por los ordenadores para señalar los contenidos generados por IA. Podrían utilizarse para rastrear plagios o ayudar a combatir la desinformación, y este año hemos visto investigaciones que han conseguido aplicarlas a textos e imágenes generados por IA.
No solo los legisladores estuvieron ocupados, sino también los abogados. Hemos asistido a un número récord de demandas, ya que artistas y escritores han alegado que las empresas de IA habían desechado su propiedad intelectual sin su consentimiento y sin compensación alguna. En una interesante contraofensiva, investigadores de la Universidad de Chicago (EE UU) desarrollaron Nightshade, una nueva herramienta que envenena los datos y que permite a los artistas defenderse de la IA generativa al alterar los datos de entrenamiento de forma que puedan causar graves daños a los modelos de IA generadores de imágenes. Se está gestando una resistencia, y espero que en 2024 haya más esfuerzos estructurales para cambiar el equilibrio de poder de la tecnología.
Aprendizaje aún más profundo
Ahora sabemos qué ha estado haciendo el equipo de Superalineación de OpenAI.
OpenAI ha anunciado los primeros resultados de su equipo de Superalineación, su iniciativa interna dedicada a evitar que una superinteligencia -una hipotética IA futura que pueda ser más inteligente que los humanos- se vuelva maliciosa. El equipo está dirigido por el científico jefe Ilya Sutskever, que formó parte del grupo que despidió a Sam Altman, CEO de OpenAI, en noviembre para restituirlo pocos días después.
A diferencia de muchos de los anuncios de la empresa, este no cuenta ningún gran avance. En un artículo de investigación bajo el radar, el equipo describe una técnica que permite a un modelo lingüístico menos potente supervisar a otro con mayor potencia, y sugiere que podría ser un pequeño paso hacia la forma en que los humanos podrían supervisar a las máquinas sobrehumanas. Más información gracias a Will Douglas Heaven.
Bits y Bytes
Google DeepMind utilizó un gran modelo lingüístico para dar respuesta a un problema matemático irresoluble
En un artículo publicado en Nature, la compañía afirma que es la primera vez que se ha utilizado un gran modelo lingüístico para descubrir la solución a un enigma científico de larga data, produciendo nueva información verificable y valiosa que no existía previamente.
(MIT Technology Review)
Este nuevo sistema puede enseñar a un robot una sencilla tarea doméstica en 20 minutos
Dobb-E, un nuevo sistema de código abierto se entrenó con datos recogidos en hogares reales. Puede ayudar a enseñar a un robot a abrir una freidora de aire, cerrar una puerta o enderezar un cojín, entre otras tareas. También podría ayudar al campo de la robótica a superar uno de sus mayores retos: la falta de datos de entrenamiento.
(MIT Technology Review)
ChatGPT está convirtiendo internet en fontanería
El gigante alemán de los medios de comunicación Axel Springer, propietario de Politico y Business Insider, anunció una asociación con OpenAI, en la que la empresa tecnológica podrá utilizar sus artículos de noticias como datos de entrenamiento y las organizaciones de noticias podrán utilizar ChatGPT para hacer resúmenes de las noticias. Esta columna tiene un punto inteligente: las empresas tecnológicas se están convirtiendo cada vez más en guardianes de los contenidos online, y el periodismo solo es "fontanería para un grifo digital".
(The Atlantic)
Conozca al ex funcionario francés que aboga por normas más laxas para la IA tras unirse a la startup Mistral
Un perfil de Cédric O, el cofundador de Mistral AI, que fue ministro digital de Francia. Antes de unirse al unicornio francés de IA, era un firme defensor de leyes estrictas para la tecnología, pero presionó con fuerza contra las normas de la Ley de IA que habrían restringido los modelos de Mistral, y tuvo éxito. Los modelos de la empresa no alcanzan el umbral de computación establecido por la ley, y sus modelos de código abierto también están exentos de las obligaciones de transparencia. (Bloomberg)