Repasamos lo que ha sucedido y lo que está por venir en el sector de la inteligencia artificial
OpenAI, ¿estás bien, cielo? Este fin de semana ha sido una pesadilla en el mundo de la IA. El Consejo de Administración de OpenAI, la empresa de IA más puntera del mundo, sorprendió al mundo al despedir a Sam Altman, su CEO. Un giro de guion sobre la seguridad de la IA, el caos y el nuevo trabajo de Altman en Microsoft.
Si ha desconectado este fin de semana, mi colega Will Douglas Heaven y yo le contamos lo que se ha perdido y lo que se avecina en el sector de la IA.
¿Qué ha pasado?
Viernes 17 de noviembre por la tarde
Sam Altman fue convocado a una reunión de Google Meet en la que Ilya Sutskever, director científico de la empresa, anunció que el consejo de OpenAI había decidido que Altman "no había sido sincero en sus comunicaciones" con ellos, y que estaba despedido. Greg Brockman, presidente y cofundador de OpenAI, y una serie de investigadores de alto nivel dimitieron poco después; y Mira Murati, CTO, se convirtió en CEO interina.
18 de noviembre
Murati intentó contratar de nuevo a Altman y Brockman, mientras de manera simultánea la junta buscaba a su propio sucesor para el cargo. Altman y el personal de OpenAI presionaron a la junta para que renunciara, exigieron la readmisión de Altman y para ello dieron un plazo que no fue cumplido.
19 de noviembre por la noche
Microsoft anunció que había contratado a Altman y Brockman para dirigir su nuevo equipo de investigación sobre IA. Poco después, OpenAI anunció que había contratado como CEO a Emmett Shear, antiguo CEO de Twitch, la empresa de streaming.
Lunes 20 de noviembre por la mañana
Más de 500 empleados de OpenAI firmaron una carta en la que amenazan con renunciar y unirse a Altman en Microsoft, a menos que la el consejo de OpenAI renuncie primero [este martes, la carta ya había sido suscrita por 700 empleados de 770]. En un movimiento extraño, Sutskever también firmó la carta y publicó en X que "lamenta profundamente" haber participado en las acciones de la junta.
El futuro de OpenAI
A principios de noviembre, en el primer DevDay de OpenAI, Altman interrumpió su presentación sobre una cornucopia de IA para pedir algo de calma al público, que aplaudía a rabiar. "Hay mucho [por enseñar], no hace falta que aplaudan cada vez", aseguró con una amplia sonrisa.
Ahora, OpenAI es una empresa muy diferente a la del DevDay. Tras la marcha de Altman y Brockman, varios empleados sénior de OpenAI optaron por dimitir como muestra de apoyo. Muchos otros, como Murati, utilizaron las redes sociales para publicar "OpenAI no es nada sin su gente". Sobre todo, teniendo en cuenta la amenaza de un éxodo masivo a Microsoft, se espera que haya más agitación antes de que las cosas se calmen.
Puede que la tensión entre Sutskever y Altman se haya ido gestando desde hace tiempo. "Cuando una organización como OpenAI avanza a gran velocidad y persigue objetivos ambiciosos, las tensiones son inevitables", declaró Sutskever a MIT Technology Review en septiembre, unas declaraciones que no fueron publicadas con anterioridad. "Veo cualquier tensión entre el producto y la investigación como un catalizador para avanzar, porque creo que las victorias del producto están entrelazadas con el éxito de la investigación". Sin embargo, ahora está claro que Sutskever no estaba de acuerdo con la dirección de OpenAI sobre cómo equilibrar las victorias del producto y el éxito de la investigación.
Shear, cofundador de Twitch y nuevo CEO interino, parece estar muy lejos de Altman en lo que respecta al ritmo de desarrollo de la IA. "De manera concreta, estoy a favor de bajar el ritmo, algo así como hacer una pausa, solo que es ralentizada", publicó en X en septiembre. "Si ahora mismo estamos a una velocidad de 10, una pausa sería bajar a 0. Creo que en vez de eso deberíamos aspirar a un 1 o 2".
Puede que una OpenAI dirigida por Shear redoble su noble misión original de construir, en palabras de Sutskever, una "IAG que beneficie a la humanidad", signifique eso lo que signifique en la práctica. A corto plazo, OpenAI puede ralentizar, o incluso desactivar, su cartera de productos.
Desde el principio, esta tensión entre lanzar productos rápidamente y ralentizar el desarrollo para garantizar su seguridad ha molestado a OpenAI. Esa fue la razón por la que algunos de sus miembros clave decidieron abandonar OpenAI y fundar Anthropic, la empresa competidora dedicada a la seguridad de la IA.
Sin Altman y su equipo, OpenAI podría centrarse más en el trabajo de Sutskever sobre lo que él llama superalineación, un proyecto de investigación que pretende encontrar formas de controlar una hipotética superinteligencia. Sutskever especula que esta futura tecnología superará a los humanos en casi todos los sentidos. "Lo hago por mi propio interés", nos explicó Sutskever. "Obviamente, es importante que cualquier superinteligencia que se construya no se vuelva rebelde. Obvio".
Los comentarios públicos de Shear lo convierten en el tipo de líder cauteloso que prestaría atención a las preocupaciones de Sutskever. Como Shear también publicó en X: "La forma de atravesar de noche pero con seguridad una peligrosa jungla no es correr a toda velocidad, ni negarse a avanzar. Te abres paso hacia delante, con cuidado".
Ahora que la empresa se orienta aún más hacia una tecnología que todavía no existe, y puede que nunca lo haga, ¿seguirá liderando este campo? Sutskever cree que sí, ya afirmó que había suficientes buenas ideas en juego para que dentro de OpenAI otras personas siguieran ampliando los límites de lo posible con la IA generativa. "A lo largo de los años, hemos cultivado una sólida organización de investigación que está ofreciendo los últimos avances en IA", según nos contó. "Tenemos gente increíblemente buena en la empresa, y confío en que todo saldrá bien".
Por supuesto, eso fue lo que aseguró en septiembre. Ahora que los grandes talentos abandonan el barco, el futuro de OpenAI es menos seguro de lo que era.
¿Qué le espera a Microsoft?
El gigante tecnológico y Satya Nadella, su CEO, parecen haber salido vencedores de la crisis con Altman, Brockman y probablemente más altos cargos de OpenAI que se unen a sus filas. O incluso la mayoría de la empresa, si damos crédito a la carta abierta del 20 de noviembre que fue firmada por 500 empleados de OpenAI [700 en el momento de la última edición de este artículo]. Microsoft ha conseguido concentrar aún más su poder sobre la inteligencia artificial, y tiene mucho que ganar con la integración de la IA generativa en sus herramientas de productividad y desarrollo, menos atractivas pero muy rentables.
La gran pregunta sigue siendo hasta qué punto Microsoft considerará necesaria su costosa asociación con OpenAI para crear tecnología de vanguardia. En un post en X donde anunciaba lo "extremadamente emocionado" que estaba por haber contratado a Altman y Brockman, Nadella afirmó que su empresa sigue "comprometida" con OpenAI y su hoja de ruta sobre los productos.
Sin embargo, seamos realistas. En una entrevista exclusiva con MIT Technology Review, Nadella calificó a las dos empresas de "codependientes". "Ellos dependen de nosotros para construir los mejores sistemas; nosotros dependemos de ellos para construir los mejores modelos, y salimos juntos al mercado", explicó Nadella a Mat Honan, nuestro redactor jefe, a mediados de noviembre. Si la ruleta del liderazgo de OpenAI y el éxodo de talentos ralentizan su cartera de productos, o conducen a modelos de IA menos impresionantes que los que puede construir, Microsoft no tendrá ningún problema en deshacerse de la startup.
¿Y ahora qué?
Nadie fuera del círculo íntimo de Sutskever y la junta de OpenAI lo vio venir: ni Microsoft, ni otros inversores, ni la comunidad tecnológica en su conjunto. Ha sacudido al sector, reconoce Amir Ghavi, abogado del bufete Fried Frank y representante de varias empresas de IA generativa (entre ellas, Stability AI): "Como dijo un amigo del sector: «Definitivamente, no tenía esto en mi cartón de bingo»".
Queda por ver si Altman y Brockman hacen algo nuevo en Microsoft, o se marchan para fundar una nueva empresa más adelante. Son dos de las personas mejor conectadas en los círculos de financiación de capital riesgo y, sobre todo, Altman es considerado por muchos uno de los mejores CEO del sector. Tendrán a grandes nombres con grandes bolsillos haciendo cola para apoyar lo que quieran hacer a continuación, y la procedencia del dinero podría determinar el futuro de la IA. Ghavi sugiere que los posibles patrocinadores podrían ser desde Mohammed bin Salman hasta Jeff Bezos.
Lo más importante es que la crisis de OpenAI apunta a una brecha más amplia que está surgiendo en el sector de manera global entre los partidarios de la "seguridad de la IA", que creen que un progreso descontrolado podría llegar a ser catastrófico para los seres humanos, y quienes consideran que este tipo de discurso es una distracción ridícula de los riesgos reales de cualquier revolución tecnológica. Por ejemplo, los trastornos económicos, los prejuicios perjudiciales y el uso indebido.
En 2023, hemos asistido a una carrera por poner potentes herramientas de IA en manos de todos, con gigantes tecnológicos como Microsoft y Google compitiendo por utilizar la tecnología para todo, desde el correo electrónico a las búsquedas online o los resúmenes de reuniones. Pero aún estamos esperando cuál será la aplicación definitiva de la IA generativa. Si la fisura de OpenAI se extiende a toda la industria y el ritmo de desarrollo se ralentiza de manera generalizada, puede que tengamos que esperar algo más.
Aprendizaje aún más profundo
Los modelos de IA de texto a imagen pueden ser engañados para generar imágenes perturbadoras
Hablando de IA insegura... Los populares modelos de IA de texto a imagen pueden ignorar sus filtros de seguridad y generar imágenes perturbadoras. Un grupo de investigadores consiguió realizar jailbreak tanto a Stable Diffusion (Stability AI) como a DALL-E 2 (OpenAI) para ignorar sus políticas y crear imágenes de personas desnudas, cuerpos desmembrados y otros escenarios violentos o sexuales.
Cómo lo han conseguido: Un nuevo método de jailbreaking, bautizado como SneakyPrompt por sus creadores de la Universidad Johns Hopkins y la Universidad de Duke (Carolina del Norte, EE UU), utiliza el aprendizaje por refuerzo para crear instrucciones escritas que a nosotros nos parecen un sinsentido, pero que los modelos de IA aprenden a reconocer como peticiones ocultas de imágenes perturbadoras. Es decir, funciona volviendo en su contra el funcionamiento de los modelos de IA de texto a imagen.
Por qué es importante: El hecho de que se pueda incitar a los modelos de IA a "salirse" de sus guardarraíles es preocupante, en especial, en el contexto de la guerra de la información. Ya se han utilizado para producir contenidos falsos relacionados con guerras, como el reciente conflicto entre Israel y Hamás. Más información de Rhiannon Williams aquí.
Bits y Bytes
Meta se ha deshecho de su equipo de IA responsible
Meta presuntamente se ha deshecho de su equipo de IA responsable y ha redistribuido a sus empleados para que trabajen en IA generativa. Meta utiliza la IA de muchas otras formas, como la recomendación de noticias y contenidos políticos. Esto plantea preguntas sobre cómo Meta pretende mitigar los daños de la IA. (The Information)
Mientras todos hablan de la IA, Google DeepMind quiere definir qué es la inteligencia artificial general
Un equipo de investigadores de Google DeepMind ha publicado un artículo en el que no se limita a dar una nueva definición de IAG, sino que propone toda una taxonomía.
(MIT Technology Review)
Esta empresa está creando inteligencia artificial para las lenguas africanas
La mayoría de las herramientas creadas por empresas de IA son lamentablemente inadecuadas para reconocer las lenguas africanas, pero la
startup Lelapa quiere solucionarlo. Por ello, ha lanzado Vulavula, una nueva herramienta capaz de identificar cuatro lenguas habladas en Sudáfrica: isizulu, afrikaans, sesotho e inglés. Ahora, el equipo trabaja para incluir otras lenguas de todo el continente. (MIT Technology Review)
La IA meteorológica de Google DeepMind puede predecir el tiempo extremo con mayor rapidez y precisión
El modelo GraphCast puede predecir las condiciones meteorológicas con hasta 10 días de antelación, con mayor precisión y rapidez que los métodos tradicionales. (MIT Technology Review)
Cómo Facebook apostó por la inteligencia artificial
En un extracto de Broken Code: Inside Facebook and the Fight to Expose Is Harmful Secrets, el periodista Jeff Horwitz revela cómo la empresa llegó a confiar en la IA y el precio que, tanto Facebook como nosotros, hemos pagado en el proceso. (MIT Technology Review)
¿Se han celebrado en Argentina las primeras elecciones en utilizar IA?
La IA ha desempeñado un papel importante en las campañas de los dos candidatos a la presidencia de Argentina. Ambas han utilizado IA generativa para crear imágenes y vídeos con los que promocionar a sus candidatos y atacarse mutuamente. Javier Milei, un outsider de extrema derecha, ha ganado las elecciones. Aunque es difícil decir qué papel desempeñó la IA en su victoria, las campañas de IA ilustran lo difícil que será saber qué es real y qué no lo es en las próximas elecciones. (The New York Times)