La empresa está incursionando en el descubrimiento científico con una IA creada para ayudar a fabricar células madre.
Cuando piensas en las contribuciones de la IA a la ciencia, probablemente pienses en AlphaFold, el programa de plegamiento de proteínas de Google DeepMind que le valió a su creador un Premio Nobel el año pasado.
Ahora OpenAI dice que también se está adentrando en el juego de la ciencia, con un modelo para la ingeniería de proteínas.
La compañía dice haber desarrollado un modelo de lenguaje que inventa proteínas capaces de transformar células normales en células madre, y que ha superado cómodamente a los humanos en esa tarea.
El trabajo representa el primer modelo de OpenAI centrado en datos biológicos y su primera afirmación pública de que sus modelos pueden ofrecer resultados científicos inesperados. Como tal, es un paso hacia la determinación de si la IA puede o no hacer verdaderos descubrimientos, lo que algunos sostienen que es una prueba importante en el camino hacia la "inteligencia artificial general".
La semana pasada, el director ejecutivo de OpenAI, Sam Altman, dijo que estaba “seguro” de que su empresa sabe cómo construir una IA general y agregó que “las herramientas superinteligentes podrían acelerar enormemente el descubrimiento científico y la innovación mucho más allá de lo que somos capaces de hacer por nuestra cuenta”.
El proyecto de ingeniería de proteínas comenzó hace un año cuando Retro Biosciences, una empresa de investigación de longevidad con sede en San Francisco, se acercó a OpenAI para trabajar juntos.
Esa unión no se produjo por casualidad. Sam Altman, el director ejecutivo de OpenAI, financió personalmente a Retro con 180 millones de dólares , como informó por primera vez MIT Technology Review en 2023.
Retro tiene como objetivo alargar la vida humana normal en 10 años. Para ello estudia los llamados factores Yamanaka, un conjunto de proteínas que, al añadirse a una célula de la piel humana, harán que se transforme en una célula madre de apariencia joven, un tipo de célula capaz de producir cualquier otro tejido del cuerpo.
Es un fenómeno que los investigadores de Retro y de empresas ricamente financiadas como Altos Labs ven como el posible punto de partida para rejuvenecer animales, construir órganos humanos o proporcionar suministros de células de reemplazo.
Pero esta “reprogramación” celular no es muy eficiente. Lleva varias semanas y menos del 1% de las células tratadas en una placa de laboratorio completan el proceso de rejuvenecimiento.
El nuevo modelo de OpenAI, llamado GPT-4b micro, fue entrenado para sugerir formas de rediseñar los factores proteicos para aumentar su función. Según OpenAI, los investigadores utilizaron las sugerencias del modelo para cambiar dos de los factores de Yamanaka para que fueran más de 50 veces más efectivos, al menos según algunas mediciones preliminares.
“En general, las proteínas parecen mejores que las que los científicos fueron capaces de producir por sí solos”, afirma John Hallman, investigador de OpenAI.
Hallman y Aaron Jaech de OpenAI, así como Rico Meinl de Retro, fueron los desarrolladores principales del modelo.
Los científicos externos no podrán determinar si los resultados son reales hasta que se publiquen, algo que las empresas dicen que están planeando. El modelo tampoco está disponible para un uso más amplio: todavía es una demostración a medida, no un lanzamiento oficial del producto.
“Este proyecto pretende demostrar que nos tomamos en serio nuestra contribución a la ciencia”, afirma Jaech. “Pero aún está por determinar si esas capacidades se presentarán al mundo como un modelo independiente o si se incorporarán a nuestros modelos de razonamiento principales”.
El modelo no funciona de la misma manera que AlphaFold de Google, que predice la forma que adoptarán las proteínas. Dado que los factores de Yamanaka son proteínas inusualmente flexibles y desestructuradas, según OpenAI, se requirió un enfoque diferente, al que se adaptaron sus grandes modelos de lenguaje.
El modelo se entrenó con ejemplos de secuencias de proteínas de muchas especies, así como con información sobre qué proteínas tienden a interactuar entre sí. Si bien se trata de una gran cantidad de datos, es solo una fracción de lo que se entrenó con los chatbots insignia de OpenAI, lo que convierte a GPT-4b en un ejemplo de un " modelo de lenguaje pequeño " que funciona con un conjunto de datos específico.
Una vez que los científicos de Retro recibieron el modelo, intentaron orientarlo para que sugiriera posibles rediseños de las proteínas de Yamanaka. La táctica de incitación utilizada es similar al método de “pocas oportunidades”, en el que un usuario consulta a un chatbot proporcionando una serie de ejemplos con respuestas, seguidos de un ejemplo para que el bot responda.
Aunque los ingenieros genéticos tienen formas de dirigir la evolución de las moléculas en el laboratorio, por lo general sólo pueden probar un número limitado de posibilidades. E incluso una proteína de longitud típica puede modificarse de formas casi infinitas (ya que están formadas por cientos de aminoácidos y cada ácido tiene 20 variedades posibles).
Sin embargo, el modelo de OpenAI a menudo arroja sugerencias en las que se modificó un tercio de los aminoácidos de las proteínas.
"Lanzamos este modelo al laboratorio inmediatamente y obtuvimos resultados reales", afirma el director ejecutivo de Retro, Joe Betts-Lacroix. Afirma que las ideas del modelo eran excepcionalmente buenas y condujeron a mejoras con respecto a los factores originales de Yamanaka en una fracción sustancial de los casos.
Vadim Gladyshev, un investigador de la Universidad de Harvard que trabaja en el campo del envejecimiento y que colabora con Retro, afirma que se necesitan mejores métodos para crear células madre. “Para nosotros, sería extremadamente útil. [Las células de la piel] son fáciles de reprogramar, pero otras células no”, afirma. “Y hacerlo en una nueva especie suele ser extremadamente diferente y no se obtiene nada”.
Todavía no está claro cómo llega exactamente el GPT-4b a sus conjeturas , como suele suceder con los modelos de IA . “Es como cuando AlphaGo aplastó al mejor humano en Go, pero llevó mucho tiempo descubrir por qué”, dice Betts-Lacroix. “Todavía estamos averiguando qué hace, y creemos que la forma en que lo aplicamos es solo la punta del iceberg”.
OpenAI afirma que no hubo intercambio de dinero en la colaboración, pero como el trabajo podría beneficiar a Retro (cuyo mayor inversor es Altman), el anuncio puede aumentar las preguntas que giran en torno a los proyectos paralelos del director ejecutivo de OpenAI.
El año pasado, el Wall Street Journal afirmó que las amplias inversiones de Altman en empresas tecnológicas privadas constituyen un “imperio de inversión opaco” que está “creando una lista creciente de conflictos potenciales”, ya que algunas de estas empresas también hacen negocios con OpenAI.
En el caso de Retro, el simple hecho de estar asociada con Altman, OpenAI y la carrera hacia la inteligencia artificial general podría mejorar su perfil y aumentar su capacidad para contratar personal y recaudar fondos. Betts-Lacroix no respondió a las preguntas sobre si la empresa en su etapa inicial se encuentra actualmente en modo de recaudación de fondos.
OpenAI dice que Altman no participó directamente en el trabajo y que nunca toma decisiones basadas en otras inversiones de Altman.