
Esta historia forma parte del especial El fin del ‘hype’ de la IA de MIT Technology Review, una serie que busca reajustar las expectativas sobre qué es la IA, qué permite y hacia dónde nos conduce.
Cada vez que escuchas una idea casi descabellada sobre lo que la inteligencia artificial será capaz de hacer, suele ocurrir que Sam Altman fue, si no el primero en formularla, al menos la voz más persuasiva e influyente detrás de ella.
Durante más de una década, Altman ha sido conocido en Silicon Valley como un captador de fondos y negociador de primer nivel. Los primeros lanzamientos de OpenAI en torno a 2020 prepararon el terreno para la fiebre por los grandes modelos de lenguaje, y el estreno de ChatGPT en noviembre de 2022 le otorgó a Altman un escenario global para presentar su nueva tesis: que estos modelos reflejan la inteligencia humana y podrían abrir las puertas a una tecno-utopía más saludable y próspera.
A lo largo de este tiempo, las palabras de Altman han marcado el ritmo de la agenda pública. Ha presentado la posibilidad de una IA superinteligente como algo humanista o catastrófico, según el efecto que buscara generar, el dinero que necesitara recaudar o el gigante tecnológico que considerara su competidor más formidable en ese momento.
Analizar sus declaraciones a lo largo de los años revela hasta qué punto su visión ha impulsado el auge actual de la IA. Incluso entre los muchos entusiastas de Silicon Valley, Altman ha mostrado una disposición especial para hablar de cuestiones abiertas (si los grandes modelos de lenguaje contienen los ingredientes del pensamiento humano o si el lenguaje puede producir inteligencia) como si ya estuvieran resueltas.
Lo que dice sobre la IA rara vez es comprobable en el momento en que lo afirma, pero nos convence de algo: este camino que recorremos con la IA puede llevarnos a un destino grandioso o aterrador, y OpenAI necesitará sumas épicas para conducirlo hacia el lugar correcto. En este sentido, Altman es hype man definitivo.
Para entender cómo su voz ha moldeado nuestra percepción de lo que la IA puede hacer, revisamos casi todo lo que ha dicho sobre esta tecnología (solicitamos una entrevista con Altman, pero no estaba disponible).
Sus propias palabras trazan el camino que nos ha traído hasta aquí.
¿Arrogancia: virtud o defecto?
2014
En 2014, Sam Altman dirigía la aceleradora de startups Y Combinator, aunque fuera de Silicon Valley era prácticamente desconocido. En una entrada de blog que respondía a un artículo de Bloomberg BusinessWeek sobre la arrogancia en Silicon Valley, Altman admitió que podía llegar demasiado lejos. «El problema surge cuando quienes construyen algo afirman que va a cambiar el mundo cuando todavía parece un juguete», escribió Altman. «Eso solo hace enfadar a la gente».
OpenAI nace con fervor misionero
2015
OpenAI se fundó en 2015 con el objetivo declarado de crear una inteligencia artificial general (IAG) para ayudar a la humanidad. «Es difícil imIAGnar cuánto podría beneficiar a la sociedad una IA a nivel humano», escribieron sus fundadores, «y es igualmente difícil imIAGnar cuánto podría dañarla si se construye o utiliza de forma incorrecta». En aquellos primeros días, recordaría más tarde Altman, los fundadores de OpenAI no tenían idea de que algún día desarrollarían grandes modelos de lenguaje. Probaban de todo en su búsqueda de la IAG, incluso experimentando con robots capaces de resolver cubos de Rubik.
Creer en la posibilidad de la IAG era algo marginal en ese momento. «En 2015, cuando seleccionábamos personal, casi se consideraba un suicidio profesional para un investigador de IA decir que se tomaba en serio la IAG», contó después a Wired. «Pero yo quería gente que lo tomara en serio».
Altman fue tan explícito sobre las amenazas como sobre los beneficios. En una publicación de blog de febrero de 2015 escribió que, aunque su desarrollo estaba a años vista, la inteligencia artificial sobrehumana «es probablemente la mayor amenaza para la existencia continuada de la humanidad«.
En ese mismo texto, Altman expresó su asombro ante la idea de que la inteligencia humana pudiera reducirse a algoritmos que solo había que descifrar. «Criticamos la inteligencia artificial actual como trucos baratos», escribió, «pero quizá nuestra propia inteligencia sea solo la combinación emergente de un montón de trucos baratos».
Altman asigna a la IA una larga lista de tareas
2019
Altman se mantuvo firme en sus visiones utópicas sobre la IA en los primeros años de OpenAI. «Tenemos el potencial de eliminar la pobreza, resolver el cambio climático, curar gran cantidad de enfermedades humanas, educar a todo el mundo de forma excepcional», dijo en febrero de 2019. En esa misma entrevista afirmó que preferiría un radiólogo de IA antes que uno humano y que este último pronto sería obsoleto (algo que no se ha materializado).
Aunque Altman creía que una inteligencia artificial general capaz de beneficiar a la humanidad era posible, incluso probable, se mostraba agnóstico sobre la tecnología que la haría realidad. Tampoco asumía cómo la búsqueda de la IAG generaría ingresos. «No tenemos idea de cómo podríamos generar ingresos algún día», dijo cuando asumió el cargo de CEO de OpenAI en 2019.
OpenAI publica el famoso estudio sobre las leyes de escalado
Enero de 2020
Las cosas dejaron de ser tan abstractas con el auge de los grandes modelos de lenguaje. Los LLM comenzaron a desarrollarse en serio en 2017, pero recibieron un gran impulso en enero de 2020, cuando OpenAI publicó un estudio que se haría célebre al demostrar que los modelos más grandes suelen ser más inteligentes.
Altman desafía al futuro
Febrero de 2020
En una charla informal un mes después, Altman reconoció que el patrón de crecimiento acabaría por frenarse, pero predijo que el futuro inmediato estaría lleno de voces que calificarían la IA como una burbuja, solo para quedar en evidencia. «Nos moveremos arriba y abajo en la curva exponencial del progreso, y habrá momentos de caída que podrían durar meses o años«, afirmó. «Lla gente está desesperada por decir que ahora va a dejar de funcionar, y llevan haciéndolo los últimos ocho años, mientras esto no ha sido más que un ascensor imparable hacia arriba».
Altman coquetea con la idea de redistribuir la riqueza
Primavera de 2021
En la primavera de 2021, tras el lanzamiento de varios modelos iniciales de lenguaje por parte de OpenAI, Altman escribió una extensa publicación en su blog sobre el impacto socioeconómico que traería el progreso. «Esta revolución tecnológica es imparable», aseguró. «Y un bucle recurrente de innovación, en el que estas máquinas inteligentes nos ayudarán a crear máquinas aún más inteligentes, acelerará el ritmo de la revolución».
Altman argumentó que la productividad impulsada por la IA hará que el precio tanto del trabajo como de los bienes se desplome, y que, si queremos que beneficie a toda la sociedad, necesitaremos métodos radicales de redistribución de la riqueza, como hacer que todos los estadounidenses sean elegibles para recibir acciones emitidas por el Gobierno de las mayores corporaciones del país. Más tarde sugeriría que la »inteligencia ilimitada» que justificaría tales cambios podría llegar en 2030.
Altman empieza a equiparar los LLM con la inteligencia humana tras el lanzamiento de GPT-3
Junio de 2021
Hasta ese momento, Altman evitaba afirmar que los grandes modelos de lenguaje (LLM) serían la tecnología que catalizaría esos cambios profundos. Pero todo cambió con el lanzamiento de GPT-3 por parte de OpenAI. Fue entonces cuando comenzó a equiparar los LLM con la inteligencia humana de forma más directa.
«Creo que, una vez que tienes un sistema capaz de recibir observaciones sobre el mundo, aprender a interpretarlas (y una forma de hacerlo es predecir lo que ocurrirá después), eso está muy cerca de la inteligencia», dijo en una entrevista con The New York Times.
Según Altman, en los grandes modelos de lenguaje podríamos ver algo que funciona igual que nuestro cerebro. «Mi comprensión, mi creencia, es que eres energía fluyendo a través de una red neuronal», afirmó. «La percepción entra, circula por una red neuronal en tu cabeza y algún músculo se mueve. Pero eso es todo». A diferencia del cerebro, la IA podría escalarse y ejecutarse sin límites: «No hay un tope para lo lejos que puede llegar si piensas en aumentar el tamaño y la escala».
En ese momento, pocas personas fuera del sector tecnológico sabían qué eran los LLM. Para los expertos, su capacidad de escalado era impresionante, pero los críticos sostenían que la idea de que imitaban el cerebro humano era errónea, ya que no pueden razonar. Eran emocionantes, sí, pero solo un plato más en el buffet de tecnologías de IA que cualquier especialista en IAG podría probar.
Altman traza una hoja de ruta
Febrero de 2022
En un seminario celebrado en febrero de 2022, Altman introdujo algunas salvedades sobre la capacidad de los grandes modelos de lenguaje para cumplir promesas utópicas, aunque ninguna sugería un límite claro para lo que la tecnología podría llegar a ser. Simplemente señaló que haría falta algo más que aumentar el tamaño de los modelos, y terminó exponiendo lo que hoy parece la hoja de ruta de OpenAI.
«Creo que nos acercaremos a la IAG a medida que creemos modelos que puedan hacer más cosas: modelos que trabajen con distintas modalidades, que aprendan, que operen en horizontes temporales largos, que cumplan objetivos complejos, que seleccionen los datos que necesitan para entrenarse y hacer lo que haría un humano, leer libros sobre un área específica, experimentar o llamar a un amigo más listo», dijo. «Creo que eso nos acercará a algo que se sienta como una IAG».
El Big Bang de la IA generativa: el lanzamiento de ChatGPT
Noviembre de 2022
En noviembre de 2022, OpenAI lanzó ChatGPT. Con ello presentó al mundo los grandes modelos de lenguaje mediante una interfaz con la que cualquiera podía conversar, y millones de personas comenzaron a hacerlo.
Altman lo vio como un paso hacia el futuro de la IA con el que soñaba, aunque le sorprendió que fueran los modelos de lenguaje los que abrieran la puerta. «Siempre supimos, de forma abstracta, que en algún momento alcanzaríamos un punto de inflexión y comenzaría la revolución de la IA«, escribió más tarde. «Pero no sabíamos cuál sería ese momento. Para nuestra sorpresa, resultó ser este».
Defenderse de las críticas
Diciembre de 2022
Siguiendo el tono reductivo con el que describió la inteligencia humana en The New York Times, Altman comenzó entonces a defender los grandes modelos de lenguaje frente a sus críticos. «Soy un loro estocástico, y tú también», publicó poco después del lanzamiento de ChatGPT, burlándose de la crítica formulada por la lingüista Emily Bender y otros expertos, quienes sostenían que estos modelos solo imitan el lenguaje humano sin razonar, lo que les impide descubrir nada que no esté en sus datos de entrenamiento. (En septiembre de 2024, cuando OpenAI experimentó con modelos de razonamiento para resolver este problema, Altman volvió a ironizar sobre la crítica y escribió: «Los loros estocásticos pueden volar muy alto…»).
Altman adopta el tono más apocalíptico
2023
Altman pasó buena parte de 2023 en una gira mundial debatiendo si la IA podría acabar con todos nosotros. «Creo que el peor escenario es que todo se apague para nosotros», dijo en enero de 2023, mientras comenzaba a reunirse con la Casa Blanca y el Congreso para discutir cómo evitar que la IA provoque una catástrofe (sin presentar pruebas de que los LLM fueran capaces de hacerlo).
En ocasiones admitía que las expectativas sobre la tecnología eran demasiado altas. «El hype sobre estos sistemas, aunque todo lo que esperamos sea correcto a largo plazo, está totalmente fuera de control a corto plazo», declaró a The New York Times en marzo de 2023. Pero incluso esas concesiones se referían a problemas concretos de uno u otro modelo, nunca a reconocer que los grandes modelos de lenguaje pudieran tener limitaciones fundamentales.
El mundo empresarial se vuelve loco
2024
Las limitaciones inherentes de los grandes modelos de lenguaje no frenaron el hype en 2024. El mundo empresarial quería IA en todo, el precio de las acciones de Nvidia se triplicó y OpenAI vio aumentar sus ingresos en consecuencia. Altman predijo que, para finales de 2025, los agentes de IA podrían «incorporarse a la fuerza laboral» y cambiar la productividad de las empresas.
Altman afirma que los grandes modelos de lenguaje traerán la IAG
Enero de 2025
Para Altman, la mejora constante de los grandes modelos de lenguaje ha hecho que la búsqueda de la IAG sea más tangible. «Ahora estamos seguros de que sabemos cómo construir la IAG tal y como la hemos entendido tradicionalmente», escribió.
Aun así, las promesas utópicas seguían estando algo fuera de alcance. «Amamos nuestros productos actuales, pero estamos aquí por el futuro glorioso», dijo. «Las herramientas superinteligentes podrían acelerar enormemente el descubrimiento científico y la innovación mucho más allá de lo que somos capaces de hacer por nuestra cuenta, y a su vez aumentar masivamente la abundancia y la prosperidad».
OpenAI cierra acuerdos millonarios
Septiembre de 2025
Hoy, Altman considera que la disponibilidad de energía y chips son los principales factores limitantes para un futuro utópico impulsado por la IA.
En septiembre afirmó que la trayectoria actual de la IA significa que pronto podría curar el cáncer o proporcionar tutoría personalizada a cada estudiante del planeta. «Si estamos limitados por la capacidad de cómputo, tendremos que elegir cuál priorizar», escribió. «Nadie quiere tomar esa decisión, así que construyamos». Poco después, OpenAI anunció varios acuerdos con empresas de computación en la nube y puso en marcha su programa Stargate, una empresa conjunta de 500.000 millones de dólares (más de 425.000 millones de euros) para construir nuevos centros de datos de IA en todo EE UU.
Optimismo en la IA
Finales de 2025
A medida que el ánimo en torno a la IA comenzó a cambiar a finales de 2025 y crecieron las preocupaciones sobre una burbuja, Altman empezó a insinuar que el futuro utópico podría no estar tan lejos. En noviembre, OpenAI publicó ejemplos de proyectos en universidades líderes en los que GPT-5 se había utilizado como asistente de investigación, ayudando a generar ideas y revisar descubrimientos. Altman lo calificó como «un primer adelanto de algo que esperamos ver mucho más pronto».
El artículo se publicó un mes después de que uno de sus autores principales tuviera que retractarse de afirmaciones según las cuales los modelos de OpenAI habían resuelto algunos problemas matemáticos antes irresolubles del grupo conocido como problemas de Erdős. En realidad, los modelos habían encontrado soluciones publicadas en rincones remotos de la web que no eran bien conocidos por los humanos.
En diciembre, Altman volvió a destacar la promesa de la IA para la medicina y la educación, afirmando que la gente estaba usando ChatGPT como tutor y para ayudar a diagnosticar sus propias enfermedades. (Quizá se refería a casos de éxito anecdóticos, pasando por alto episodios como el de un hombre que casi murió por intoxicación con bromuro tras seguir consejos médicos de la IA).
En conclusión…
Altman no engañó al mundo. OpenAI ha impulsado una auténtica revolución tecnológica, con modelos de lenguaje cada vez más sofisticados que han atraído a millones de usuarios. Incluso los más escépticos admitirían que la capacidad conversacional de los LLM es asombrosa.
Pero el hype de Altman siempre ha girado menos en torno a las capacidades actuales que en un mañana filosófico, una visión que, convenientemente, también sirve como argumento para captar más capital y lograr una regulación favorable. Mucho antes de que existieran los grandes modelos de lenguaje, ya imaginaba una IA tan poderosa que exigiría redistribuir la riqueza, del mismo modo que fantaseaba con la colonización de otros planetas. Una y otra vez, las promesas sobre el destino (abundancia, superinteligencia, un mundo más saludable y próspero) han llegado primero, y las pruebas después.
Incluso si los LLM terminan encontrando un límite, hay pocas razones para pensar que su fe en un futuro tecno-utópico vaya a tambalearse. Al fin y al cabo, la visión nunca se trató realmente de los detalles del modelo actual.





