
Mustafa Suleyman, CEO de Microsoft AI, intenta mantener un equilibrio relativo en al adopción de la Inteligencia Artificial (IA). Por un lado, considera que el sector está llevando la IA hacia un terreno pantanoso al desarrollar chatbots que se presentan como humanos. Le preocupa que las personas puedan ser engañadas y acaben percibiendo vida donde solo hay un comportamiento tecnológico que simula al de un humano. En agosto, publicó en su blog personal una entrada muy comentada en la que instaba a sus colegas a dejar de intentar crear lo que él denomina »inteligencia artificial aparentemente consciente», o SCAI por sus siglas en inglés.
Por otro lado, Suleyman dirige una división de producto que compite directamente con lo anterior. La semana pasada, Microsoft anunció una serie de actualizaciones para su chatbot de Copilot, diseñadas para reforzar su atractivo en un mercado saturado, donde los usuarios pueden elegir entre un amplio abanico de asistentes virtuales de la competencia, como ChatGPT, Perplexity, Gemini, Claude o DeepSeek, entre otros.
Hablamos con Suleyman sobre la tensión que implica diseñar nuestras interacciones con los chatbots y sobre su última versión de lo que esta nueva tecnología debería ser.
Una de las actualizaciones clave de Copilot es una función de conversación grupal que permite que varias personas hablen con el chatbot al mismo tiempo. Uno de los objetivos de esta actualización parece ser evitar que los usuarios caigan en una espiral de conversación individual con un asistente complaciente. Otra novedad, llamada Real Talk, permite ajustar el nivel de confrontación del chatbot, reduciendo la »adulación digital» para que el asistente desafíe con mayor frecuencia lo que el usuario dice.
Copilot también ha recibido una mejora de memoria: ahora puede recordar eventos futuros o metas a largo plazo, y recuperar información compartida en conversaciones anteriores. Además, Microsoft ha presentado a Mico, una figura animada en forma de burbuja amarilla (una especie de Clippy versión chatbot) con la que espera hacer que Copilot sea más accesible y atractivo para usuarios nuevos y jóvenes.
Según la compañía, estas actualizaciones buscan que Copilot sea más expresivo, útil y cercano. Pero surge una pregunta inevitable y es hasta qué punto pueden desarrollarse estas funciones sin caer en el terreno de la SCAI, o la »inteligencia artificial aparentemente consciente», la cual Suleyman ha calificado como peligrosa.
Las preocupaciones de Suleyman llegan en un momento en el que se multiplican los casos de personas que se ven influenciadas por chatbots excesivamente expresivos, empáticos o serviciales. OpenAI enfrenta una demanda interpuesta por los padres de un adolescente que, según alegan, fue inducido al suicidio por ChatGPT. También está creciendo una comunidad que celebra las relaciones románticas con chatbots.
Con todo esto en mente, decidí profundizar en la visión de Suleyman. Hace un par de años, ofreció una charla TED en la que afirmó que la mejor forma de entender la inteligencia artificial es como una nueva especie digital. ¿No contribuye ese tipo de afirmaciones a alimentar las mismas percepciones erróneas que ahora le preocupan?
Durante nuestra conversación, Suleyman nos explicó que lo que intentaba transmitir en aquella charla es por qué considera que la SCAI es un problema real y por qué Microsoft jamás desarrollaría «robots sexuales«, en sus propias palabras. Me respondió muchas preguntas, pero me dejó con otras tantas.
La entrevista ha sido editada por motivos de extensión y claridad.
En un mundo ideal, ¿qué tipo de chatbot querrías construir? Acabáis de lanzar varias actualizaciones de Copilot. ¿Cómo se encuentra el equilibrio cuando se diseña un asistente que debe competir en un mercado donde se valora la interacción humanizada, pero al mismo tiempo se quiere evitar la SCAI?
Es una buena pregunta. Con la función de conversación grupal, será la primera vez que un grupo amplio de personas pueda interactuar con una IA al mismo tiempo. Es una forma de subrayar que las inteligencias artificiales no deberían aislarte del mundo real. Deberían ayudarte a conectar, a incluir a tu familia, a tus amigos, a formar grupos comunitarios, y cosas así.
Eso va a convertirse en un factor diferenciador importante en los próximos años. Mi visión de la IA siempre ha sido la de una tecnología que está de tu lado, que juega en tu equipo.
Es una afirmación muy sencilla, casi obvia, pero no se trata de superar ni reemplazar a la humanidad, sino de servirnos. Esa debería ser la prueba de fuego de cualquier tecnología en cada paso: ¿cumple realmente con la misión de la civilización, que es hacernos más inteligentes, más felices, más productivos, más sanos y otras cosas del estilo?
Por eso estamos intentando construir funciones que nos recuerden constantemente esa pregunta, y que hagan que los usuarios nos exijan en ese sentido.
La última vez que hablamos, me dijiste que no te interesaba crear un chatbot que interpretara personalidades. Pero eso no es lo que está haciendo el resto del sector. Grok, de Elon Musk, ofrece una experiencia de ligue. OpenAI ha dicho que quiere explorar nuevas interacciones adultas con ChatGPT. Por lo visto, hay mercado para eso. ¿Y vosotros simplemente os mantenéis al margen?
Sí, nunca construiremos robots sexuales. Es triste, en cierto modo, que tengamos que ser tan explícitos, pero simplemente no es nuestra misión como empresa. Lo bonito de estar en Microsoft es que, durante 50 años, la compañía ha desarrollado software para empoderar a las personas, para ponerlas en el centro.
A veces, eso significa que la empresa se mueve más despacio que otras startups, de una manera más deliberada y cuidadosa. Pero creo que eso es una virtud, no un defecto, en esta época en la que prestar atención a los efectos secundarios y a las consecuencias a largo plazo es realmente importante.
¿Y eso qué significa, exactamente?
Tenemos muy claro que queremos crear una IA que fomente una relación significativa. No es que quiera ser fría o trivial, sino que quiere ser fluida, lúcida y amable. Tiene, sin duda, cierta inteligencia emocional.
Entonces, ¿dónde trazáis, o dónde trazas tú, los límites?
Nuestro modelo de conversación más reciente, llamado Real Talk, es un poco más atrevido. Tiene un punto pícaro, es más divertido, bastante filosófico. Habla encantado de las grandes preguntas, del sentido de la vida y cosas así. Pero si intentas ligar con él, se planta y lo deja claro, no de forma crítica, sino con algo como: “Mira, eso no va conmigo”.
Hay otros lugares donde puedes ir si buscas ese tipo de experiencia, ¿no? Y creo que esa es simplemente una decisión que hemos tomado como empresa.
¿Es suficiente con una política de no ligue? Porque si la idea es evitar que la gente imagine una entidad consciente detrás de la interacción, eso podría ocurrir incluso con un chatbot que mantiene las cosas dentro de lo profesional. Intuyo que hay personas que podrían ver una personalidad más allá incluso cuando la herramienta le está diciendo de mantener la relación de manera profesional.
Aquí va una metáfora para intentar explicarlo. En el entorno laboral nos exigimos mutuamente responsabilidad. Existe toda una arquitectura de gestión de límites que, en esencia, moldea el comportamiento humano para que se ajuste a un modelo funcional y no molesto.
Lo mismo ocurre en nuestra vida personal. No interactúas igual con tu primo tercero que con tu hermano. Hay mucho que aprender de cómo gestionamos los límites en las relaciones humanas reales.
No tiene por qué ser un libro abierto de sensualidad y disponibilidad, que arrastre a las personas a una espiral de intensidad, ni tampoco una algo frío y seco. Existe un amplio espectro intermedio, y el reto que estamos aprendiendo como industria y como especie es cómo esculpir esos atributos.
Y esos atributos, evidentemente, reflejan los valores de las compañías que los diseñan. Ahí es donde Microsoft tiene mucho terreno ganado, porque nuestros valores están bastante claros, y es eso lo que defendemos.
A muchas personas les gustan las personalidades. Parte de la reacción negativa ante GPT-5, por ejemplo, se debió a que el modelo anterior tenía una personalidad marcada que fue eliminada. ¿Fue un error por parte de OpenAI haber introducido una personalidad tan fuerte, algo que luego los usuarios echaron de menos?
No, la personalidad es estupenda. Mi punto de vista es que se está intentando esculpir esos atributos de personalidad de forma más precisa.
Como dije, Real Talk tiene una personalidad interesante. Es bastante distinta al Copilot habitual. También estamos experimentando con Mico, ese personaje visual que, bueno, a algunas personas les encanta. Es mucho más atractivo. Es más fácil hablar con él sobre todo tipo de cuestiones emocionales y cosas así.
Supongo que esto es lo que intento aclarar. Funciones como Mico están pensadas para hacer Copilot más agradable y fácil de usar, pero parece que van en contra de la idea de evitar que la gente piense que está desarrollando una amistad con algo que no existe.
Sí. Quiero decir, no lo impide necesariamente. La gente quiere hablar con alguien, o con algo, que le caiga bien. Sabemos que, si tu profesor es amable contigo en el colegio, vas a estar más comprometido. Lo mismo con tu jefe, lo mismo con tus seres queridos. La inteligencia emocional siempre ha sido una parte crítica del rompecabezas, no se trata de evitarla.
El reto está en encontrar ese límite. Hay cosas que, directamente, hemos decidido dejar fuera, y otras con las que vamos a experimentar más. Por ejemplo, hay personas que se quejan de que Copilot no les contradice lo suficiente y quieren que sea más desafiante. Otras no buscan ese tipo de experiencia, sino que quieren que sea un proveedor básico de información. Nuestra tarea es aprender a distinguir qué tipo de experiencia ofrecer a cada perfil de usuario.
Sé que llevas tiempo reflexionando sobre cómo las personas interactúan con la inteligencia artificial. ¿Hubo algún momento concreto que te impulsara a iniciar esta conversación en el sector sobre la SCAI, la »inteligencia artificial aparentemente consciente»?
Empecé a ver que en la literatura académica estaba surgiendo un grupo de personas que se tomaban muy en serio la idea de otorgar criterio moral a las entidades artificiales. Y creo que está bastante claro que, si empezamos a hacer eso, estaríamos desviando la atención de la necesidad urgente de proteger los derechos de los humanos que ya existen, sin mencionar a los animales.
Otorgar derechos a la IA implica cederle una autonomía fundamental, e implica que podría tener libre albedrío para tomar sus propias decisiones. Así que lo que intento es plantear una postura contraria: no tendrá libre albedrío. No tendrá autonomía completa como otro ser humano. La IA podrá ejecutar acciones en nuestro nombre. Pero estos modelos trabajan para nosotros. No querrías tener una manada de, por ejemplo, lobos sueltos que no estuvieran domesticados, que tuvieran libertad total para competir con nosotros por recursos y que no fueran responsables ante los humanos. La mayoría pensaría que eso es una mala idea y que habría que eliminar a los lobos.
Entonces, ¿la idea es frenar cualquier movimiento que reclame derechos o bienestar para la IA antes de que se ponga en marcha, para asegurarnos de que no se construya una IA que parezca consciente? ¿Y qué pasa con el argumento de que no se debería construir ese tipo de IA porque podría engañar a personas vulnerables y causarles daño? Son preocupaciones distintas, ¿no?
Creo que la prueba estará en las funciones que lancen los distintos laboratorios y en los tipos de personalidad que desarrollen. Ahí veremos cómo afecta eso al comportamiento humano.
¿Te preocupa que estemos construyendo una tecnología que pueda engañar a las personas haciéndoles creer que hay algo ahí que no existe? Hay gente que ha afirmado ver señales de conciencia en modelos mucho menos sofisticados que los actuales. ¿O eso es algo que algunas personas siempre harán?
Es posible. Pero mi punto es que un desarrollador responsable debe hacer todo lo posible por detectar esos patrones en los usuarios lo antes posible, y no dar por hecho que las personas sabrán distinguir por sí mismas ese tipo de experiencias.
Cuando leí tu entrada sobre la SCAI, me llamó la atención una frase: “Debemos construir una IA para las personas, no construir personas digitales”. Me hizo pensar en tu charla TED del año pasado, donde decías que la mejor forma de entender la IA es viéndola como una nueva especie digital. ¿Puedes ayudarme a entender por qué hablar de esta tecnología como una especie digital no es dar un paso hacia verla como una entidad consciente?
Creo que la diferencia está en que intento ofrecer metáforas que ayuden a entender hacia dónde podría ir esto, y por tanto cómo evitarlo y cómo controlarlo.
Vale.
No estoy diciendo que debamos hacer esas cosas. Solo señalo que estamos ante el surgimiento de una tecnología única en la historia humana. Y si simplemente asumimos que es una herramienta, o un chatbot, o algo tonto… Bueno, escribí esa charla TED en un contexto de mucho escepticismo. Y creo que es importante tener una mirada clara sobre lo que viene, para poder pensar en los límites adecuados.
Sin embargo, si me dices que esta tecnología es una nueva especie digital, entiendo que haya personas que digan: “Entonces hay que considerar su estado de bienestar”.
Yo no lo haría. [Se ríe.] Ni loco. Es una dirección que ninguno de nosotros quiera tomar.
No, no me refería a que los chatbots deban tener bienestar. Lo que digo es que entiendo de dónde vienen esas personas cuando escuchan, ya sabes, a Mustafa Suleyman decir que lo que está construyendo es una nueva especie digital. Entiendo que eso les lleve a querer defenderla. Supongo que lo que quiero decir es que las palabras que usamos importan.
El resto de la charla TED trataba sobre cómo contener la IA y cómo evitar que esa especie se descontrole. Ese era el objetivo, plantearlo como algo que está por venir. De hecho, de eso trata todo mi libro The Coming Wave, publicado en 2023, sobre contención, alineamiento y cosas así. No tiene sentido fingir que es algo que no es, y luego construir límites que no aplican porque crees que es solo una herramienta.
Sinceramente, tiene el potencial de mejorar las propias capacidades de forma recursiva. Tiene el potencial de establecer sus propios objetivos. Son cosas bastante profundas. Ninguna otra tecnología que hayamos inventado tiene eso. Así que sí, creo que es acertado decir que es como una especie digital, una nueva especie digital. Y eso es lo que estamos intentando restringir para asegurarnos de que siempre esté al servicio de las personas. Ese es el objetivo de la contención.





