Inteligencia Artificial

Cultivando la IA agéntica más allá de la etapa infantil

PorLynn Comp
6 min
16 de marzo de 2026
Cultivando la IA agéntica más allá de la etapa infantil

La promesa de la IA agéntica autónoma requiere cambios significativos en el panorama de la gobe anza.

Los padres de niños pequeños se enfrentan a numerosos temores sobre los hitos del desarrollo, desde la infancia hasta la edad adulta. El número de meses que tarda un bebé en aprender a hablar o caminar se utiliza a menudo como punto de referencia para el bienestar, o como un indicador de pruebas adicionales necesarias para diagnosticar correctamente una posible afección de salud. Un padre se alegra con los primeros pasos de su hijo y luego se da cuenta de cuánto ha cambiado todo cuando el niño puede caminar rápidamente al aire libre, en lugar de gatear lentamente en un área segura dentro de casa. De repente, la seguridad, incluida la protección infantil, adopta una perspectiva y un enfoque completamente diferentes.

La IA generativa dio el salto a la niñez entre diciembre de 2025 y enero de 2026 con la introducción de herramientas no-code de múltiples proveedores y el debut de OpenClaw, un agente personal de código abierto publicado en GitHub. Se acabó gatear por la alfombra: el bebé tecnológico de la IA generativa emprendió un sprint, y muy pocos principios de gobe anza estaban preparados a nivel operativo.

El desafío de la rendición de cuentas: No son ellos, eres tú

Hasta ahora, la gobe anza se ha centrado en los riesgos de la salida del modelo con humanos en el bucle antes de que se tomaran decisiones trascendentales, como en las aprobaciones de préstamos o las solicitudes de empleo. El comportamiento del modelo, incluidos la deriva, la alineación, la exfiltración de datos y el envenenamiento, era el foco. El ritmo lo marcaba un humano al dar indicaciones a un modelo en formato de chatbot, con un gran número de interacciones de ida y vuelta entre la máquina y el humano.

Hoy en día, con agentes autónomos operando en flujos de trabajo complejos, la visión y los beneficios de la IA aplicada requieren una intervención humana significativamente menor. El objetivo es operar una empresa al ritmo de una máquina, automatizando tareas manuales que poseen una arquitectura y reglas de decisión claras. El objetivo, desde el punto de vista de la responsabilidad, es que no haya reducción del riesgo empresarial, ya sea que un flujo de trabajo sea operado por una máquina o por un ser humano. CX Today resume la situación de forma concisa: “La IA hace el trabajo, los humanos asumen el riesgo,” y   la ley estatal de Califo ia (AB 316), que entró en vigor el 1 de enero de 2026, elimina la excusa de “Lo hizo la IA; yo no lo aprobé”.  Esto es comparable a la crianza, donde un adulto es considerado responsable de las acciones de un niño que impactan negativamente a la comunidad en general.

El reto es que, sin integrar código que aplique una gobe anza operativa alineada con diferentes niveles de riesgo y responsabilidad a lo largo de todo el flujo de trabajo, el beneficio de los agentes de IA autónomos se anula. En el pasado, la gobe anza había sido estática y se alineaba con el ritmo de interacción típico de un chatbot. Sin embargo, la IA autónoma, por su propio diseño, excluye a los humanos de muchas decisiones, lo que puede afectar a dicha gobe anza.  

Consideración de permisos

Al igual que entregar a un niño de tres años una videoconsola que controla de forma remota un tanque Abrams o un dron armado, dejar que un sistema probabilístico opere sin barreras de seguridad en tiempo real que puedan modificar datos empresariales críticos conlleva riesgos significativos.  Por ejemplo, los agentes que integran y encadenan acciones a través de múltiples sistemas corporativos pueden exceder los privilegios que se concederían a un único usuario humano. Para avanzar con éxito, la gobe anza debe ir más allá de las políticas establecidas por comités para convertirse en código operativo integrado en los flujos de trabajo desde el principio.  

Un meme humorístico sobre el comportamiento de los niños pequeños con los juguetes comienza con todas las razones por las que cualquier juguete que tengas es mío y termina con un juguete roto que definitivamente es tuyo.  Por ejemplo, OpenClaw ofrecía una experiencia de usuario más cercana a la de trabajar con un asistente humano; pero el entusiasmo cambió cuando expertos en seguridad se dieron cuenta de que los usuarios inexpertos podrían verse fácilmente comprometidos al usarlo.

Durante décadas, la TI empresarial ha convivido con la TI en la sombra y con la realidad de que los equipos técnicos cualificados deben hacerse cargo y limpiar activos que no diseñaron ni instalaron, al igual que el niño pequeño que devuelve un juguete roto. Con los agentes autónomos, los riesgos son mayores: credenciales persistentes de cuentas de servicio, tokens de API de larga duración y permisos para tomar decisiones sobre sistemas de archivos centrales. Para afrontar este desafío, es imperativo destinar de antemano el presupuesto y la mano de obra de TI adecuados para mantener el descubrimiento, la supervisión y la remediación centralizados de los miles de agentes creados por empleados o departamentos.

Tener un plan de jubilación

Recientemente, una conocida mencionó que ahorró a un cliente cientos de miles de dólares al identificar y luego poner fin a un "proyecto zombi" —un piloto de IA descuidado o fallido que seguía ejecutándose en una instancia de GPU en la nube. Existen potencialmente miles de agentes que corren el riesgo de convertirse en una flota zombi dentro de una empresa. Hoy en día, muchos ejecutivos animan a los empleados a utilizar la IA —o atenerse a las consecuencias—, y se les dice que creen sus propios flujos de trabajo "AI-first" o asistentes de IA. Con la utilidad de algo como OpenClaw y las directrices jerárquicas, es fácil prever que el número de agentes de creación propia que lleguen a la oficina con su empleado humano se disparará. Dado que un agente de IA es un programa que entraría en la definición de propiedad intelectual (PI) de la empresa, a medida que un empleado cambie de departamento o de empresa, esos agentes pueden quedar huérfanos. Es necesario que haya una política y una gobe anza proactivas para desmantelar y retirar cualquier agente vinculado a una identificación de empleado y permisos específicos.

La optimización financiera es gobe anza desde el primer momento

Mientras que para algunos ejecutivos la IA autónoma suena como una forma de mejorar sus márgenes operativos al limitar el capital humano, muchos están descubriendo que el reto o de la inversión (ROI) en la sustitución de mano de obra humana es el enfoque equivocado. Integrar capacidades de IA en la empresa no significa adquirir una nueva herramienta de software con precios predecibles por instancia/hora o por puesto. Una encuesta de IDC de diciembre de 2025, patrocinada por Data Robot, indicó que el 96% de las organizaciones que implementan IA generativa y el 92% de las que implementan IA agéntica informaron que los costes eran más altos o mucho más altos de lo esperado.

La encuesta separa los conceptos de gobe anza y ROI, pero a medida que los sistemas de IA escalan en grandes empresas, la gobe anza financiera y de responsabilidad debería integrarse en los flujos de trabajo desde el principio. Parte de la gobe anza empresarial surge de prever y cumplir los presupuestos asignados. A diferencia de los modelos financieros de software con costes por licencia y tarifas de soporte y mantenimiento, el uso de la IA implica que los costes de consumo y uso escalan a medida que el flujo de trabajo se extiende por la empresa: cuantos más usuarios, más tokens o más tiempo de cómputo, mayor será la factura. Piénselo como una pestaña dejada abierta, o como el botón de la cesta de la compra digital de un minorista en línea desbloqueado en el dispositivo de juego electrónico de un niño pequeño.

El FinOps en la nube era determinista, pero la IA generativa y los sistemas de IA agéntica construidos sobre IA generativa son probabilísticos. Algunos fundadores que priorizan la IA se están dando cuenta de que los costes de tokens de un solo agente pueden ascender a 100.000 dólares por sesión. Sin salvaguardas incorporadas desde el principio, encadenar agentes autónomos complejos que operan sin supervisión durante largos periodos de tiempo puede superar fácilmente el presupuesto para la contratación de un desarrollador junior.

Mantener la participación humana sigue siendo fundamental

La promesa de la IA agéntica autónoma es la aceleración de las operaciones empresariales, la introducción de productos, la experiencia del cliente y la retención de clientes. El paso a decisiones a velocidad de máquina sin la intervención de humanos en la toma de decisiones o en su supervisión para estas funciones clave cambia significativamente el panorama de la gobe anza. Si bien muchos de los principios en to o a los permisos proactivos, el descubrimiento, la auditoría, la remediación y las operaciones/optimizaciones financieras son los mismos, la forma en que se ejecutan debe adaptarse para seguir el ritmo de la IA agéntica autónoma.

Este contenido fue producido por Intel. No fue escrito por el equipo editorial de MIT Technology Review.

Compartir