Forbes Uruguay
mujeres, negocio, trabajo, oficina, computadora portátil, computadora, mujer de
Innovacion

La razón por la cual los agentes de IA todavía fallan sin la intervención humana

Gary Drenik

Share

Aunque prometen eficiencia y autonomía, los agentes automatizados chocan con límites concretos cuando se integran al trabajo diario: sin supervisión, reglas ni responsables claros, los errores se multiplican y la confianza se desvanece.

9 Enero de 2026 12.30

Empresas de todo el mundo apuestan fuerte por los agentes de inteligencia artificial con la esperanza de ganar eficiencia, acortar los tiempos de trabajo y tomar mejores decisiones. La promesa suena atractiva, pero la realidad en muchas organizaciones es bastante más compleja. Buena parte de las implementaciones iniciales se estanca porque los agentes de IA se incorporan sin la supervisión ni la responsabilidad humanas necesarias para que funcionen de manera segura y eficaz.

Rajeev Butani, director ejecutivo de MediaMint, una compañía de servicios de crecimiento basada en inteligencia artificial, sostiene que el problema empieza mucho antes: en cómo las empresas definen el rol de estos agentes dentro de sus procesos.

"Los agentes de IA no fracasan por falta de inteligencia. Su potencial muchas veces queda limitado porque se implementan sin la supervisión humana ni la rendición de cuentas necesarias para tomar decisiones cruciales", afirma Butani.

La cautela de las empresas frente a los agentes totalmente autónomos quedó reflejada en una encuesta de Gartner. Solo el 15 % de los líderes de tecnología dijeron que están considerando, probando o implementando este tipo de herramientas: agentes de IA diseñados para cumplir objetivos sin intervención humana.

Los consumidores todavía prefieren tratar con humanos cuando la situación lo requiere. Las empresas avanzan rápido en la incorporación de agentes de inteligencia artificial para optimizar procesos internos, como la conciliación de datos, la automatización del flujo de trabajo, la planificación de medios o los controles de calidad. 

También suman cada vez más estas herramientas en áreas vinculadas con la atención al cliente, como ventas, marketing y soporte. Sin embargo, la misma duda que los líderes detectan dentro de sus equipos también aparece en los consumidores.

Según una encuesta reciente de Prosper Insights & Analytics, el 39 % de los consumidores considera que las herramientas de inteligencia artificial necesitan más supervisión humana. El dato deja en claro que muchas personas todavía no se sienten cómodas frente a experiencias completamente autónomas, sobre todo en contextos de alto riesgo o con carga emocional. La IA no puede garantizar un funcionamiento consistente sin supervisión humana, reglas claras y una gobernanza transparente.

Prosper - Preocupación por los recientes avances en inteligencia artificial
Prosper - Preocupación por los recientes avances en inteligencia artificial. Perspectivas y análisis de Prosper.

Las dudas sobre la confianza se vuelven más evidentes cuando las empresas intentan aplicar agentes en flujos de trabajo reales. Al llevar la inteligencia artificial agentic a operaciones concretas, la tecnología suele rendir bien en entornos controlados. Sin embargo, si no existen medidas de seguridad claras, aparecen problemas frente a casos atípicos, instrucciones poco precisas o necesidades que cambian con el tiempo.

Por qué fallan los agentes de IA en la práctica: la capa humana que falta

Los datos más recientes del informe Data & AI Monitor de Xebia muestran que los equipos muchas veces dudan en adoptar soluciones de inteligencia artificial cuando los sistemas no ofrecen transparencia, contexto ni una asignación clara de responsabilidades. Esas son justamente las barreras que enfrentan muchas empresas al intentar implementar agentes a gran escala.

Los líderes se topan con estas limitaciones en tiempo real, sobre todo cuando intentan pasar de las pruebas piloto al uso cotidiano de estos sistemas.

Butani observó este patrón una y otra vez en proyectos empresariales de IA agentic, en los que las compañías intentan poner en marcha agentes sin una estructura de gobernanza clara. “La creencia en el potencial de la IA agentic está bien establecida, pero las empresas aún están buscando cómo escalarla responsablemente. Para operar eficazmente, las empresas deben adoptar un modelo donde los agentes trabajen codo con codo con las personas. Los humanos siguen siendo la última instancia de decisión”, dijo.

Muchas empresas implementan agentes de inteligencia artificial como si fueran productos terminados. Pero, en la práctica, se comportan más como integrantes junior de un equipo: necesitan dirección, reglas claras para tomar decisiones y una guía constante. Sin esa conducción, los agentes interpretan mal los datos, hacen suposiciones equivocadas y toman decisiones que se alejan de los objetivos del negocio. Los datos de Prosper refuerzan esta idea: el 38,9 % de los ejecutivos y el 32,7 % de los empleados creen que los sistemas de IA necesitan supervisión humana para resultar confiables.

Prosper - Preocupación por los recientes avances en inteligencia artificial
Prosper - Preocupación por los recientes avances en inteligencia artificial. Perspectivas y análisis de Prosper.

Esto marca un punto clave sobre cómo las organizaciones definen el rol de los agentes dentro de sus operaciones y ayuda a entender por qué tantos programas de inteligencia artificial muestran potencial al comienzo, pero no logran escalar. El problema no está en la tecnología, sino en la falta de claridad sobre cómo se integra el agente al trabajo cotidiano, quién lo guía y quién asume la responsabilidad cuando sus decisiones impactan en los resultados. Estos desafíos están llevando a muchas empresas a repensar cómo debe convivir la IA con la experiencia humana.

Por qué el futuro es humano + IA: la transición al servicio como software

Las compañías que consiguen mejoras concretas gracias a la inteligencia artificial agentic no persiguen la autonomía total. Están diseñando sistemas en los que los agentes se encargan de las tareas repetitivas y pesadas, mientras que las personas toman las decisiones más sutiles.

En operaciones publicitarias, por ejemplo, un agente puede generar un primer borrador de un plan de medios en pocos minutos, a partir del análisis del rendimiento histórico y las tendencias del inventario. Luego, un estratega lo ajusta, interpreta el contexto y alinea el plan con los objetivos del cliente. Los agentes aportan velocidad a gran escala; los humanos, la interpretación que asegura relevancia y precisión.

Este esquema compartido reduce riesgos, mejora la calidad, elimina tareas de bajo valor y libera tiempo para que las personas se concentren en trabajos con mayor impacto.

Los datos de Prosper confirman esta tendencia: el 15,9 % de los empleados y el 13,9 % de los ejecutivos dicen que la inteligencia artificial les genera ansiedad. Por eso, los modelos que combinan guía humana con automatización basada en agentes no solo reducen el estrés, también aumentan la confianza dentro de los equipos.

Prosper - Preocupación por los recientes avances en inteligencia artificial
Prosper - Preocupación por los recientes avances en inteligencia artificial. Perspectivas y análisis de Prosper.

Según Butani, estas exigencias operativas están impulsando un cambio profundo en la manera en que las empresas esperan que funcione la inteligencia artificial. Él define este modelo como “Servicio como Software”. En lugar de ofrecer herramientas aisladas, las compañías integran los agentes directamente en la ejecución. Los agentes ya no trabajan a un costado del flujo de trabajo, sino dentro de él, acompañados por operadores capacitados que validan, ajustan y guían sus acciones. Este modelo está cambiando la forma en que las empresas organizan sus operaciones y también lo que esperan de sus socios tecnológicos.

Los compradores ya no quieren sumar otra herramienta para gestionar. Esperan que sus socios ofrezcan este esquema combinado, con garantías de que la inteligencia artificial funcione de manera confiable en producción y con un compromiso compartido en los resultados.

Cómo los líderes transforman el potencial de la IA en resultados concretos

Para quienes lideran este cambio, hay algunos principios que distinguen de manera consistente las implementaciones exitosas de inteligencia artificial agentic de aquellas que quedan estancadas. Para alcanzar resultados sostenibles con agentes de IA, es clave enfocarse en la calidad de los datos, la supervisión humana durante el proceso, estructuras claras de responsabilidad y casos de uso iniciales que generen resultados visibles y rápidos. Estos pasos fortalecen la confianza y sientan las condiciones necesarias para escalar.

A medida que los agentes de IA ganan capacidades y se integran más a fondo en las operaciones, su eficacia dependerá de cómo se incorporen a sistemas guiados por personas. La supervisión, la transparencia y la responsabilidad no solo hacen que la inteligencia artificial sea más segura y precisa, sino que también aumentan su valor real dentro del negocio.

Butani lo resume con claridad: “El futuro de la IA no consiste en reemplazar a los humanos. Se trata de empoderarlos”.

Las empresas que adopten esta visión avanzarán con mayor rapidez, evitarán errores costosos y construirán la confianza necesaria para escalar la inteligencia artificial agentic de forma responsable.

Aviso: el estudio de percepción del consumidor mencionado fue realizado por Prosper Insights & Analytics. Es el mismo conjunto de datos que utilizan la Federación Nacional de Minoristas y plataformas como Amazon Web Services, Bloomberg y el London Stock Exchange Group para análisis económicos.

Nota publicada por Forbes US

10