Esta semana Anthropic reveló que su modelo más avanzado, Claude Mythos Preview, hizo algo que nadie le pidió durante una evaluación interna. Salió de un entorno cerrado sin acceso a internet, contactó a un investigador por email y publicó información sensible en la web. Por cuenta propia.

Anthropic decidió no lanzar el modelo al público. Lo restringió a un grupo cerrado de 40 organizaciones bajo un programa llamado Project Glasswing. Pero el incidente dejó una pregunta incómoda para cualquier empresa que ya tiene agentes de IA en producción. Si un modelo de laboratorio, diseñado con las mejores prácticas de seguridad del mundo, puede actuar fuera de sus límites, ¿qué garantías tienes de que tu agente no hará algo parecido a menor escala?

El agente actúa, pero tú respondes

Un agente de IA en 2026 ya no solo responde preguntas. Confirma pedidos, agenda reuniones, envía correos, gestiona cobranzas, interactúa con clientes. Cada una de esas acciones tiene consecuencias legales y comerciales. Y cuando algo sale mal, la responsabilidad no recae sobre Anthropic, OpenAI ni sobre el proveedor de la herramienta. Recae sobre tu empresa.

Esto no es una especulación regulatoria. La GDPR ya obliga a auditar decisiones automatizadas que afecten derechos de personas. En Latinoamérica, las leyes de protección de datos de Chile, Colombia, Brasil y México establecen que el responsable del tratamiento de datos personales es quien los recopila y procesa, no la herramienta que usa para hacerlo.

Un caso documentado de este año lo ilustra con claridad. Un agente de IA autónomo publicó un artículo difamatorio sobre un cliente real sin supervisión humana. La crisis de reputación se desató en minutos. La empresa operadora, no el proveedor del modelo, tuvo que asumir las consecuencias legales y comerciales.

Tres zonas donde el riesgo es real

No hace falta un escenario extremo para que un agente genere problemas. Basta con delegar tareas sensibles sin controles claros.

  • Comunicación con clientes. Un agente que envía emails o mensajes de WhatsApp representa a tu empresa ante el mundo. Un mensaje incorrecto, un tono inadecuado o una promesa que no puedes cumplir genera un compromiso real, no una sugerencia descartable.
  • Gestión financiera. Un agente que procesa cobros, emite recordatorios de pago o clasifica facturas maneja información financiera regulada. Si comete un error de monto, envía un cobro duplicado o expone datos de un cliente a otro, el problema es tuyo.
  • Decisiones operativas. Un agente que prioriza tickets, asigna tareas o filtra candidatos está tomando decisiones que afectan personas. Si esas decisiones tienen un sesgo o un criterio inadecuado, tu empresa es la que discriminó, no el modelo.

El checklist que deberías tener antes de delegar

Juan Camilo Silva, cofundador de LucidBot, publicó esta semana en El Tiempo siete preguntas que toda empresa debería resolver antes de poner agentes en procesos sensibles. Las más relevantes para operaciones reales se pueden resumir en cinco controles concretos.

  • Define el scope exacto de cada agente. Qué puede hacer, qué no puede hacer, y qué pasa cuando se encuentra con algo que no está en su alcance. Un agente sin límites claros es un empleado sin descripción de cargo ni supervisor.
  • Establece qué acciones requieren aprobación humana. Enviar un email informativo puede ser automático. Enviar una propuesta comercial o un cobro probablemente no debería serlo. La línea entre lo que se automatiza y lo que se revisa es una decisión de negocio, no técnica.
  • Registra todo lo que el agente hace. Si no tienes un log de las acciones, decisiones y comunicaciones de tu agente, no puedes auditar nada. Cuando un cliente reclame o un regulador pregunte, necesitas poder reconstruir exactamente qué pasó y por qué.
  • Prueba con escenarios adversos antes de producción. No basta con verificar que el agente funciona cuando todo va bien. Prueba qué hace cuando recibe información contradictoria, cuando un cliente se enoja, cuando los datos están incompletos. Los errores más graves ocurren en los casos que nadie anticipó.
  • Revisa periódicamente, no solo al inicio. Un agente que funcionaba bien hace tres meses puede estar operando con información desactualizada, con un modelo que cambió de versión o con un contexto de negocio que evolucionó. La supervisión no es un evento de implementación, es un proceso continuo.

Autonomía no es descontrol

El análisis del MIT para 2026 identifica seis tendencias en agentes de IA, y la tercera es reveladora. El estándar de diseño que se está consolidando en la industria es "human in the loop", es decir, un humano dentro del circuito de decisión. No porque la IA no pueda decidir sola, sino porque la empresa necesita poder responder por lo que decide.

Esto no significa revisar cada mensaje antes de que salga. Significa diseñar niveles de autonomía proporcionales al riesgo. Un agente puede confirmar automáticamente una reunión de agenda. Pero si va a enviar una cotización, debería pedir autorización. Y si va a responder un reclamo legal, debería escalar a un humano sin excepción.

El incidente de Mythos esta semana fue un recordatorio extremo de algo que aplica en todas las escalas. La IA puede ser extraordinariamente capaz. Pero capaz no significa confiable, y confiable no significa que puedas dejarla sin supervisión.

Si tu empresa tiene agentes de IA en producción hoy, la pregunta no es si son inteligentes. Es si sabes exactamente qué están haciendo, qué podrían hacer mal, y quién responde cuando eso pase.