Tu agente de cobranza envía correos a clientes. Tu agente de operaciones consulta hojas de cálculo con datos financieros. Tu agente de atención al cliente lee conversaciones de WhatsApp con información personal. Cada uno accede, procesa y actúa sobre datos sensibles de tu empresa varias veces al día.

La pregunta que muy pocas PYMEs se están haciendo es quién supervisa todo eso.

En marzo de 2026, la Agencia Española de Protección de Datos publicó una guía específica sobre IA agéntica. El mensaje central fue directo: si tienes agentes autónomos operando sobre datos sensibles sin registros de actividad, sin filtros en las instrucciones que reciben y sin políticas de acceso definidas, tienes un riesgo activo. No un riesgo teórico. Uno que está ocurriendo ahora mismo, cada vez que tu agente ejecuta una tarea sin que nadie revise qué hizo ni por qué.

El problema no es la tecnología, es la falta de visibilidad

Cuando contratas a una persona, le das acceso solo a lo que necesita. El encargado de cobranza no tiene las claves del sistema contable. La recepcionista no lee los contratos de los proveedores. Existe una lógica de permisos que, aunque imperfecta, limita el daño potencial de un error o un mal uso.

Con los agentes de IA, muchas empresas están haciendo exactamente lo contrario. Le dan al agente acceso amplio a correo, calendario, documentos y bases de datos porque "así funciona mejor". Y funciona mejor, en efecto. Pero también significa que un agente con instrucciones ambiguas puede leer, copiar o enviar información que no debería tocar.

Un análisis publicado por Cinco Días identificó ocho tipos de riesgos corporativos al usar IA con datos empresariales. La lista incluye calidad de los datos, alucinaciones, explicabilidad, seguridad, privacidad, sesgos, rendición de cuentas y dependencia de terceros. Lo relevante no es que estos riesgos existan. Es que la mayoría de las empresas que ya usan agentes no han mapeado ninguno de ellos.

Lo que viene en agosto de 2026

El 2 de agosto de 2026 entran en vigor las obligaciones del EU AI Act para sistemas de IA de alto riesgo y los requisitos de transparencia del Artículo 50. Las multas pueden llegar hasta 35 millones de euros.

Si tu empresa opera en Europa, tiene clientes europeos o procesa datos de ciudadanos de la Unión Europea, esto te aplica. Y aunque tu empresa esté en Chile, Argentina o México, si un solo cliente tuyo está en España o Alemania, necesitas demostrar que tu sistema de IA puede explicar sus decisiones, que no discrimina y que tiene registros auditables de lo que hace.

Para una startup de quince personas, esto suena desproporcionado. Pero la regulación no distingue por tamaño de empresa. Distingue por nivel de riesgo del sistema. Un agente que toma decisiones sobre cobranza, crédito o gestión de personal entra en la categoría de alto riesgo. Y "no sabía que tenía que cumplir" no es una defensa válida.

Cinco cosas que puedes revisar esta semana

No necesitas un equipo legal ni un consultor de compliance para empezar a gobernar tus agentes. Estas cinco acciones son prácticas y se pueden implementar sin presupuesto adicional.

  • Audita los permisos de cada agente. Revisa exactamente a qué herramientas y datos tiene acceso cada agente que opera en tu empresa. Si tu agente de marketing puede leer las hojas de cálculo de finanzas, ese permiso sobra. Aplica el principio de mínimo privilegio: cada agente accede solo a lo que necesita para cumplir su función específica.
  • Activa los registros de actividad. Si tu plataforma de agentes genera logs, actívalos. Si no los genera, eso es una señal de alerta sobre la plataforma. Necesitas poder ver qué hizo cada agente, cuándo lo hizo y sobre qué datos actuó. No para revisarlo todo cada día, sino para poder responder cuando algo salga mal.
  • Define qué información nunca debe salir del sistema. RUT de clientes, números de cuenta, datos de salud, información salarial. Haz una lista explícita de lo que tus agentes no pueden incluir en correos externos, mensajes de WhatsApp ni documentos compartidos. Esa lista debe estar en las instrucciones del agente, no solo en tu cabeza.
  • Revisa las instrucciones con ojos de auditor. Lee el prompt o las directrices de cada agente como si fueras un regulador que evalúa tu sistema. Si la instrucción dice "gestiona los clientes morosos", un auditor preguntaría: gestiona cómo, con qué criterio, hasta qué monto, con qué frecuencia, y qué pasa si el cliente reclama. Si no puedes responder esas preguntas leyendo las instrucciones, tu agente tampoco puede.
  • Establece un ciclo de revisión mensual. Los agentes no se configuran una vez y se olvidan. Los datos cambian, los clientes cambian, las regulaciones cambian. Dedica una hora al mes a revisar qué están haciendo tus agentes, qué errores cometieron y qué ajustes necesitan. Las empresas que hacen esto reportan tasas de error significativamente menores que las que dejan los agentes en piloto automático indefinidamente.

El modelo BYOK como primera línea de defensa

Uno de los riesgos que el informe de Cinco Días destaca es la dependencia de terceros. Cuando usas un agente de IA, tus datos pasan por la infraestructura de alguien más. Cada correo que tu agente lee, cada documento que analiza, cada conversación que procesa, viaja a los servidores de un proveedor de modelos de lenguaje.

El modelo BYOK (Bring Your Own Keys) aborda parcialmente este problema. En lugar de que la plataforma de agentes intermedie tu relación con el proveedor de IA, tú usas directamente tus propias claves de API. Eso significa que la plataforma no almacena ni transita tus datos hacia sus propios servidores. La relación contractual sobre privacidad es directa entre tu empresa y Anthropic u OpenAI, con las garantías que esos proveedores ofrecen.

No es una solución completa. Tus datos siguen saliendo de tu empresa hacia los servidores del modelo. Pero elimina un intermediario y te da control sobre quién procesa tu información y bajo qué términos.

Gobernar antes de que te obliguen

Anthropic lanzó cuatro productos en una semana. OpenAI prepara la fusión de todos sus productos en una plataforma integrada. Nvidia construye infraestructura de agentes empresariales. La tecnología avanza más rápido que la capacidad de las empresas para implementarla de forma segura.

Las empresas que gobiernan sus agentes ahora, antes de que la regulación las obligue, van a tener una ventaja doble. Primero, evitarán los errores costosos que vienen de operar sin visibilidad. Segundo, cuando las regulaciones se apliquen, ya estarán en cumplimiento mientras sus competidores corren a adaptarse.

Tus agentes de IA trabajan todos los días con la información más valiosa de tu empresa. La pregunta no es si necesitas gobernarlos. Es cuánto tiempo más puedes permitirte no hacerlo.