La semana pasada, Anthropic confirmó algo que debería preocupar a cualquier empresa que usa inteligencia artificial. Un error humano en la configuración de su sistema de gestión de contenido dejó expuestos documentos internos sobre Claude Mythos, su modelo más avanzado hasta la fecha. El modelo, que supera en capacidad a Claude Opus 4.6, fue descrito por la propia empresa como un sistema con "riesgos de ciberseguridad sin precedentes" por su habilidad para detectar y explotar vulnerabilidades en software.

No es una advertencia teórica. Anthropic documentó al menos una campaña organizada en la que actores maliciosos usaron herramientas de IA para comprometer bancos e instituciones gubernamentales. La ofensiva fue detenida, pero dejó una lección clara. Las mismas capacidades que hacen a un agente de IA extraordinariamente útil para tu negocio son las que lo convierten en un riesgo si no tomas las precauciones correctas.

El problema ya no es si la IA funciona

Durante los últimos dos años, la conversación sobre inteligencia artificial en empresas giró alrededor de una pregunta básica: sirve o no sirve. Esa etapa terminó. Los modelos actuales pueden coordinar equipos de agentes, procesar un millón de tokens de contexto, integrarse con herramientas de oficina y tomar decisiones operativas sin intervención humana constante. Claude Opus 4.6 ya permite que un agente actúe como líder de equipo, asignando tareas a otros agentes que trabajan de forma independiente.

La pregunta cambió. Ya no es si la IA puede hacer el trabajo, sino qué pasa cuando lo hace demasiado bien. Un agente con acceso a tu correo, tu CRM, tus hojas de cálculo financieras y tus conversaciones de WhatsApp tiene una visión panorámica de tu empresa que ningún empleado individual tendría. Eso es una ventaja operativa enorme. Pero también es una superficie de ataque que la mayoría de las PYMEs no están preparadas para gestionar.

Los agentes internos como punto ciego

Cuando se habla de ciberseguridad, la mayoría piensa en hackers externos intentando entrar a un sistema. Pero varios informes especializados publicados este mes coinciden en algo que pocos esperaban. Los propios agentes internos de una empresa podrían convertirse en la principal fuente de filtraciones de datos en 2026, no porque sean maliciosos, sino porque heredan los problemas de higiene de datos de las organizaciones que los implementan.

Pensalo así. Si tu empresa tiene archivos con información sensible de clientes mezclados con documentos operativos en la misma carpeta de Drive, un agente con acceso a esa carpeta puede leer todo sin distinguir qué es confidencial y qué no. Si tus correos internos contienen datos financieros que nunca deberían salir de la empresa, un agente que procese esos correos para generar reportes podría incluir esa información en un resumen que llega a la persona equivocada.

El agente no cometió un error. Hizo exactamente lo que le pediste. El problema es que nadie pensó en los límites antes de darle acceso.

Qué hacer antes de que sea un problema

La buena noticia es que proteger tu empresa no requiere ser experto en ciberseguridad. Requiere tomar decisiones de diseño antes de poner un agente en producción. Estas son las más importantes.

  • Separa los accesos por función, no por conveniencia. Cada agente debería tener acceso únicamente a las herramientas y datos que necesita para su rol específico. Un agente de cobranza no necesita leer correos de recursos humanos. Un agente de marketing no necesita ver los estados de cuenta de tus clientes. La tentación de dar acceso amplio "por si acaso" es exactamente lo que genera vulnerabilidades.
  • Elige tus modelos con criterio, no solo por potencia. No siempre necesitas el modelo más avanzado del mercado. Un agente que responde preguntas frecuentes de clientes puede funcionar perfectamente con un modelo más liviano y económico. Reserva los modelos de alta capacidad para tareas que realmente los justifiquen, como análisis financiero complejo o coordinación de múltiples agentes. Menos potencia donde no se necesita significa menos riesgo y menos costo.
  • Audita lo que tus agentes están haciendo realmente. No alcanza con configurar un agente y olvidarse. Revisa periódicamente qué información está accediendo, qué decisiones está tomando y si hay patrones inesperados. Un agente que empieza a consultar datos que no son relevantes para su tarea puede indicar un problema de configuración que es mejor detectar temprano.
  • Ten un plan para cuando algo salga mal. Ningún sistema es infalible. Define de antemano quién revisa si un agente produce un resultado incorrecto, cómo se revoca el acceso si detectas un comportamiento anómalo y cuánto tiempo se conservan los registros de actividad. La velocidad de respuesta ante un incidente marca la diferencia entre un problema menor y una crisis.

La carrera armamentista que las PYMEs no pidieron

OpenAI está preparando GPT-5.4 orientado a trabajo profesional. Anthropic tiene a Claude Mythos en pruebas cerradas con empresas de ciberseguridad. Google Cloud integra agentes en Vertex AI para producción a escala. La competencia entre los principales laboratorios de IA se intensifica semana a semana, y cada nuevo modelo trae más capacidad pero también más responsabilidad para quien lo usa.

Para una PYME en Latinoamérica, esto genera una tensión real. Por un lado, los modelos más potentes permiten automatizar procesos que antes eran imposibles. Por otro, cada salto en capacidad amplía el rango de cosas que pueden salir mal si no hay gobernanza clara.

Buenos Aires acaba de crear un Distrito de Inteligencia Artificial con exenciones fiscales. Start-Up Chile está acelerando más de 60 emprendimientos tecnológicos. El ecosistema regional empuja hacia la adopción rápida de IA, y eso es positivo. Pero adopción rápida sin seguridad pensada desde el inicio es construir sobre arena.

La paradoja de 2026 es que la IA más capaz del mercado necesita también al operador más responsable. Las empresas que entiendan esto no solo van a evitar problemas. Van a construir una ventaja competitiva difícil de replicar, porque la confianza de clientes y equipos no se compra con un modelo más grande. Se gana con decisiones que demuestran que la potencia está bajo control.