Cover Image for De rastreadores a agentes de inteligencia artificial: la necesidad de un enfoque basado en la intención para desentrañar la nueva web impulsada por IA.

De rastreadores a agentes de inteligencia artificial: la necesidad de un enfoque basado en la intención para desentrañar la nueva web impulsada por IA.

Los agentes de inteligencia artificial están provocando un cambio en la seguridad, pasando de centrarse en la identidad a enfocarse en la intención.

En mayo de 2025, DataDome registró cerca de 976 millones de solicitudes provenientes de rastreadores identificados como OpenAI. Este aumento se detectó tras el lanzamiento del agente Operator de OpenAI, que llevó a un incremento del 48% en el volumen de solicitudes en solo 48 horas. Estos datos ilustran una tendencia que se ha convertido en la "nueva normalidad" del tráfico web para las empresas hoy en día.

Aunque los bots y rastreadores han existido en internet durante años, los agentes autónomos impulsados por inteligencia artificial son un desarrollo más reciente. Estos agentes, que incluyen desde rastreadores basados en modelos de lenguaje hasta programas más sofisticados que realizan tareas en línea de forma autónoma, presentan un comportamiento más persistente y son más difíciles de clasificar que los bots simples. Esto crea nuevos retos para los equipos de fraude y seguridad.

A medida que crece la participación de agentes de IA en el tráfico web, los equipos de seguridad de las organizaciones deben adoptar un enfoque diferente. Ya que falsificar una identidad es más fácil que ocultar una intención, es crucial no solo identificar si un usuario es humano o un bot, sino también indagar sobre el motivo de su interacción con la plataforma. Aquí es donde entran en juego las estrategias de ciberseguridad basadas en la intención.

El aumento de la actividad de los rastreadores de OpenAI es solo un indicativo de una tendencia más amplia. Actualmente, el 36.7% del tráfico proviene de fuentes no navegadoras, como APIs, SDKs, aplicaciones móviles y la misma clase de agentes autónomos. Estos agentes impulsados por IA tienen la capacidad de recopilar, sintetizar y simular actividades de manera que eluden las defensas de seguridad tradicionales. Una de las estrategias que a menudo ignoran es el protocolo estándar robots.txt, lo que puede complicar a las empresas que confiar en este método para gestionar el acceso de los rastreadores. Además, ciertos agentes imitan el comportamiento de usuarios reales para evadir restricciones, no siempre con malas intenciones, sino con el objetivo de evitar bloqueos.

Esto plantea un reto significativo para los equipos de seguridad: no todos los agentes de IA son maliciosos, pero muchos operan sin regulación, lo que impide que los sistemas de defensa tradicionales los diferencien. Este aspecto es esencial, no solo para prevenir actividades dañinas como la recopilación de datos o abuso de cuentas, sino también para facilitar usos beneficiosos, como búsquedas apoyadas en LLM, resúmenes de contenido e integraciones impulsadas por API.

Las estrategias tradicionales suelen emplear una lógica binaria: permiten o bloquean. Estas metodologías dependen de reglas predefinidas, listas de reputación de IP y umbrales estáticos para la limitación de la tasa. Aunque funcionan con bots de spam rudimentarios, no son efectivas contra agentes dinámicos y más inteligentes que se adaptan en tiempo real. Bloquear todo puede resultar en la expulsión de tráfico de IA beneficioso, mientras que permitir todo puede abrir la puerta a fraudes y filtraciones de datos. Por lo tanto, el enfoque más efectivo es aquel que se basa en el análisis de intención.

En lugar de enfocarse en el qué del tráfico, los equipos de seguridad deben centrarse en el porqué de la visita de los usuarios a sus plataformas. Un sistema basado en la intención evalúa constantemente el comportamiento y el contexto para determinar si debe permitir, desafiar o bloquear una solicitud. Por ejemplo, un usuario que accede repetidamente a la web de un minorista durante el lanzamiento de un producto de edición limitada puede ser un bot revendedor y su comportamiento debe ser considerado sospechoso.

Por otro lado, si un agente de IA congestiona el sitio web de una aerolínea con múltiples verificaciones de precios, puede parecer navegación normal, pero puede entorpecer la experiencia de los clientes reales. Un sistema basado en la intención identificaría estos patrones inusuales y podría bloquear el acceso antes de que ocurra daño.

Los equipos de seguridad necesitan replantear sus fundamentos. Los procesos antiguos para monitorear el tráfico ya no son aplicables; deben auditar sus entornos para identificar la fuente, comportamiento y finalidad del tráfico no navegante. También deben adoptar estrategias de defensa dinámicas, en lugar de limitarse a listas de bloqueo o limitaciones de tasa.

Una política de acceso clara es fundamental. Esto implica que los equipos de producto, seguridad y legal deben acordar qué agentes de IA son aceptables en sus plataformas digitales y en qué condiciones. Una vez definidas estas reglas, deben aplicarse de manera coherente en todas las plataformas. El futuro de la ciberseguridad no radica en detener todos los bots o confiar ciegamente en todos los humanos, sino en comprender el “porqué” detrás de cada solicitud.