Cover Image for Anthropic presenta Claude Gov para aplicaciones militares y de inteligencia.

Anthropic presenta Claude Gov para aplicaciones militares y de inteligencia.

Los modelos de inteligencia artificial ya están siendo utilizados por agencias en los niveles más altos de seguridad nacional de Estados Unidos.

Anthropic ha presentado recientemente Claude Gov, una versión de su producto orientada específicamente a las agencias de defensa e inteligencia de Estados Unidos. Este modelo de inteligencia artificial cuenta con regulaciones más flexibles en su uso gubernamental y está diseñado para analizar información clasificada de manera más efectiva. La compañía ha declarado que estos modelos ya están siendo utilizados por las agencias más importantes de la seguridad nacional estadounidense, aunque no se ha especificado desde cuándo.

Los modelos de Claude Gov han sido creados para satisfacer las necesidades particulares del gobierno, como la evaluación de amenazas y el análisis de inteligencia. A pesar de que, según la empresa, estos modelos han pasado por las mismas rigurosas pruebas de seguridad que todos los modelos de Claude, están específicamente configurados para trabajos relacionados con la seguridad nacional. Por ejemplo, estos modelos “rechazan menos información” cuando se les suministra contenido clasificado, algo que la versión orientada al consumidor de Claude está entrenada para detectar y evitar. Además, Claude Gov tiene una mayor comprensión de documentos y el contexto dentro de la defensa y la inteligencia, y muestra una mejor capacidad en los idiomas y dialectos relevantes para la seguridad nacional.

El uso de la inteligencia artificial por parte de las agencias gubernamentales ha sido objeto de escrutinio durante mucho tiempo debido a sus posibles repercusiones negativas para las comunidades minoritarias y vulnerables. Se han documentado numerosos casos de arrestos erróneos derivados del uso de tecnologías de reconocimiento facial por parte de la policía, así como evidencias de sesgo en la vigilancia predictiva y discriminación en los algoritmos gubernamentales utilizados para evaluar la ayuda social. Además, ha existido controversia en torno a grandes empresas tecnológicas como Microsoft, Google y Amazon, que han permitido el uso de sus productos de IA por parte del ejército, particularmente en Israel, lo que ha originado campañas y protestas públicas bajo el movimiento No Tech for Apartheid.

La política de uso de Anthropic establece que ningún usuario debe facilitar el intercambio de armas ilegales o altamente reguladas, ni usar sus productos o servicios para "producir, modificar, diseñar, comercializar o distribuir armas, explosivos o materiales peligrosos". Hace al menos once meses, la empresa comunicó que había creado una serie de excepciones contractuales a su política de uso, diseñadas para habilitar usos beneficiosos por parte de ciertas agencias gubernamentales seleccionadas. Aunque algunas restricciones persisten, como las referidas a campañas de desinformación, diseño o uso de armas, y ciberoperaciones maliciosas, Anthropic se reserva el derecho de ajustar las restricciones de uso según la misión y las autoridades legales de las entidades gubernamentales, buscando un equilibrio entre permitir usos beneficiosos y mitigar posibles daños.

Claude Gov se posiciona como la respuesta de Anthropic a ChatGPT Gov, el producto de OpenAI destinado a agencias gubernamentales de EE. UU., lanzado en enero. Este desarrollo es parte de una tendencia más amplia de empresas de inteligencia artificial, tanto grandes como startups, que buscan fortalecer sus negocios a través de colaboraciones con el gobierno, especialmente en un panorama regulatorio incierto. OpenAI, al presentar su ChatGPT Gov, señaló que más de 90,000 empleados de distintos niveles de gobierno habían utilizado su tecnología en el último año para traducir documentos, generar resúmenes, redactar memorandos de políticas y más. Aunque Anthropic no ha compartido cifras o ejemplos de uso similares, participa en el programa FedStart de Palantir, un software como servicio destinado a empresas que desean desplegar software orientado al gobierno federal.

Además, Scale AI, que proporciona datos de entrenamiento a líderes de la industria como OpenAI, Google y Microsoft, firmó en marzo un acuerdo con el Departamento de Defensa para un programa pionero de agentes de IA para la planificación militar estadounidense, y desde entonces ha expandido su negocio a gobiernos de todo el mundo, incluyendo un contrato de cinco años con Catar para automatizar herramientas en servicios civiles, salud, transporte y más.