Anthropic rechaza al Pentágono: Claude no quitará guardrails para armas autónomas

Declaración de Anthropic sobre los guardrails de Claude para armas autónomas y riesgos para tropas y civiles

Anthropic rechaza al Pentágono: Claude no quitará guardrails para armas autónomas

Compartir:

Anthropic rechaza al Pentágono: Claude no quitará guardrails para armas autónomas

Anthropic elevó el pulso con el Departamento de Defensa de Estados Unidos tras rechazar una exigencia contractual para retirar los guardrails de Claude para armas autónomas. La startup de AI sostiene que los sistemas “frontier” actuales no son lo bastante fiables como para operar sin supervisión humana en escenarios de letalidad, y advierte de un impacto directo en seguridad: podrían poner en riesgo a tropas estadounidenses y a población civil.

La respuesta llega después de que la administración estadounidense presionara a la compañía para permitir un uso militar sin restricciones de Claude, bajo amenaza de cancelar contratos y aplicar penalizaciones. El CEO de Anthropic, Dario Amodei, fijó públicamente la posición: no aceptarán modificar sus controles de seguridad para cumplir el requerimiento.

Qué son los guardrails de Claude para armas autónomas y por qué importan

En el contexto de modelos de Large Language Model (LLM) y sistemas de AI “frontier”, los guardrails de Claude para armas autónomas se refieren a restricciones de uso, políticas de seguridad y límites técnicos diseñados para impedir que el modelo se utilice en tareas de alto riesgo (por ejemplo, toma de decisiones letales sin humano en el loop). Anthropic argumenta que retirar estos controles no es un simple cambio de configuración: implicaría habilitar capacidades en un entorno donde la robustez, la verificación y la validación de comportamiento no alcanzan el estándar exigible para sistemas armamentísticos autónomos.

La compañía enmarca su negativa en una idea central: la AI puede “socavar valores democráticos” en casos específicos, especialmente cuando se usa para vigilancia masiva o para automatizar decisiones que requieren juicio humano en tiempo real bajo incertidumbre extrema.

Los dos casos que Anthropic considera fuera de los límites actuales

Según el comunicado firmado por Amodei, hay dos escenarios que Anthropic considera “fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable”. En ambos, la empresa sostiene que retirar los guardrails de Claude para armas autónomas (y, por extensión, sus restricciones de uso) abriría la puerta a fallos sistémicos con consecuencias operativas.

1) Vigilancia doméstica a gran escala

Anthropic señala que la AI puede permitir vigilancia masiva creando “una imagen completa de la vida de cualquier persona” de manera automatizada y a escala. El punto técnico de fondo es la capacidad de correlación: modelos avanzados pueden ayudar a unir fuentes heterogéneas (texto, registros, metadatos y señales) para generar perfiles detallados, acelerando tareas de análisis y reduciendo los costes marginales de monitorización.

2) Armas totalmente autónomas

El segundo caso es el que más tensión genera: sistemas de armamento plenamente autónomos. Anthropic sostiene que los sistemas “frontier” no tienen la fiabilidad necesaria para operar armas sin supervisión humana y que, en su estado actual, podrían introducir errores de identificación, selección o escalado de acciones en condiciones reales. Por ello, la empresa afirma que no proporcionará deliberadamente un producto que ponga en riesgo a warfighters y civiles, manteniendo los guardrails de Claude para armas autónomas como condición no negociable.

Oferta de I+D y choque de narrativa sobre “seguridad nacional”

Anthropic afirma haber ofrecido trabajar directamente con el Departamento de Defensa en iniciativas de R&D para mejorar la fiabilidad de estos sistemas, pero indica que esa propuesta no fue aceptada. También critica lo que considera inconsistencias en el enfoque gubernamental: por un lado, se amenaza con sanciones por negarse a retirar controles; por otro, se justifica esa retirada “en nombre de la seguridad nacional”.

El trasfondo de la disputa es un debate que lleva años escalando en Washington y en la industria: hasta qué punto los proveedores comerciales de AI deben adaptar sus políticas de uso para satisfacer necesidades militares, y qué responsabilidades asumen si sus modelos se integran en cadenas de decisión críticas.

Qué pasa ahora con los contratos del Pentágono

La declaración de Anthropic prepara el terreno para un enfrentamiento con el liderazgo del Departamento de Defensa, que habría marcado una fecha límite para que la empresa aceptara los términos. La compañía, sin embargo, insiste en que quiere seguir suministrando tecnología al gobierno sin desactivar sus restricciones, es decir, sin retirar los guardrails de Claude para armas autónomas.

El caso puede sentar precedente para otros vendors de modelos de AI: si el gobierno fuerza contractualmente la eliminación de controles, el listón para “uso sin restricciones” podría trasladarse al resto del sector, con implicaciones en compliance, auditoría de modelos, gobernanza y riesgo reputacional.

Fuentes y contexto oficial

En el corto plazo, el conflicto gira en torno a una línea roja: Anthropic no contempla retirar los guardrails de Claude para armas autónomas mientras la fiabilidad de los sistemas “frontier” no permita garantías operativas y de seguridad acordes al nivel de riesgo.

Compartir:

Déjanos tu comentario

Scroll al inicio