El Pentágono vs. Anthropic y los límites éticos de la IA
El departamento de Defensa de Estados Unidos reclama acceso total a los modelos para fines bélicos
Por: Redacción QuvoDiario
La luna de miel entre el Pentágono y Anthropic, una de las empresas de Inteligencia Artificial (IA) más avanzadas del mundo, parece haber llegado a un punto crítico. Según fuentes de la administración estadounidense citadas por Axios, el Departamento de Defensa está considerando seriamente romper su relación con la firma debido a las estrictas limitaciones que esta impone sobre el uso militar de su tecnología.
El conflicto: “Cualquier fin lícito”
El eje de la disputa es una demanda clara del Pentágono: que los laboratorios de IA permitan el uso de sus herramientas para “todos los fines lícitos”, incluyendo áreas extremadamente sensibles como el desarrollo de armamento, la recolección de inteligencia y las operaciones en el campo de batalla.
Mientras que competidores como OpenAI (ChatGPT), Google (Gemini) y xAI (Grok) han mostrado mayor flexibilidad y han aceptado levantar ciertas salvaguardas para el uso militar, Anthropic se mantiene firme en dos prohibiciones innegociables: vigilancia masiva de ciudadanos estadounidenses y desarrollo de armamento totalmente autónomo.
La captura de Nicolás Maduro, en el eje del debate
La tensión escaló recientemente tras la operación para capturar al venezolano Nicolás Maduro. Según un alto funcionario, Anthropic habría cuestionado a su socio tecnológico, Palantir, sobre si su modelo (Claude) fue utilizado en la redada, lo que el Pentágono interpretó como una señal de desaprobación ante operaciones cinéticas (donde hay fuego real).
Aunque Anthropic niega haber cuestionado operaciones específicas, el Pentágono describe a la empresa como la más “ideológica” de los laboratorios de IA, señalando un choque cultural entre los ingenieros de Silicon Valley y los estrategas de defensa.
Un reemplazo difícil
A pesar del descontento, el Pentágono se encuentra en una encrucijada. Anthropic no solo fue la primera en introducir sus modelos en redes clasificadas, sino que su contrato actual está valorado en hasta 200 millones de dólares.
“Habría que buscar un reemplazo ordenado si decidimos que esa es la respuesta correcta”, admitió el funcionario, reconociendo que otras empresas aún están por detrás en aplicaciones gubernamentales especializadas.
La postura de Anthropic
Un vocero de la compañía reiteró su compromiso con la seguridad nacional de EE. UU., recordando que fueron pioneros en ofrecer modelos personalizados para este sector. Sin embargo, mantienen que sus “límites duros” no se refieren a las operaciones actuales, sino a principios fundamentales de seguridad y ética que protegen a la sociedad.
El dilema de la autonomía ética
Este enfrentamiento pone en evidencia una brecha técnica insalvable. Mientras que OpenAI, Google y xAI decidieron levantar sus guardias éticas para el uso clasificado, Anthropic apostó por mantener su “IA Constitucional”. Para el mando militar, una IA que “bloquea” una aplicación en medio de una crisis por un conflicto de valores internos se puede convertir en un riesgo operativo inasumible. La seguridad nacional, tal como la entiende la Casa Blanca y la pueden entender eventualmente otros gobiernos, choca de frente con la ética corporativa de Silicon Valley.
Zoom Out: La soberanía del código
En una perspectiva más amplia, esta disputa revela que el poder bélico del siglo XXI ya no reside solo en el acero, sino en los términos de servicio de las empresas de software. Para el Pentágono reemplazar a Claude no será fácil porque su competencia aún está dmorada en aplicaciones gubernamentales especializadas. Sin embargo, el movimiento marca el inicio de una era donde los estados buscarán liberarse de las “conciencias artificiales” privadas para asegurar que el control total de la fuerza permanezca, sin filtros, en manos del gobierno.


