El Departamento de Defensa de EE. UU. está considerando incluir en la lista negra a Anthropic, una de las principales empresas de inteligencia artificial de Estados Unidos y creadora del modelo de lenguaje de gran tamaño de Claude, tras negarse a permitir que el ejército utilice su tecnología sin límites éticos. Anthropic afirma que sus límites de uso son esenciales para protegerse contra la vigilancia masiva y la creación de armas autónomas, mientras que, según se informa, el Pentágono está considerando designar a la empresa como un "riesgo para la cadena de suministro" y romper los vínculos con el sector de defensa tras el fracaso de meses de negociaciones.
La colaboración tecnológica, hasta entonces discreta, entre el Departamento de Defensa y Anthropic ha desembocado en una disputa pública, filosófica y potencialmente precedente. La cuestión es si una empresa de IA puede establecer límites éticos sobre el uso de su tecnología o si el gobierno tiene la potestad de decidir. Esta disputa plantea interrogantes más importantes sobre quién controla la IA: las empresas que la desarrollan, los ciudadanos cuyas libertades están en juego o las instituciones gubernamentales que desean un acceso sin restricciones.

El enfrentamiento: Riesgos en la cadena de suministro y límites éticos
El secretario de Defensa, Pete Hegseth, es Se dice que está "cerca" a romper vínculos con Anthropic y etiquetar a la empresa como un riesgo para la cadena de suministro —una etiqueta históricamente reservada para adversarios extranjeros— porque Anthropic se ha negado a relajar las restricciones éticas impuestas a sus herramientas de IA. Estas restricciones incluyen negarse a permitir que Claude se utilice para la vigilancia masiva de estadounidenses en el país y para armas totalmente autónomas que puedan disparar sin intervención humana.
La disputa no es hipotética; el Pentágono ha estado presionando a cuatro importantes proveedores de IA —OpenAI, Google, xAI y Anthropic— para que permitan el uso de sus modelos para "todos los fines legales", incluyendo áreas sensibles como el desarrollo de armas, la recopilación de inteligencia y las operaciones en el campo de batalla. Solo Anthropic ha mantenido que algunas aplicaciones deberían permanecer prohibidas, y esta postura ha provocado una manifiesta frustración entre los altos funcionarios de defensa.
El contrato de Anthropic con el Pentágono, adjudicado en julio de 2025 y valorado en hasta 200 millones de dólares, forma parte de un esfuerzo más amplio del ejército estadounidense para integrar tecnología de IA de vanguardia en los flujos de trabajo de defensa. Claude fue el primer modelo aprobado para redes militares clasificadas y sigue siendo el único sistema de este tipo implementado para tareas sensibles. Otras empresas han acordado levantar sus medidas de seguridad para su uso en entornos gubernamentales no clasificados; solo Anthropic se ha mantenido firme en su compromiso de mantener límites éticos en todos los contextos.
El Pentágono argumenta que preestablecer límites para el uso legal es demasiado restrictivo. Un alto funcionario declaró a Axios que negociar aprobaciones caso por caso es impráctico para la planificación militar y que los socios deben estar dispuestos a ayudar a "nuestros combatientes a ganar cualquier batalla". Este funcionario también advirtió que Anthropic podría enfrentar consecuencias por resistirse, lo que refleja la gravedad del impasse.
Anthropic no sabía que la IA de Claude se utilizó para capturar a Maduro
La línea divisoria filosófica en esta disputa se aclaró tras los informes de que se accedió a Claude durante la operación militar estadounidense de enero de 2026 para capturar al presidente venezolano Nicolás Maduro. Según varios medios, Claude se utilizó a través de un sistema desarrollado por Palantir; sin embargo, las disposiciones de Anthropic sobre violencia y política de uso prohíben que sus modelos se utilicen para «facilitar o promover cualquier acto de violencia» o para diseñar o desplegar armas. El ejército no ha confirmado los detalles, y Anthropic ha declarado que no habló sobre el uso de Claude en operaciones específicas, insistiendo en que sus políticas de uso se aplican a todos los contextos.
Esto revela una discrepancia entre la interpretación gubernamental del "uso legal" y la interpretación de Anthropic de la restricción ética. Para muchos, el incidente de Maduro ejemplifica el riesgo inherente a la integración de IA comercial en operaciones militares: las empresas prometen estándares morales, pero cuando los gobiernos implementan la tecnología a través de terceros, estos estándares pueden ser eludidos o ignorados.
¿Ética o eficiencia? Anthropic se mantiene firme.
En esencia, esta disputa es filosófica, más que simplemente contractual. El director ejecutivo y la dirección de Anthropic han abogado públicamente por medidas de contención que impidan la vigilancia civil y el desarrollo sin restricciones de armas autónomas. Estas posturas se basan en la preocupación por las libertades civiles y el posible daño social del despliegue descontrolado de la IA. Esta postura tiene eco en sectores del público, en particular entre quienes consideran la extralimitación del gobierno como una amenaza a la privacidad y la libertad, e incluso se ha convertido en un punto de encuentro para quienes acusan a Anthropic de tener principios y al Pentágono de ser autoritario.
Pero desde la perspectiva del Pentágono, las restricciones ralentizan la innovación y complican la planificación de la defensa. En una era en la que competidores casi iguales compiten por aplicar la IA avanzada en contextos militares, los funcionarios consideran la indecisión como una desventaja operativa. La presión del Pentágono para que la IA pueda utilizarse para "cualquier propósito legal" refleja esta urgencia, pero también plantea interrogantes sobre la supervisión civil del uso de la IA militar.
A la tensión se suma la realidad de que los modelos de IA como Claude están ampliamente integrados en la infraestructura corporativa (según se informa, son utilizados por ocho de las diez empresas estadounidenses más grandes), lo que significa que una designación de riesgo en la cadena de suministro no solo afectaría las relaciones de defensa, sino que podría tener un efecto dominó en ecosistemas comerciales más amplios.
Lo que hemos aprendido de la disputa entre Anthropic y el Pentágono
Este conflicto pone de relieve un dilema más amplio de la era de la IA: ¿quién determina cómo se utiliza la tecnología avanzada una vez que trasciende el desarrollo y se integra en instituciones poderosas? Anthropic intenta afirmar que los límites deben ser establecidos por los creadores, quienes comprenden tanto el poder como los riesgos de sus herramientas. El Pentágono, encargado de la defensa nacional, afirma que debe tener plena libertad en el uso de la tecnología que ha contratado e implementado.
La cuestión de fondo es si las restricciones éticas deberían seguir a la tecnología en todos los ámbitos de uso, o si los gobiernos deberían poder anularlas en nombre de la seguridad. La respuesta conlleva implicaciones que van mucho más allá de un simple contrato. Afecta a la privacidad, la autonomía militar, la responsabilidad corporativa y, en última instancia, a si son los ciudadanos o los gobiernos —y qué tipo de gobiernos— quienes determinan los límites de la tecnología.
Pensamiento final
En el tira y afloja entre Anthropic y el Pentágono, estamos viendo una pregunta crucial sobre nuestro futuro: cuando se creen herramientas poderosas, ¿los valores de quiénes determinarán cómo se aplicarán: las empresas que las construyen, los gobiernos que las utilizan o el público cuyas libertades están en juego?
The Expose necesita urgentemente tu ayuda…
¿Podrías ayudarnos a mantener las luces encendidas con el periodismo honesto, confiable, poderoso y veraz de The Expose?
Su gobierno y las grandes organizaciones tecnológicas
Intenta silenciar y cerrar The Expose.
Por eso necesitamos tu ayuda para garantizar
Podemos seguir brindándote el
hechos que la corriente dominante se niega a aceptar.
El gobierno no nos financia
publicar mentiras y propaganda sobre sus
en nombre de los principales medios de comunicación.
En cambio, dependemos únicamente de su apoyo. Así que
Por favor, apóyanos en nuestros esfuerzos para llevar
tu periodismo honesto, confiable e investigativo
Hoy. Es seguro, rápido y fácil.
Elija su método preferido a continuación para mostrar su apoyo.
Categorías: EE.UU. News
Nada sobre Trump todavía, jajaja
El PCCh proporcionará un sistema de inteligencia artificial al Pentágono para espiar a los estadounidenses mientras el PCCh tenga una puerta trasera para…actualizaciones.
No sé si esta es una empresa íntegra o un enemigo que protege a las fuerzas antiamericanas. Ya no se puede confiar en nadie. La tecnología está diseñada para destruir toda libertad, privacidad y soberanía. Es la herramienta de las élites para destruir a las masas. Y nadie puede detenerlos excepto Dios mismo. Él viene.
El pueblo tiene que detenerlo. Dios nos dio la libertad para luchar y resistir las fuerzas del mal.