Saturday, February 28, 2026
Home South AmericaEEUU designa a la empresa Anthropic como un riesgo para la cadena de suministro estadounidense

EEUU designa a la empresa Anthropic como un riesgo para la cadena de suministro estadounidense

by admin7
0 comments


El Gobierno de Estados Unidos ha designado a la empresa Anthropic como un “riesgo para la cadena de suministro y la Seguridad Nacional” del país norteamericano después de que Donald Trump anunciara que todas las agencias federales dejarán de utilizar el software de esta compañía, incluyendo su modelo de Inteligencia Artificial, ante la negativa de sus directivos de permitir su uso para fines militares basados en la “vigilancia doméstica masiva” o el desarrollo de “armas totalmente autónomas”.

“En conjunción con la directiva del presidente para que el Gobierno Federal cese el uso de la tecnología de Anthropic, instruyo al Departamento de Guerra a designar a Anthropic como un Riesgo para la Cadena de Suministro y la Seguridad Nacional”, ha asegurado el secretario de Defensa estadounidense, Pete Hegseth, en un mensaje en redes sociales.

Las consecuencias inmediatas de este anuncio suponen la finalización de toda relación comercial con la compañía de las empresas que realicen negocios con las Fuerzas Armadas estadounidenses.

“Los combatientes estadounidenses nunca serán rehenes de los caprichos ideológicos de las grandes tecnológicas. Esta decisión es definitiva”, ha zanjado Hegseth.

Por el contrario, el cese de los servicios de Anthropic con el Departamento de Defensa será gradual, con un límite máximo de seis meses, para “permitir una transición fluida hacia un servicio mejor y más patriótico”.

“No los necesitamos, no los queremos, y no haremos negocios con ellos de nuevo”, ha señalado el presidente Trump en redes sociales para luego advertir a la empresa que usará “todo el poder de la Presidencia” sino cooperan, lo que podría suponer “graves consecuencias a nivel civil o penal”.

Estos anuncios se producen después de que el consejero delegado de Anthropic, Dario Amodei, se negara a cumplir con las demandas del Departamento de Defensa en cuanto a las restricciones de uso del modelo de la IA, conocido como Claude, asegurando que preferían no trabajar con el Pentágono a aceptar usos de su tecnología que puedan “socavar, en lugar de defender, los valores democráticos”.

De igual forma, indicó que no iban a proporcionar un producto que pusiera en riesgo “a combatientes y civiles estadounidenses”. “Hemos ofrecido trabajar directamente con el Departamento de Guerra en I+D para mejorar la fiabilidad de estos sistemas, pero no han aceptado esta oferta”, aseveró.

El Departamento de Defensa anunció en julio un contrato valorado en 200 millones de dólares para desarrollar la IA en el Ejército junto con Anthropic, Google, OpenAI y xAI. Según reveló el diario ‘The Wall Street Journal’, el Ejército estadounidense utilizó Claude como parte de su operación para capturar al presidente Nicolás Maduro en Venezuela pese a que Anthropic prohíbe su uso con fines violentos, para el desarrollo de armamento o para llevar a cabo vigilancia sobre la ciudadanía.





Source link

You may also like

Leave a Comment