El jefe de Anthropic rechaza la demanda del Pentágono de eliminar las salvaguardas de la IA

Anthropic ha dicho que no dará marcha atrás en una pelea con el Departamento de Defensa de Estados Unidos (DoD) sobre cómo se utiliza su tecnología de inteligencia artificial (IA).

Sus comentarios se producen dos días después de una reunión con el secretario de Defensa de EE. UU., Pete Hegseth, sobre las exigencias de que Anthropic acepte «cualquier uso legal» de sus herramientas. La reunión concluyó con la amenaza de retirar a Anthropic de la cadena de suministro del Departamento de Defensa.

«Estas amenazas no cambian nuestra posición: no podemos en conciencia acceder a su petición», afirmó Amodei.

Lo que está en juego para Anthropic es el uso potencial de sus herramientas de IA como Claude para dos propósitos: «vigilancia doméstica masiva» y «armas totalmente autónomas».

El Departamento de Guerra es un nombre secundario para el Departamento de Defensa según una orden ejecutiva firmada por el presidente de Estados Unidos, Donald Trump, en septiembre.

«Si el Departamento decide retirarse de Anthropic, trabajaremos para facilitar una transición sin problemas a otro proveedor», afirmó Amodei.

Una portavoz de Anthropic agregó el jueves que, si bien la compañía recibió el miércoles por la noche un texto actualizado del Departamento de Defensa para su contrato, éste «prácticamente no representa ningún progreso en la prevención del uso de Claude para la vigilancia masiva de estadounidenses o en armas totalmente autónomas».

«El nuevo lenguaje, presentado como un compromiso, se combinó con jerga legal que permitía ignorar dichas salvaguardias a voluntad», declaró. «A pesar de las recientes declaraciones públicas [del Departamento de Guerra], estas limitadas salvaguardias han sido el eje central de nuestras negociaciones durante meses».

No fue posible contactar a un representante del Departamento de Defensa para que hiciera comentarios.

Emil Michael, subsecretario de Defensa de Estados Unidos, atacó personalmente a Amodei el jueves por la noche, escribiendo en X que el ejecutivo «no quiere nada más que intentar controlar personalmente a las Fuerzas Armadas de Estados Unidos y no tiene ningún problema en poner en riesgo la seguridad de nuestra nación».

En una entrevista con CBS News, Michael dijo: «En cierto nivel, tienes que confiar en que tus militares harán lo correcto».

Los usos de la IA que Anthropic teme ya están prohibidos por la ley y las políticas del Pentágono, afirmó. Y al preguntársele por qué el Pentágono no aceptaba el texto contractual exigido por Anthropic, respondió: «Tenemos que estar preparados para lo que está haciendo China».

Un funcionario del Pentágono le dijo previamente a la BBC que si Anthropic no cumplía, Hegseth se aseguraría de que se invocara la Ley de Producción de Defensa en la empresa.

La ley esencialmente otorga al presidente de Estados Unidos la autoridad de considerar que una determinada empresa o su producto es tan importante que el gobierno puede exigirle que satisfaga las necesidades de defensa.

Pero Hegseth también amenazó con etiquetar a Anthropic como un «riesgo para la cadena de suministro», lo que significa que la empresa sería designada como no lo suficientemente segura para el uso del gobierno.

Un ex funcionario del Departamento de Defensa que pidió no ser identificado dijo a la BBC el jueves que los fundamentos de Hegseth para ambas medidas eran «extremadamente endebles».

Una persona familiarizada con las negociaciones, que pidió no ser identificada, dijo que las tensiones entre Anthropic y el Pentágono «se remontan a varios meses», antes de que se supiera públicamente que Claude fue utilizado como parte de una operación estadounidense para capturar al presidente venezolano Nicolás Maduro.

Si bien Amodei no especificó exactamente cómo Anthropic podría ser o había sido utilizado por el Departamento de Defensa para la vigilancia masiva o armas completamente autónomas, escribió en una publicación en el blog de la compañía que la IA puede usarse para «reunir datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, de manera automática y a escala masiva».

«Apoyamos el uso de la IA para misiones legítimas de inteligencia y contrainteligencia extranjera», declaró Amodei. «Pero usar estos sistemas para la vigilancia masiva nacional es incompatible con los valores democráticos».

En cuanto al uso de la IA en armas, Amodei dijo que incluso los sistemas de IA más avanzados y capaces de la actualidad «simplemente no son lo suficientemente confiables para impulsar armas completamente autónomas».

«No proporcionaremos conscientemente un producto que ponga en riesgo a los combatientes y civiles estadounidenses», declaró Amodei. «Sin una supervisión adecuada, no se puede confiar en que las armas totalmente autónomas ejerzan el juicio crítico que nuestras tropas profesionales y altamente entrenadas demuestran a diario. Deben desplegarse con las debidas garantías, que hoy en día no existen».

Agregó que Anthropic había «ofrecido trabajar directamente con el Departamento de Guerra en I+D para mejorar la confiabilidad de estos sistemas, pero no han aceptado esta oferta».

Hegseth había exigido la reunión del martes con Amodei, dijo previamente una fuente a la BBC.