Fundado en 1910

Trump OpenAI y Claude

Todas las claves de la guerra de la IA: Trump veta a Anthropic y abre la puerta a OpenAI en el Pentágono

Donald Trump ha ordenado a todas las agencias federales dejar de usar la IA de Anthropic después de que la empresa se negara a levantar sus límites éticos al uso militar. Mientras tanto, OpenAI ha cerrado un acuerdo con el Pentágono para ocupar su lugar

La tensión entre la Casa Blanca y Anthropic ha estallado y ha dejado el mensaje de que en la nueva carrera armamentística de la inteligencia artificial, quien marque los límites al poder militar corre el riesgo de quedarse fuera del negocio. El presidente de Estados Unidos, Donald Trump, ha ordenado a todas las agencias federales «cesar inmediatamente» el uso de la tecnología de Anthropic, a la que acusa de querer «presionar» al Pentágono imponiendo sus propios criterios éticos sobre el uso de la IA.

La guerra empezó cuando se lanzó la pregunta sobre qué puede hacer el Ejército con Claude, el modelo estrella de Anthropic. El Departamento de Guerra, nombre con el que la Administración Trump vuelve a referirse al Pentágono, exigía poder usar ese sistema «en todos los casos de uso legales», sin excepciones. Anthropic, sin embargo, puso dos líneas rojas: no quería que Claude se utilizara ni en armas totalmente autónomas (capaces de seleccionar y ejecutar objetivos sin intervención humana) ni en programas de vigilancia masiva sobre ciudadanos estadounidenses.

200 millones en juego

Durante meses, ambas partes negociaron un contrato de 200 millones de dólares firmado en 2025 para desarrollar capacidades de IA ligadas a la seguridad nacional. Según la empresa, los últimos borradores que recibió del Pentágono convertían en papel mojado sus salvaguardas ya que el texto parecía aceptar sus límites, pero incluía matices legales que, a juicio de Anthropic, permitían saltárselos cuando el Ejército quisiera. Su consejero delegado, Dario Amodei, llegó a afirmar que no podían «en conciencia» aceptar esas condiciones y que preferían perder el contrato antes que renunciar a esos principios.

Anthropic prefería perder el contrato antes que renunciar a esos principios

La respuesta política fue fulminante. Trump emitió una orden en su red social Truth Social en la que calificó a los directivos de la firma como «locos de izquierda» y anunció que Estados Unidos no volvería a hacer negocios con ellos. El Gobierno ha dado seis meses a departamentos clave, como el de Guerra, para dejar de usar la tecnología de Anthropic y migrar a otros proveedores, bajo la amenaza de usar todo «el poder de la Presidencia» si la empresa no colabora en esa transición. En paralelo, el Pentágono ha advertido de que está dispuesto a declararla «riesgo para la cadena de suministro», una etiqueta reservada hasta ahora para actores considerados amenaza para la seguridad nacional.

Sede del edificio de Anthropic en San Francisco, CaliforniaEFE

Ese sello tendría consecuencias que van mucho más allá del contrato perdido. Ser catalogada como riesgo sistémico podría dificultar que Anthropic trabajase incluso de forma indirecta a través de otros contratistas y enviaría un mensaje a toda la industria. El Gobierno no aceptará que una empresa privada le diga qué puede o no puede hacer con una tecnología que considera estratégica. Altos cargos del Pentágono han llegado a admitir que el choque tiene un componente «ideológico», porque, según ellos, Anthropic teme en exceso el poder de la IA y quiere controlar usos que ya están limitados por la ley y por las políticas internas militares.

OpenAI

Mientras esta relación se rompía, otro actor se movía entre bambalinas. OpenAI, la compañía creadora de ChatGPT, llevaba días conversando con el Pentágono para ofrecer sus modelos como alternativa. Horas después de que Trump anunciara el veto a Anthropic, Sam Altman, consejero delegado de OpenAI, confirmó que había cerrado un acuerdo para desplegar sus sistemas en redes clasificadas del Departamento de Guerra. Según avanzan medios estadounidenses, el contrato permite a los militares usar la IA de OpenAI «para cualquier propósito legal», la misma fórmula que Anthropic se negó a aceptar.

Altman ha intentado marcar distancias afirmando que tampoco permitirá que sus modelos se usen para vigilancia interna o armas completamente autónomas, pero, a diferencia de su competidor, ha optado por introducir esas limitaciones como salvaguardas técnicas y no como un veto contractual que ate de manos al Pentágono. En la práctica, esto supone confiar en filtros dentro de los propios sistemas (por ejemplo, bloquear ciertas instrucciones o usos) mientras se concede a la Administración la cláusula política que reclamaba, la de la libertad plena para cualquier uso que siga siendo legal.

Dónde están los límites

El resultado es una batalla en la cúpula de la inteligencia artificial. De un lado, Anthropic, que ha construido su imagen precisamente sobre la idea de priorizar la seguridad incluso a costa de perder negocio, ha decidido plantar cara al mayor cliente posible, el Estado estadounidense. Del otro, OpenAI ha demostrado que está dispuesta a aceptar el marco general del Pentágono, negociar desde dentro ciertos frenos técnicos y, de paso, capitalizar la crisis de su rival con un contrato de enorme peso económico y simbólico.

Sam Altman, CEO de OpenAIDPA vía Europa Press

Más allá de quién gane el siguiente concurso público, el mensaje de este choque va dirigido al sector tecnológico y avisa de que poner límites unilaterales al uso militar de la IA tiene un precio. La Administración Trump ha enseñado que está dispuesta a utilizar todo su arsenal político y legal para evitar que una empresa privada condicione su doctrina de defensa, mientras que las grandes compañías de Silicon Valley van a tener que decidir hasta dónde están dispuestas a llegar cuando la seguridad nacional choque con sus códigos éticos internos.