Cuando la inteligencia artificial dice “no”.

El conflicto entre Anthropic y el Pentágono revela quién podría fijar los límites de la IA.

Anthropic y el Departamento de Defensa protagonizan una historia que va mucho más allá de una disputa tecnológica. Es una historia sobre inteligencia artificial, poder y los límites que surgen cuando ambas cosas chocan.

¿La discusión central?

El uso de la inteligencia artificial de la startup por parte del Pentágono, tema que terminó convirtiéndose en un enfrentamiento abierto, siendo los protagonistas Dario Amodei (CEO de Anthropic) y Pete Hegseth Secretario de Defensa de los Estados Unidos.

La agencia federal le dio a Anthropic hasta la noche del viernes 27 de febrero de 2026 para otorgar acceso sin restricciones a su tecnología. Si no lo hacía, quedaría excluido de cualquier colaboración con contratistas militares.

El plazo venció y Anthropic no cedió.

El Departamento de Defensa declaró a la empresa como un “riesgo para la cadena de suministro de seguridad nacional”. Donald Trump ordenó al Gobierno Federal que no contratara ningún servicio con Anthropic.

Pocas horas después, el Departamento de Defensa firmó un nuevo contrato con Sam Altman, CEO de OpenAI.


¿Cuál fue el verdadero motivo del conflicto?

Dario Amodei, CEO de Anthropic, pidió varias veces que el gobierno de Estados Unidos no usara la inteligencia artificial para el espionaje masivo ni para crear armas totalmente autónomas capaces de matar a personas inocentes.

Llama la atención que el gobierno de Donald Trump intensificara el conflicto con Anthropic solo un día antes de declarar la guerra a Irán1.

Si la disputa fuera solo entre el Pentágono y Anthropic, ya sería un drama intenso y lleno de intrigas.

Sin embargo, ahora está claro que las implicaciones van mucho más allá de una sola empresa. Esta situación plantea preguntas sobre lo que podría ocurrir en Google, OpenAI y otras compañías de inteligencia artificial que ya han firmado acuerdos con el sector militar.

Aquí surge una pregunta interesante.

¿Y si el conflicto con el Pentágono termina siendo, paradójicamente, la mejor cosa que le haya pasado a Anthropic?


Una amenaza existencial… o una oportunidad.

El viernes, cuando el secretario de Defensa Pete Hegseth declaró a Anthropic un “riesgo para la cadena de suministro”, la decisión parecía una amenaza existencial para la empresa.

No solo podía perder clientes, sino que, según cómo se interpretara la designación, incluso sus proveedores de nube —Amazon y Google— podrían verse obligados a cortar lazos con la compañía, lo que pondría en riesgo su capacidad de operar.

El lunes, Axios publicó un informe que sugiere que los 60.000 millones de dólares en financiación de capital riesgo que ha recaudado Anthropic podrían verse afectados.

Sin embargo, también es posible que Anthropic salga de este episodio más fuerte que antes.

La postura de principios de Anthropic parece conectar con muchos consumidores, mientras que la decisión de OpenAI de firmar un acuerdo con el Pentágono está teniendo, al menos por ahora, el efecto contrario.

El lunes pasado, Claude, el chatbot de Anthropic, llegó al primer lugar entre las aplicaciones gratuitas más descargadas para iOS. Antes de su anuncio en el Super Bowl, estaba en el puesto 131 en Estados Unidos.

Al mismo tiempo, TechCrunch informó que el sábado aumentó considerablemente el número de usuarios que desinstalaron la aplicación ChatGPT de sus teléfonos.

En el sector tecnológico, las reacciones no tardaron en surgir.

Ethan Choi, socio de Khosla Ventures y uno de los primeros inversores de OpenAI, escribió el lunes:

“Admiro a Dario y a Anthropic por lo que han hecho: defender los valores sobre los que realmente se fundó la empresa.”

La nueva popularidad de Claude podría significar más negocio para Anthropic, aunque probablemente con un perfil de cliente diferente.

Claro que esta popularidad podría ser pasajera si el gobierno de Estados Unidos obligara a Amazon y Google a dejar de proveer infraestructura a Anthropic.

Ese escenario parece poco probable, ya que históricamente esta designación se ha usado para países considerados hostiles, no para empresas tecnológicas nacionales.


Cuando la política y la tecnología chocan.

Además, es posible que el gobierno de Trump termine moderando su postura, ya que mantener un ecosistema sólido de inteligencia artificial en Estados Unidos también es un interés estratégico para el propio gobierno.

La historia reciente sugiere, además, que las confrontaciones entre la tecnología y el poder político rara vez terminan exactamente como se anuncian.

Durante seis años, dos gobiernos intentaron prohibir TikTok en Estados Unidos. Durante ese tiempo, se debatieron sin parar las implicaciones de una prohibición.

Sin embargo, al final, la compañía salió casi indemne.

Incluso Donald Trump, quien al principio lideró la ofensiva contra TikTok, terminó por ver conveniente cambiar de postura.

Quizá algo parecido ocurra en este caso.


La verdadera batalla.

En el fondo, la inteligencia artificial empezó siendo una promesa tecnológica.

Hoy se está volviendo algo mucho más complejo: una decisión política y, cada vez más, una cuestión moral.

Quizá la verdadera batalla de esta década no sea quién crea los modelos más potentes.

Sino más bien esta:

¿Quién se atreve a ponerles límites?


¹ Vale la pena leer este artículo del Wall Street Journal sobre cómo se utilizó la tecnología de Anthropic en el ataque a Irán.
https://bit.ly/40Le2KC

Comentarios

Entradas populares