El 27 de febrero de 2026, en un giro inesperado en la relación entre la tecnología y el gobierno, el presidente Donald Trump ordenó de manera categórica a todas las agencias federales de Estados Unidos que suspendieran “inmediatamente” el uso de la inteligencia artificial desarrollada por la empresa Anthropic. Esta decisión se produjo tras la negativa de la compañía a someter su tecnología, conocida como Claude, a aplicaciones militares sin restricción alguna, a pesar de las presiones ejercidas por el Pentágono.
En un mensaje directo a través de su plataforma Truth Social, Trump dejó claro que su administración no tenía interés en continuar sus vínculos comerciales con Anthropic. “No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos”, declaró, marcando así un hito en la dinámica entre una empresa emergente de tecnología y un gobierno que busca ampliar su arsenal en inteligencia artificial.
La postura de Anthropic fue firme: su director ejecutivo, Dario Amodei, afirmó que las amenazas del gobierno no alterarían su decisión. “No podemos, en conciencia, acceder a su solicitud”, subrayó en un comunicado de prensa. La situación se intensificó cuando se reveló que el Departamento de Defensa había dado como plazo hasta la tarde del mismo día para que Anthropic aceptara el uso incondicional de su tecnología, una exigencia que violaba los principios éticos fundamentales de la empresa.
Además, el Pentágono advirtió que, en caso de negativa, Anthropic enfrentaría medidas de cumplimiento forzoso bajo la Ley de Producción de Defensa, legislación que otorga al gobierno federal la capacidad de obligar a la industria privada a priorizar las necesidades de seguridad nacional, un legado de la era de la Guerra Fría. Las implicaciones de tal medida son vastas, ya que la etiqueta de “riesgo para la cadena de suministro” es comúnmente asignada a empresas de naciones adversarias, lo que podría dañar severamente la reputación y viabilidad de una startup como Anthropic.
Este conflicto resalta no solo las tensiones entre el sector tecnológico y la defensa nacional, sino también la creciente preocupación sobre la ética en el desarrollo y uso de la inteligencia artificial. A medida que la batalla por el control de estas potentes herramientas se intensifica, emerge un debate más amplio sobre las responsabilidades de las corporaciones tecnológicas en el marco de la seguridad global y la integridad ética.
A medida que se desarrolla esta situación, las repercusiones podrían resonar en el ámbito empresarial y gubernamental, invitando a una reflexión crítica sobre el futuro de la inteligencia artificial y su lugar en la seguridad nacional. Este escenario pone de manifiesto la necesidad de un diálogo que equilibre la innovación tecnológica con los principios éticos que deben gobernar su uso.
Esta nota contiene información de varias fuentes en cooperación con dichos medios de comunicación



























