La reciente disputa entre Anthropic y el Departamento de Guerra de Estados Unidos ha puesto de relieve la compleja intersección entre la inteligencia artificial, la ética tecnológica y la seguridad nacional. Este conflicto se centra en las negociaciones para el uso del modelo Claude de Anthropic en contextos militares, donde la empresa busca preservar salvaguardias cruciales. Entre estas se encuentra la prohibición explícita de la vigilancia masiva de ciudadanos estadounidenses y la restricción del uso de modelos de IA en armas totalmente autónomas.
En sus declaraciones, Anthropic sostiene que el gobierno ha exigido permitir un uso “cualquier uso lícito” dentro de los contratos, lo que ha llevado a la designación de la empresa como “riesgo de cadena de suministro” por parte del secretario Pete Hegseth. Este estatus, que históricamente se ha aplicado a adversarios estratégicos de EE.UU., podría impactar directamente en los contratos del Departamento de Guerra, aislando a la empresa de oportunidades en el uso comercial de su modelo Claude.
Más allá del ámbito legal, este episodio revela una realidad estructural: los modelos avanzados como Claude, pero también ChatGPT de OpenAI y Gemini de Google, están integrados en la infraestructura de seguridad de EE.UU. Anthropic ha afirmado que Claude está siendo utilizado en diversas agencias de defensa para análisis de inteligencia, planificación operativa y ciberoperaciones. Este nivel de implicación muestra que, cuando el mayor comprador institucional mundial colisiona con un proveedor de IA, el efecto va mucho más allá de la relación bilateral, afectando a la cadena de suministro global, donde México se convierte en un actor relevante.
Según el informe elaborado por el Centro México Digital, solo el 8% de las empresas con diez o más empleados en México ha adoptado sistemas de inteligencia artificial, una cifra que contrasta drásticamente con el promedio de la OCDE. Esta paradoja subraya las disparidades en infraestructura y capacidades que existen dentro del país y plantea un desafío crucial para capturar los beneficios económicos asociados a la IA en los años venideros. La estabilidad de proveedores, las condiciones contractuales y el marco reputacional que soporta la adopción de esta tecnología están íntimamente relacionados con el debate que se vive en Washington sobre la vigilancia y la autonomía de los sistemas de IA.
La directora del Centro México Digital, Salma Jalife, enfatizó la necesidad de una toma de conciencia sobre la infraestructura que se requiere para desarrollar sistemas de IA eficazmente. Según ella, crear una nube o un modelo conversacional a gran escala exige recursos significativos en capacidad de cómputo y almacenamiento. Frente a la dependencia de modelos internacionales, Jalife propone una alternativa más autóctona: los pequeños modelos de lenguaje, que podrían adaptarse mejor a las especificidades locales y mantener la información dentro de un entorno controlado, evitando la fuga de datos sensibles al exterior.
La necesidad de soberanía tecnológica también se presenta como un tema crucial. Mientras Estados Unidos y China lideran la carrera por la IA, México se encuentra en una encrucijada. La nación podría desarrollar un modelo que no solo responda a sus propias necesidades, sino que también sirva como un referente para América Latina. Formulando un enfoque que combine elementos de diferentes contextos tecnológicos, México podría elevar su capacidad y evitar quedar relegado a un mero rol de consumo.
Este debate sobre la inteligencia artificial, de alta relevancia hoy, continúa evolucionando. A medida que se gestan nuevas políticas y regulaciones, es vital que las naciones en desarrollo, como México, trabajen hacia un futuro en el que puedan construir sus propias capacidades en este campo sin depender exclusivamente de tecnologías externas.
Esta nota contiene información de varias fuentes en cooperación con dichos medios de comunicación



























