Microsoft, Google y xAI, la empresa de Elon Musk, han llegado a un crucial acuerdo con el Gobierno de Estados Unidos. Este pacto les otorga acceso anticipado a los nuevos modelos de inteligencia artificial para realizar evaluaciones de seguridad nacional. La decisión viene en respuesta a crecientes preocupaciones sobre las capacidades de hackeo de Mythos, un reciente modelo desarrollado por Anthropic.
El Centro de Normas e Innovación en IA del Departamento de Comercio (CAISI) anunció el martes que este acuerdo permitirá al gobierno evaluar los modelos antes de su implementación y realizar investigaciones sobre sus capacidades y riesgos asociados a la seguridad. En un contexto donde la interacción entre tecnología y seguridad sigue siendo crítica, este acuerdo subraya la necesidad urgente de responder a las amenazas que pueden surgir del uso indebido de la inteligencia artificial.
El acuerdo refleja un compromiso que la administración del expresidente Donald Trump hizo en julio por colaborar con empresas tecnológicas. El objetivo principal es examinar los modelos de IA en busca de peligros potenciales para la seguridad nacional. Microsoft, por su parte, ha señalado que colaborará con científicos del Gobierno para probar sistemas de IA y detectar comportamientos inesperados. La compañía también mencionó que ha establecido acuerdos similares con el Instituto de Seguridad de la IA del Reino Unido.
En Washington, la inquietud por los riesgos asociados a los sistemas avanzados de IA ha ido en aumento. Al asegurar un acceso temprano a estos modelos, las autoridades buscan identificar amenazas que van desde ciberataques hasta posibles usos militares, antes de que estas herramientas se implementen a gran escala. La reciente aparición de modelos como Mythos de Anthropic ha generado un gran revuelo en los círculos gubernamentales y empresariales de EE. UU., principalmente debido a su potencial para empoderar a los hackers.
Chris Fall, director del CAISI, afirmó que “es esencial tener una ciencia de la medición independiente y rigurosa para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional”. Esta iniciativa también se apoya en acuerdos previos establecidos con OpenAI y Anthropic bajo la administración de Joe Biden en 2024, cuando el CAISI era conocido como el Instituto de Seguridad de la Inteligencia Artificial de EE. UU.
Este desarrollo demuestra un avance significativo en la colaboración entre el sector tecnológico y las autoridades gubernamentales, un hecho que podría tener profundas implicaciones no solo para la seguridad nacional, sino también para la futura regulación de la inteligencia artificial en informacion.center.
Esta nota contiene información de varias fuentes en cooperación con dichos medios de comunicación




























