En un escenario tecnológico cada vez más competitivo, la compañía Anthropic ha decidido retrasar el lanzamiento de su nuevo modelo de inteligencia artificial (IA), Claude Mythos. Este modelo ha suscitado una mezcla de alarma y escepticismo, ya que sus capacidades avanzadas de programación podrían convertirlo en una herramienta de gran peligro en manos equivocadas, especialmente para hackers. En medio de este contexto, los analistas prevén que Anthropic podría estar planeando una salida a bolsa en un futuro cercano, lo que pondría aún más en relieve el impacto potencial de su tecnología.
Según informes de la empresa, Mythos tiene la habilidad de analizar de manera autónoma enormes volúmenes de código en busca de vulnerabilidades de seguridad previamente desconocidas en diferentes tipos de software, desde sistemas operativos hasta navegadores web. Lo alarmante es que puede hacerlo a una velocidad y escala que supera cualquier esfuerzo humano, lo que plantea escenarios inquietantes donde instituciones críticas, como bancos y hospitales, podrían ser paralizadas en cuestión de horas.
David Sacks, un empresario destacado en el campo de la tecnología, ha advertido sobre la seriedad de la amenaza cibernética que podría representar Mythos. Si bien reconoció que hay fundamentos válidos para estar alarmados, también apuntó que Anthropic tiene un historial de tácticas que a veces pueden parecer alarmistas.
En la reciente conferencia HumanX AI en San Francisco, la amenaza que representan los hackers “agentes” fue reconocida por expertos como Alex Stamos, de la startup Corridor, dedicada a la seguridad en inteligencia artificial. Stamos sugirió que las tácticas de marketing de Anthropic podrían estar minimizando los peligros. “Es como si el Proyecto Manhattan hubiera anunciado la bomba nuclear en un dibujo animado adorably,” comentó.
Este escenario ha llevado a los directores de los bancos más importantes de Estados Unidos a reunirse con el presidente de la Reserva Federal y el secretario del Tesoro para evaluar las posibles amenazas de seguridad asociadas con Mythos. Shlomo Kramer, cofundador y director ejecutivo de Cato Networks, subrayó que este modelo podría señalar un cambio fundamental en la dinámica del ciberespacio, redefiniendo el equilibrio entre atacantes y defensores.
Recientemente, se compartió una vista previa restringida de Mythos bajo la iniciativa denominada Proyecto Glasswing, con la participación de gigantes tecnológicos como Amazon, Apple y Google. Kramer advirtió que lo que antes requería la pericia de especialistas ahora podría ser realizado por software, haciendo que el descubrimiento de nuevas vulnerabilidades aumente significativamente.
Durante la conferencia, el consenso entre los expertos fue que los agentes de IA, que ya destacan en la codificación, serán más eficientes en la identificación de debilidades en el software. Stamos predijo que el futuro podría estar marcado por una “guerra de agente a agente”, donde los humanos jugarían un rol secundario, supervisando a los agentes de IA que atacan y defendiendo las redes.
Expertos como Wendy Whitmore, de Palo Alto Networks, anticipan que un ataque catastrófico relacionado con las capacidades de estos agentes de IA podría ser inminente. Adam Meyers de CrowdStrike apuntó que la inminente avalancha de vulnerabilidades podría ser facilitada por modelos de IA que los hackers podrían integrar en su código malicioso, creando así un nuevo tipo de amenaza.
La evolución de la inteligencia artificial sigue planteando preguntas críticas sobre la seguridad y la ética en un mundo donde las tecnologías avanzan a pasos agigantados. A medida que las capacidades de IA continúan desarrollándose, es fundamental que tanto la industria como los reguladores se mantengan alerta frente a las repercusiones que un modelo como Mythos puede tener en la ciberseguridad global.
Esta nota contiene información de varias fuentes en cooperación con dichos medios de comunicación




























