La protección de datos en México ha entrado en una etapa crítica de reacomodo institucional, en un contexto donde la inteligencia artificial (IA) se integra cada vez más a los procesos de trabajo cotidianos. Este giro, resaltado en el reciente Foro Internacional de Protección de Datos Personales, trae consigo riesgos significativos relacionados con la privacidad, la seguridad y la confianza en las transacciones digitales.
Luis Gustavo Parra, comisionado del Instituto de Transparencia, Acceso a la Información Pública y Protección de Datos Personales del Estado de México y Municipios (INFOEM), advirtió sobre la falta de regulación en torno a la IA, un vacío normativo que permite que decisiones automatizadas se tomen a la ligera en áreas como créditos y contratación. Este vacío se profundiza en medio de un cambio estructural que ha llevado a la extinción del INAI en 2025, trasladando sus funciones a la Secretaría Anticorrupción y Buen Gobierno mediante una nueva unidad especializada en protección de datos para el sector público federal.
A nivel internacional, la regulación de la IA muestra un panorama diverso. En Estados Unidos, las normativas son sectoriales, mientras que en China se observa un esquema que combina innovación y control. Brasil, por su parte, se destaca en la región por su legislación que establece revisiones humanas obligatorias en decisiones automatizadas. En contraste, México mantiene un enfoque disperso sin un marco específico para la IA, lo que podría conducir a discriminación en sistemas como la evaluación crediticia.
Parra propone una regulación basada en riesgos, sugiriendo que para sistemas de alto riesgo se realicen evaluaciones de impacto y auditorías algorítmicas antes de su implementación. Resaltó la importancia de fortalecer el derecho a la explicación, permitiendo que las personas comprendan y cuestionen decisiones automatizadas que les afectan. Además, planteó la necesidad de adoptar enfoques técnicos que protejan la privacidad y reduzcan la exposición de datos, como la privacidad por diseño y el aprendizaje federado.
En el ámbito del uso de chatbots y modelos de lenguaje, Juan Manuel Delva, profesor investigador de la Universidad de Guadalajara, destacó cómo estas tecnologías están integradas en actividades cotidianas. Subrayó que los usuarios deben estar conscientes de quién accede a sus datos y por cuánto tiempo, ya que una vez compartidos, los registros pueden persistir en las plataformas usadas. Este contexto exige una consideración cuidadosa de la gobernanza y el manejo de la información.
Por otro lado, Cintia Solís, experta en derecho digital y ciberseguridad, advirtió sobre la usurpación de identidad, un fenómeno en auge facilitado por tecnologías generativas como los deepfakes. Este delito, que se utiliza como medio para cometer otras conductas ilícitas, plantea la necesidad de una actualización legislativa que armonice la normativa de protección de datos a nivel federal, especialmente en relación con los datos biométricos sintéticos.
La interrelación entre la gobernanza de datos, la adopción de la IA y la defensa de la identidad se convierte en un desafío urgente. Lo que antes se percibía como un vacío regulatorio en torno a la IA se ha transformado en una problemática institucional de gran relevancia. A medida que estas tecnologías se integran en el flujo de trabajo, es crucial desarrollar marcos normativos robustos que protejan a los individuos y fomenten la confianza en un panorama digital en constante evolución.
Esta nota contiene información de varias fuentes en cooperación con dichos medios de comunicación




























