El Poder de la Influencia Algorítmica: Un Llamado a la Transparencia
En los últimos años, hemos sido testigos de cómo los algoritmos, lejos de ser neutros, han servido de instrumentos para moldear nuestro ecosistema informativo. Desde hace más de una década, empresas tecnológicas han administrado el acceso a la información sin ofrecer la transparencia ni la rendición de cuentas necesarias. Este fenómeno ha permitido que proliferan contenidos polarizantes, tácticas de publicidad engañosa y comportamientos monopolísticos que amenazan el discurso democrático. Ante esta situación, ahora corremos el riesgo de repetir el error con los emergentes chatbots de inteligencia artificial (IA), cuya influencia podría ser aún más profunda.
A diferencia de las plataformas tradicionales, que simplemente curan contenido, los chatbots tienen la capacidad de generar y contextualizar información. Mientras que Facebook y Google limitan qué noticias se nos muestran, herramientas como ChatGPT y Claude no solo seleccionan, sino que sintetizan respuestas que parecen informativas y fidedignas. Esta transición de curador a editor hace que la manipulación de la información sea menos visible y más perjudicial.
La arquitectura de los chatbots actuales se compone de una intrincada “pila de influencia algorítmica” con al menos cinco capas. La primera, la selección de datos de entrenamiento, es crucial. Al decidir qué datos incluir, las plataformas determinan qué perspectivas se presentan y cuáles se excluyen, dando forma a la visión del mundo del modelo. Un ejemplo de ello es Grokipedia, lanzada por Elon Musk en octubre de 2025 como una alternativa a Wikipedia, que apunta a representar una imagen “anti-woke” del conocimiento.
La segunda capa involucra el aprendizaje por refuerzo, donde la retroalimentación, ya sea humana o de IA, guía el comportamiento del modelo. Aunque actualmente las evaluaciones humanas son esenciales, cada vez más frecuentemente están siendo reemplazadas por otros sistemas automatizados.
La tercera capa está relacionada con la búsqueda en la web. Los chatbots, al acceder a bases de datos o hacer búsquedas en línea, deciden qué información incluir en sus respuestas, similar a cómo los motores de búsqueda priorizan ciertas fuentes.
La cuarta capa se centra en las indicaciones del sistema, que permiten modificar el comportamiento del chatbot sin necesidad de reentrenamiento. Directivas de comportamiento pueden ser programadas, notablemente en el caso de Grok, que se reveló que incluía instrucciones para no evitar afirmaciones políticamente incorrectas.
Por último, los filtros de seguridad constituyen la quinta capa. Estos filtros determinan la aceptabilidad de las consultas y pueden modificar las respuestas antes de que las vea el usuario, generando preocupaciones sobre la transparencia y prácticamente permitiendo una censura sistemática oculta.
Es crucial tener en cuenta que los intereses políticos y corporativos están ya influenciando esta pila algorítmica. Tras la segunda toma de posesión de Donald Trump, Apple ajustó sus protocolos de IA para evitar clasificar a los partidarios de MAGA de manera desfavorable. Asimismo, Meta ha relajado sus directrices internas para permitir cierto discurso problemático en sus chatbots.
Los chatbots han demostrado ser herramientas eficaces en la manipulación política; un estudio de 2025 en Nature evidenció que podían influir en votantes indecisos con notable facilidad, lo que plantea un dilema alarmante para sociedades democráticas que requieren un ecosistema informativo diverso y accountable.
En este contexto, la Comisión Europea multó a X con 120 millones de euros por no cumplir con las normas de transparencia impuestas por la Ley de Servicios Digitales. Aunque algunos podrían ver esto como un ataque a la libertad de expresión, la transparencia es esencial para preservar dicha libertad, ya que permite identificar quién es censurado y qué influencias están en juego.
El surgimiento de redes sociales nos ha enseñado las consecuencias de permitir que la rendición de cuentas se quede atrás respecto a las adopciones tecnológicas. Debemos ser proactivos y evitar cometer los mismos errores frente a sistemas de IA que poseen un poder aún mayor sobre la información pública. La conversación sobre la regulación y supervisión de estos sistemas no puede esperar. Los desafíos que enfrentamos hoy requieren soluciones que impliquen tanto la innovación como la protección de nuestros valores democráticos.
Esta nota contiene información de varias fuentes en cooperación con dichos medios de comunicación




























