Por Carlos Anguiano
Consultor Político
www.youtube.com/c/carlosanguianoz
@carlosanguianoz
La generalización de herramientas de IA acelera la concentración de poder informativo. No se trata sólo de tecnología: es quién la controla. Gobiernos y partidos con acceso a datos privilegiados, equipos técnicos y recursos pueden generar mensajes hiper personalizados, micro segmentar audiencias y producir imágenes, audio y texto falsos con rapidez y escala, facilitando la manipulación.
En la política mexicana se han observado campañas y contenidos manipulados cuya producción escaló con herramientas generativas: bots que amplifican narrativas, materiales hiperrealistas que desinforman y tácticas de micro targeting que descarrilan el debate público. Órganos electorales y estudios académicos han documentado cómo la IA multiplicó mensajes falsos y erosionó la confianza en la información pública durante los procesos electorales.
Factores para analizar: Uno. Acceso. Millones de ciudadanos carecen de conectividad estable y alfabetización digital; frente a narrativas producidas con IA su capacidad de verificación es limitada. Dos. Opacidad. Plataformas, proveedores de pauta y campañas políticas operan con algoritmos y sistemas de amplificación que no siempre son auditables. Tres. Vacío regulatorio. No existen marcos éticos y sancionadores claros sobre el uso de IA en campañas.
En América Latina se documentaron deepfakes y operaciones coordinadas que distorsionaron procesos electorales; análisis comparativos muestran un aumento de ataques dirigidos contra candidatas, periodistas y actores críticos. En México, investigaciones periodísticas y académicas registraron incidentes concretos de desinformación generativa en 2024 que funcionaron como prueba de concepto para tácticas más sofisticadas y escalables.
Las consecuencias democráticas son previsibles y graves. La polarización se alimenta de burbujas informativas y de contenidos que confirman prejuicios; la deliberación pública se empobrece cuando la discusión se sustituye por mensajes dirigidos que priorizan impacto emocional sobre evidencia; y la rendición de cuentas se debilita cuando la opacidad técnica y el acceso desigual a datos impiden auditar campañas. La normalización del uso de IA sin controles abre la puerta a vigilancia política, perfiles micro segmentados que estigmatizan poblaciones y campañas de descrédito que no dejan rastro claro.
Frente a este panorama hay medidas prioritarias y pragmáticas. Exigir transparencia: etiquetado obligatorio de contenidos generados por IA, registros públicos de publicidad política y auditorías independientes de pauta y cuentas automatizadas. Fortalecer la alfabetización mediática con programas focalizados en comunidades vulnerables y en quienes tienen menos acceso digital. Actualizar el marco electoral para incluir sanciones específicas por el uso malicioso de IA y obligaciones de trazabilidad sobre los datos usados en campañas. Las instituciones electorales deben desarrollar capacidades técnicas para identificar y sancionar prácticas automatizadas de manipulación.
El periodismo tiene una responsabilidad central: profesionalizar la verificación y explicar los mecanismos técnicos de la manipulación. Las redacciones deben integrar análisis forense de imágenes y audio, colaborar con verificadores independientes y transparentar cuándo usan IA en su propio trabajo. Exponer cómo operan redes de amplificación, identificar patrones de desinformación y publicar evidencia verificable permite recuperar parte de la ventaja informativa que hoy tienen actores con recursos técnicos.
No podemos delegar la defensa de la democracia sólo a tecnólogos o tribunales. Ciudadanía, medios, academia, reguladores y plataformas deben coordinar protocolos de respuesta rápida, bancos públicos de evidencia y programas sostenidos de capacitación. Financiar verificadores independientes y proteger a periodistas que investigan operaciones automatizadas son medidas prácticas para reducir incentivos a la manipulación. Informes internacionales recomiendan auditorías, registros públicos y educación digital.
Como lectores y navegadores en redes, nuestra tarea es verificar, contrastar y exigir transparencia: que la tecnología sirva a la democracia. Verificar fuentes, pedir evidencia y cuestionar la autoría de los mensajes no son actos de escepticismo vacuo; son deberes ciudadanos. La verosimilitud técnica no puede sustituir la verdad. Sin transparencia, sanciones y educación, la IA ampliará la brecha digital y convertirá la desigualdad en ventaja estratégica para quienes buscan manipular la opinión pública.



