Bots, avatares y voces clonadas: la IA llegó a la política
El uso de inteligencia artificial en las campañas políticas ya no es futurismo, pero el vacío legal deja a la democracia sin un manual de defensa robusto.
Cubro historias de Tecnología, Arte y Cultura en la sección Tendencias. Fui editor en Semana, El País de Cali y Blu Radio. Me apasiona explorar cómo el mundo digital moldea nuestra sociedad.
El uso de IA para reforzar discursos de políticos y gobiernos de turno está en auge.FOTO: Deposit Photos
En solo un par de años, desde que se liberó la primera versión abierta de ChatGPT a finales de 2022, la inteligencia artificial dejó de ser una promesa tecnológica para convertirse en una herramienta que nos simplifica tareas, pero también en un instrumento para la política.
Le puede interesar: ¡Pilas con la inteligencia artificial!: inventa frases y datos
Para entenderlo, hay varios ejemplos a nivel mundial, pero en Colombia tenemos un caso particular con el precandidato David Luna, que en octubre presentó a su “jefe de debate” digital, un avatar programado para responder en redes sociales; al mismo tiempo, el presidente Gustavo Petro compartió videos con voz y montajes generados por IA, y en Nueva York, la campaña de Andrew Cuomo incluyó anuncios generados enteramente por una plataforma de IA que fueron retirados tras acusaciones de racismo.
Por eso, la pregunta ya no es si la política usará la inteligencia artificial, sino cómo y bajo qué límites éticos y legales lo está haciendo.
“El riesgo es altísimo. Hoy se pueden clonar voces con tres minutos de grabación, fabricar deepfakes (imágenes manipuladas para suplantar a una persona) y hacer pasar por reales mensajes que nunca existieron. Si eso ocurre en medio de una campaña, será muy difícil demostrar qué fue verdad y qué fue manipulación”, advierte José Betancur, director de Nodo en la universidad EAFIT.
En América Latina, organizaciones como Transparencia Electoral y centros de investigación europeos han documentado la expansión de los deepfakes políticos y campañas automatizadas que amplifican contenidos falsos. Argentina, Ecuador, México y Bolivia ya enfrentan sus propios episodios de manipulación masiva. Y aunque Colombia cuenta desde este año con un Conpes de Inteligencia Artificial que promete un uso ético y transparente de estas tecnologías, expertos señalan que el vacío normativo sigue siendo enorme.
Política que se fabrica en pantalla
Aunque ha perdido fuerza en los últimos días, el lanzamiento del “avatar de David Luna” marcó un punto de quiebre en la comunicación electoral colombiana.
El precandidato lo presentó como el primer jefe de debate creado con IA en una campaña nacional, un asistente digital encargado de responder preguntas, desmontar mentiras y mantener conversaciones con los ciudadanos. “No vine a reemplazar a nadie”, decía el avatar en su debut. “Vine a demostrar que la tecnología también puede servir a la democracia”.
El experimento despertó atención en redes, pero pronto perdió atracción. El entusiasmo inicial se diluyó y el propio Luna retomó un tono más tradicional, protagonizando nuevamente sus videos, que comparte activamente en sus redes sociales, dejando cada vez más de lado a su avatar de IA. De hecho, el video más reciente de esa naturaleza lo publicó hace seis días. Aun así, su iniciativa dejó al descubierto la posibilidad de campañas que ya no solo se disputen en la calle y los medios tradicionales, sino también en los algoritmos.
Mientras tanto, en Estados Unidos, el exgobernador Andrew Cuomo llevó la estrategia a otro nivel en su carrera para ganar la alcaldía de Nueva York.
Como documentó el portal especializado Politico, su equipo difundió anuncios creados con inteligencia artificial en los que el propio Cuomo aparecía caricaturizado en escenas urbanas de la ciudad. Uno de ellos mostraba a su rival Zohran Mamdani, actual alcalde electo, con rasgos distorsionados y efectos visuales grotescos, una pieza extraña que finalmente fue retirada tras críticas por racismo y manipulación. “En una ciudad llena de artistas y técnicos, Cuomo prefirió hacer política con un generador de imágenes”, ironizó la prensa de la Gran Manzana.
Por otro lado, el uso de IA para reforzar discursos desde el alto gobierno también está en auge.
Por ejemplo, la cuenta de X del presidente Petro se ha convertido en todo un caso de estudio. Su perfil, con más de ocho millones de seguidores, ha sido escenario de múltiples episodios de desinformación en los últimos meses. Hace un par de días compartió un video con voz sintetizada en el que acusaba a la familia del expresidente Álvaro Uribe de controlar Audifarma y boicotear la entrega de medicamentos a nivel nacional, sin aportar una sola prueba.
Luego, publicó un clip generado por IA en el que se representaba a sí mismo como Indiana Jones, caminando junto a un jaguar y una voz en off que dice: “El presidente de la República de Colombia invita a su pueblo a levantarse”.
Ambas publicaciones reavivaron el debate sobre el uso de contenidos artificiales desde cuentas oficiales y las fronteras éticas de esa tecnología.
“Las redes sociales son un foco de sesgo de confirmación. Los algoritmos van a reforzar nuestras creencias siempre. La IA convierte eso en ingeniería social: mensajes personalizados que confirman lo que cada persona ya piensa. Es una forma de manipulación más sutil, pero más efectiva”, explica el catedrático de EAFIT.
Los casos se multiplican en la región. En Argentina circularon videos falsos del presidente Javier Milei en plena campaña con mensajes alterados; en Ecuador, noticieros apócrifos creados con IA imitaron a presentadores reales, y en Bolivia, observatorios de medios detectaron cientos de piezas sintéticas difundidas por redes antes de las elecciones de agosto.
Vacío legal y el espejo académico
La expansión de la inteligencia artificial en la política no ocurre porque sí. A principios de año, el Gobierno aprobó el Conpes de IA, una política pública que busca promover su desarrollo ético y sostenible en Colombia. El objetivo, según dijo entonces el exministro TIC Julián Molina, es “convertir a la IA en motor de crecimiento y bienestar para los colombianos”. Pero el documento, según expertos, no aborda de manera específica el uso electoral de estas herramientas ni sus riesgos en la manipulación informativa.
Para Betancur, la regulación difícilmente llegará a tiempo: “No veo posible una ley efectiva a corto plazo, pero sí es clave reconocer el derecho sobre la imagen y la voz. En Dinamarca, por ejemplo, la ley protege la identidad digital de las personas. Si alguien genera un video con tu rostro sin permiso, puede ser demandado. Esa ruta podría servir de modelo”.
Desde la academia, el análisis es más amplio. Un informe de la Universidad Internacional de La Rioja (UNIR) destaca que la IA ofrece ventajas evidentes: procesar grandes volúmenes de datos, personalizar mensajes y reducir costos de campaña. Pero también advierte sobre peligros como la pérdida de la privacidad, la polarización y la posibilidad de manipular emociones a gran escala.
Eugénie Richard, docente investigadora de la Universidad Externado, sostiene que las campañas colombianas ya usan microsegmentación y targeting basados en huellas digitales. “Con diez ‘me gusta’ en redes sociales, un algoritmo puede conocer mejor a una persona que sus compañeros de trabajo. Con trescientos, puede predecir su comportamiento político mejor que su pareja”, resume en su ensayo Elecciones e IA: ya sabemos (antes que tú) por quién vas a votar.
Por eso, la frontera entre eficiencia y manipulación se vuelve cada vez más delgada. Para la ONG Transparencia Electoral, el reto no es impedir el uso de IA sino garantizar transparencia, trazabilidad y supervisión humana. En palabras de su director regional, Jesús Delgado Valery, “la IA puede fortalecer la integridad informativa o destruirla, depende de quién la use y con qué propósito”.
En ese punto coinciden varios observatorios internacionales. En su informe de 2024 Inteligencia artificial para la gestión electoral, el Instituto Internacional para la Democracia (IDEA), con sede en Estocolmo, Suecia, recomienda que los organismos electorales adopten tableros de monitoreo digital, protocolos de respuesta rápida y campañas de alfabetización mediática para contrarrestar los contenidos sintéticos. Pero incluso con esas medidas, la capacidad de respuesta es limitada. “La desinformación viaja más rápido que la verificación”, concluye el informe.
Pero la discusión sobre la IA en política no es una cuestión futurista. En las elecciones locales de 2023 ya se registraron estrategias de microsegmentación digital financiadas por campañas tradicionales, y varios consultores comenzaron a ofrecer “bots conversacionales” capaces de responder en tono humano, como registró la profesora Richard. La diferencia con ciclos anteriores es que ahora esas herramientas no solo interpretan datos, sino que los fabrican.
“Vamos a ver campañas muy sucias”, advierte el director de Nodo Eafit, “porque ya existen granjas de contenido, cadenas de WhatsApp y plataformas que operan fuera de control. Y mientras no haya trazabilidad, cualquiera podrá fabricar una versión de la realidad y hacerla pasar por cierta”.
A pocos meses de que arranquen las presidenciales, Colombia se enfrenta a un terreno inédito. Los equipos de campaña estudian cómo incorporar la IA para reducir costos y aumentar alcance, mientras los organismos de control apenas comienzan a dimensionar su impacto.