“¿Cómo es posible que un partido político que tiene conexiones con el crimen organizado siga en la papeleta de votación de las próximas elecciones si su estrategia política está basada en la violencia y el terror?”, fue la pregunta con la que cerró un video que circuló a finales del 2024 cerca del arranque de la campaña electoral de Ecuador. En este aparecía el periodista Fernando del Rincón, de CNN, cuya voz e imagen fueron manipuladas con inteligencia artificial, según la verificación que hizo la agencia internacional de noticias AFP.
El video se refería a la Revolución Ciudadana (RC), movimiento del expresidente Rafael Correa, que lo vinculaba con el crimen organizado. En esta pieza se habla sobre el supuesto uso de menores de edad en “operaciones destinadas a sembrar el terror y desestabilizar el Estado”, una estrategia que incluiría la “fabricación de casos de desapariciones como una maniobra para presionar el retiro de las fuerzas armadas de las calles”.

De acuerdo al análisis del AFP, dicho video que tiene el logo de CNN empezó a circular hacia el 29 de diciembre pasado. En esta fecha, el gobierno de Daniel Noboa y las Fuerzas Armadas enfrentaban semanas de duras críticas por la desaparición de los cuatro niños de Las Malvinas en manos de una patrulla militar. El caso fue denunciado internacionalmente y Gian Carlo Loffredo, ministro de Defensa, y altos mandos militares debieron comparecer en la Asamblea. El 31 de diciembre, la Fiscalía confirmó que los menores fueron asesinados y calcinados.
AFP confirmó que el video que se usó para la manipulación corresponde a un programa del periodista de CNN del 3 de agosto del 2024, referente a las elecciones en Venezuela. “En la grabación se reconoce la misma secuencia de gestos, pero su voz y movimiento de labios fueron alterados”, dice el análisis de la agencia.
Ese tipo de videos se los conoce como deepfakes que son aquellos que son “generados por inteligencia artificial que imitan la apariencia y voz de una persona con tal precisión que pueden engañar tanto a las personas como a los algoritmos”, dice el sitio de análisis SEON.
“Pasamos de la desinformación en texto a la de audio y video a través de la clonación de contenidos”, explica Christian Espinosa, director de Cobertura Digital dedicado a la realfabetización en inteligencia artificial. Espinosa agrega que ahora a la ciudadanía se le hará cada vez más difícil distinguir lo falso de lo verdadero.
En Ecuador, este video se viralizó rápidamente en esos días, y según comprobó Plan V, incluso circuló en grupos familiares de Whatsapp. Pero no es el único. La semana pasada, en Ecuador hubo una escalada de contenidos manipulados con inteligencia artificial y otras tecnologías en medio de la campaña electoral, que finaliza el próximo 6 de febrero.
En los últimos días, han circulado en redes sociales videos con imágenes y audios trucados de políticos, medios y periodistas, audiovisuales que incluso fueron pautados. Esto ocurrió, por ejemplo, en Youtube donde estos contenidos aparecieron durante breves segundos, según observó Plan V.
Noboa y González, en el centro de los deepfakes
Las campañas más atacadas han sido las de Noboa y la de su oponente Luisa González, aspirante a la presidencia por RC. Ambos lideran las encuestas de intención del voto. Un ejemplo sucedió el 23 de enero pasado cuando una mujer –creada con inteligencia artificial que simulaba ser un periodista del canal internacional NTN24 – apareció en un video de 56 segundos, que narraba la posesión de Donald Trump como nuevo presidente de Estados Unidos. Durante su relato, que pretendía hacerse pasar por una noticia del medio, la mujer dijo que Noboa pagó un millón de dólares para asistir a la ceremonia. Uno de los primeros en reaccionar a este contenido fue NTN24, que aseguró que era un video falso que no fue realizado por esa cadena.
¡#FALSO! Este video, creado con Inteligencia Artificial y que usurpa la marca #NTN24, NO fue realizado por esta cadena. Los invitamos a seguir nuestras cuentas oficiales en todas las redes sociales @NTN24 y @NTN24Ve. Infórmese también en https://t.co/fcFbGKzsMo pic.twitter.com/1OvMfcgmsx
— NTN24 (@NTN24) January 23, 2025
Noboa sí fue invitado a ese evento donde estuvo acompañado por su esposa Lavinia Valbonesi. En su cuenta de Instagram escribió: “Haciendo historia, representando a mi país. Decían que no, pero aquí estuvimos, haciendo historia. Ecuador presente en una posesión presidencial como nunca antes. Saludos desde DC”. Esa declaración fue una alusión a las críticas del correísmo en su contra que desvirtuaban aquella invitación. Mónica Palacios, asambleísta por ese movimiento, puso en duda acerca de que Noboa fuera invitado.
De igual manera, el 28 de enero pasado, la agencia española EFE reportó la existencia de un video deepfake sobre González. En él, la candidata aparece supuestamente promocionando una tarjeta llamada ‘Así es’ con la que ofrece ayuda social. En este video, que manipula la voz e imagen de Gónzalez, se escucha: “Con esta tarjeta vamos a asegurarnos de que cada familia reciba lo que necesita. El acceso a alimentos, salud y educación será repartido de acuerdo al número de miembros de tu hogar”.
“Se trata de un video alterado digitalmente, como lo confirman herramientas especializadas y una búsqueda inversa de imágenes en internet, que permiten encontrar el contenido auténtico. En este, no se escucha a González plantear dicha propuesta en ningún momento, que tampoco figura programa político”, dice el análisis de EFE.
✖️🇪🇨 La candidata presidencial de Ecuador Luisa González no aparece en un video presentando una tarjeta de ayuda social llamada «Así es».
🤔 El video es un ‘deepfake’, creado a partir de otra grabación publicada por la aspirante al inicio de la campaña.https://t.co/qd76mr5YmV pic.twitter.com/ZBqNjdD2wJ
— EFE Verifica (@EFEVerifica) January 28, 2025
En el video se pide además a la gente que ingrese sus datos. La organización Usuarios Digitales alertó que esto podría ser un intento de phishing, una técnica que sirve para el envío de mensajes fraudulentos para el robo de datos personales. La Revolución Ciudadana lo consideró como un ataque a su campaña.
“Donald Trump no confía en las bananeras de Noboa”, fue una de las frases con la que inicia un video donde se asegura que el presidente de EEUU estaría preocupado por los contenedores de bananos que salen desde Ecuador, pero además agrega que la droga que se transporta en dichos contenedores pertenecería a Noboa. En el video, que circuló el 25 de enero, aparece Trump quien pide que los contenedores sean rigurosamente revisados.
Pero la agencia AFP consideró que la rueda de prensa de Trump, del 21 de enero de 2025, fue manipulada. “La secuencia viral reprodujo ese video desde el minuto 22:41 al 22:56, tiempo en el que coinciden los movimientos de los ojos y otros gestos del mandatario. Sin embargo, el mandatario estadounidense no se refirió a su homólogo ecuatoriano ni al comercio de bananos”, concluye el análisis de la agencia internacional.
En diciembre pasado, en la antesala de la campaña, EFE detectó de igual manera dos contenidos falsos relacionados con Noboa. El primero era un video donde Noboa supuestamente promete “pegarse un tiro” si no se solucionaban los apagones. El segundo era una imagen cuyo texto decía: “por decreto presidencial, los ppl ya no pueden ejercer su voto”. En ambos casos, la agencia concluyó que se trata de contenidos adulterados.
El uso de la imagen de periodistas y medios
El video sobre la RC no ha sido el único donde la imagen del periodista Del Rincón ha sido manipulada. El pasado 14 de enero, circuló una nueva pieza donde aparece también la vicepresidenta Verónica Abad, quien disputa su cargo con Noboa. En el audiovisual, Abad dice que Luisa González se habría comprometido con ella para defenderla. Abad reclamó públicamente por ese contenido al que calificó como falso.
#FAKE Tapar el sol con un dedo, no podrán, ni con trolls, ni inteligencia artificial, que parece ser lo único inteligente en el noboismo y su gobierno déspota. Ya pasó el día de los inocentes señores, mi pueblo ya sabe quién engaña. #VivaLaDemocracia #VivaLaLibertad
Farsantes.
Lo… pic.twitter.com/QXR2C9nyWh— Verónica Abad (@veroniabad) January 15, 2025
No es la primera vez que se registra la utilización de la voz e imagen de un periodista para difundir contenidos falsos. El 13 de octubre de 2023, circuló un video manipulado de un reportaje de la periodista Johanna Ramos, de Teleamazonas. En este, la voz trucada de la comunicadora afirma que la mayoría de la droga que se envía a Europa “circula por el puerto de Isabel Noboa”, tía de Daniel Noboa. Ramos rechazó este contenido.
Tomaron un reportaje que hice meses atrás, cambiaron generadores e impostaron mi voz. Rechazo total. https://t.co/DrdxxoJRLo
— Johanna Ramos Suárez (@Johanna_RamosTA) October 14, 2023
El video fue publicado en redes sociales dos días antes de la segunda vuelta de las elecciones presidenciales anticipadas del 2023. Noboa y González fueron los finalistas del balotaje, donde finalmente el empresario bananero ganó la Presidencia.
A Espinosa no le extraña esta tendencia porque los periodistas y los medios tienen un nivel de credibilidad. “La gente comparte contenidos en base a la confianza que tiene a ciertas figuras públicas. Entonces, quienes mal utilizan esta tecnología querrán aprovecharse de esa imagen para validar sus contenidos falsos”.
La IA en la campaña
Los candidatos también han recurrido a esta tecnología en beneficio de su campaña. Por ejemplo, el candidato Luis Tillería lanzó en su cuenta de Tik Tok un video donde al final abraza a un personaje que simula ser Dios. Tillería, candidato de derecha por el movimiento Avanza, informó de esa manera que la demanda que presentó Silueta X, un colectivo LGBTI, en su contra había sido archivada. Silueta X denunció al candidato por sus expresiones durante una entrevista donde consideró como una ‘aberración’ permitir que un niño transite de género. “Gracias Dios por todo”, dijo Tillería en ese video.

Otro aspirante a la Presidencia que ha recurrido al uso de inteligencia artificial fue Juan Iván Cueva, por el movimiento Amigo. El 15 de enero pasado, publicó un video donde aparecen dos personas que se hacen pasar por Luisa González y Daniel Noboa, ambos generados con esta tecnología. González y Noboa van juntos en el mismo vehículo a pesar de que son opositores políticos. Cueva buscaba dar el mensaje de que ambos habían dañado el país y que él será la persona que “arregle el desastre que ustedes hicieron”.
@juanivanc ¡Basta de lo mismo! ❌ Los corruptos que ya nos gobernaron y los ineptos del gobierno de #DanielNoboa juntos, quieren seguir destruyendo al Ecuador 🇪🇨 Yo sé y puedo arreglar el deseastre en que han convertido esta patria hermosa. ¡Cuento con tu voto! 🗳️💪🏻
Punto de vista
‘El CNE puede proponer un proyecto que regule la IA”
Saulo Jaramillo, investigador en lavado de activos, corrupción, derecho de la IA y ciberdelitos

El Consejo Nacional Electoral tiene, entre sus facultades, proponer iniciativas legislativas sobre las competencias de la Función Electoral. Es decir, podría presentar un proyecto de ley que regule la campaña electoral a través de las redes sociales y a través de los sistemas de inteligencia artificial y prohibir este tipo de prácticas que llevan a manipular al electorado.
Pero también tiene entre otras facultades. Casa adentro puede emitir resoluciones normativas para, por ejemplo, notificar a todos los partidos políticos para que se abstengan de realizar este tipo de campañas o manipulaciones, porque determinar responsabilidades con sistemas de inteligencia artificial es muy difícil. Entonces, en toda esta normativa interna que podría emitir el CNE se podrían establecer los parámetros y pasos para realizar una investigación siguiendo debido proceso.
Además de estas facultades, también puede concientizar, a través de campañas publicitarias, sobre la verificación de la información. Eso también lo que dice la UNESCO en informes emitidos en 2021 y en 2024. Allí, la UNESCO menciona esta frase: “piensen críticamente y luego hagan clic”.
