Deepfakes y fake news: ¿en qué momento dejamos de saber lo que es real?

En un mundo donde basta con unos clics para crear una cara, una voz o un video completo desde cero, la pregunta ya no es si nos van a engañar, sino cuándo y cómo. Los deepfakes —videos manipulados con inteligencia artificial para parecer reales— están transformando el modo en que se difunden las noticias falsas. Y no siempre con fines cómicos: algunas de estas creaciones han buscado influenciar elecciones, generar caos, estafar personas o destruir reputaciones.

¿Qué es un deepfake?

Un deepfake es un video (o audio) generado o modificado con inteligencia artificial para imitar de forma muy realista a una persona. Puede usarse para poner palabras en la boca de alguien que nunca las dijo, o hacer que un rostro aparezca en una situación donde nunca estuvo.

Antes, hacer esto requería tiempo, dinero y conocimientos técnicos. Hoy, basta con subir unas fotos y grabaciones a una app. El resultado: videos que engañan al ojo humano con facilidad.

Casos reales que ya ocurrieron

  • Zelensky pidiendo la rendición de Ucrania: En 2022, circuló un video falso del presidente ucraniano supuestamente rindiéndose ante Rusia. Aunque fue desmentido, llegó a millones de personas.
  • Joe Biden “pidiendo” no votar: En enero de 2024, se usó una clonación de voz por IA para hacer creer a votantes de EE.UU. que Biden los llamaba a quedarse en casa. Fue un intento real de manipulación electoral.
  • Elon Musk “recomendando” invertir en criptomonedas: Videos falsos con su rostro y voz impulsaron estafas millonarias, haciendo creer a miles que el magnate los invitaba a duplicar su dinero.

¿Por qué son tan peligrosos?

  1. Parecen reales, aunque no lo son: La IA logra gestos faciales, tonos de voz y expresiones tan precisas que cuesta distinguir lo falso de lo auténtico.
  2. Se viralizan antes de ser desmentidos: Cuando el daño ya está hecho, corregir la información tiene mucho menos impacto.
  3. Atacan la confianza colectiva: Si ya no podemos confiar en lo que vemos o escuchamos, ¿en qué confiamos?

Cómo protegerte de los deepfakes y fake news

No hace falta ser experto en tecnología, pero sí estar alerta. Aquí algunos consejos prácticos:

1. Desconfiá de lo sensacionalista

Si un video te provoca una reacción muy fuerte (ira, miedo, euforia), ¡pausa! Muchas fake news juegan con las emociones para desactivar el pensamiento crítico.

2. Buscála fuente original

No te quedes con el video compartido en WhatsApp o TikTok. Buscá si el contenido aparece en medios confiables o ha sido verificado por medios periodísticos cosolidados.

3. Revisá el movimiento de los labios y los ojos

Muchos deepfakes (aunque cada vez son mejores) fallan en detalles como parpadeo, expresiones faciales rígidas o sincronización de labios.

4. Sospechá si es “demasiado perfecto”

Si ves a una figura pública diciendo algo polémico justo en el momento perfecto para causar revuelo… puede que no sea real.

5. Consultá plataformas de verificación

Sitios como Chequeado o AFP Factual suelen desmentir rápidamente los deepfakes más virales.

¿Y si el futuro ya está aquí?

No es necesario entrar en pánico, pero sí en modo crítico. La IA nos trae oportunidades increíbles, pero también desafíos éticos y sociales urgentes. Protegernos de las fake news ya no es solo una cuestión de “leer mejor los titulares”. Hoy significa desconfiar incluso de lo que vemos con nuestros propios ojos.

Porque en la era del deepfake, la verdad también se puede falsificar en 4K.

Casos virales: 

🎤 1. Falsa llamada de Joe Biden a votantes en New Hampshire (enero 2024)

  • Qué pasó: Se enviaron llamadas automáticas a votantes demócratas con una voz generada por IA imitando a Joe Biden, pidiéndoles que no votaran en las primarias.
  • Impacto: Fue una forma de supresión electoral usando IA. Las autoridades abrieron una investigación y se rastreó el origen de la llamada a una empresa de robocalls que usó clonación de voz.
  • Importancia: Primer caso conocido de uso de IA para manipular elecciones en EE.UU. de forma directa.

🎥 2. Video falso de Zelensky rindiéndose a Rusia (marzo 2022)

  • Qué pasó: Un video deepfake mostraba al presidente de Ucrania, Volodymyr Zelensky, diciendo que se rendía y pedía a los soldados ucranianos que depusieran las armas.
  • Impacto: Se difundió en redes sociales y medios rusos antes de ser rápidamente desmentido por el gobierno ucraniano.
  • Importancia: Primer uso masivo de un deepfake en el contexto de una guerra real.

💰 3. Deepfake de Elon Musk promocionando criptomonedas (2023-2024)

  • Qué pasó: Circularon en YouTube y X (Twitter) videos falsos de Elon Musk “recomendando” inversiones en criptomonedas, usando IA para imitar su voz y rostro.
  • Impacto: Miles de personas cayeron en estafas relacionadas.
  • Importancia: Muestra cómo la IA se usa para fraudes financieros a gran escala.

📷 4. Foto falsa del Papa Francisco con abrigo Balenciaga (marzo 2023)

  • Qué pasó: Una imagen ultra realista generada con Midjourney mostraba al Papa con un abrigo blanco estilo “puffer”, como si fuera de Balenciaga.
  • Impacto: Millones de personas la creyeron real al principio; fue una de las primeras fake images virales creadas con IA.
  • Importancia: Reveló lo fácil que es engañar con imágenes generadas por IA cuando no hay contexto.

🏛️ 5. Fotos falsas del arresto de Donald Trump (marzo 2023)

  • Qué pasó: Se viralizaron imágenes generadas con IA de Trump siendo arrestado y corriendo de la policía.
  • Impacto: Circularon ampliamente en redes antes de que se supiera que eran fake.
  • Importancia: Otro ejemplo visualmente potente de cómo la IA puede generar confusión política.

📰 6. Noticias falsas generadas por bots con IA (varios casos desde 2023)

  • Qué pasó: En portales fantasma y granjas de contenido se están usando modelos de lenguaje (como GPT u otros clones) para generar artículos falsos con titulares sensacionalistas, incluso usando nombres de medios reales.
  • Impacto: Muchos usuarios creen que las noticias son verdaderas porque aparecen “bien escritas”.
  • Importancia: Está afectando la confianza en los medios y saturando la web de desinformación creíble.

🎶 7. Canciones falsas de artistas como Drake o Bad Bunny (2023-2024)

  • Qué pasó: Canciones enteras generadas con IA imitando las voces de artistas reales (como la famosa “Heart on My Sleeve” de un supuesto Drake y The Weeknd).
  • Impacto: Millones de reproducciones antes de ser bajadas por las discográficas.
  • Importancia: Abre debates legales sobre derechos de voz, identidad artística y uso ético de la IA.

Suscribite para recibir nuestras novedades

Contacto

fundacioninnova.info@gmail.com