Últimamente han aparecido unas imágenes impactantes en internet: el papa en un abrigo “inflado” y Vladimir Putin arrodillado besando la mano a Xi Jinping. ¿El detalle? En realidad, ninguno de estos momentos sucedió. Son producto de una tecnología avanzada de IA, que se conoce como “deepfakes”.
Estas imágenes falsas generadas por “aprendizaje profundo” (deep learning) representan lo fácil que es para la IA desdibujar los límites entre realidad y ficción, con unas implicaciones significativas y de amplio alcance.
[Proteja su actividad online y mantenga en privado su información personal probando sin compromiso nuestra VPN.]
Analizamos cómo la IA está cambiando la manera en que recordamos, y cómo los deepfakes podrían contribuir al fenómeno conocido como el “Efecto Mandela”. Prepárese para cuestionar todo lo que pensaba que sabía.
¿Qué es el Efecto Mandela?
Este término se llama así en honor a Nelson Mandela, un político y revolucionario anti-apartheid sudafricano. Muchas personas creían que había muerto en prisión en la década de 1980, a pesar de que había muchísima evidencia que demostraba lo contrario. En realidad fue liberado en 1990, y llegó a ser presidente de Sudáfrica. Murió en 2013.
El Efecto Mandela se ha utilizado desde entonces para describir una multitud de eventos o detalles que se recuerdan incorrectamente, incluyendo los nombres de marcas, letras de canciones, tramas de películas o programas de TV y detalles de eventos históricos.
Un ejemplo del Efecto Mandela en acción es lo que ocurrió con el comediante Sinbad, popular en la década de 1990. Muchas personas afirman recordar una película llamada Shazaam (no confundir con la película de 2019, Shazam!), en la que Sinbad interpreta a un genio que ayuda a dos niños. Sin embargo, esta película jamás se filmó. Lo más cercano a esto fue una película llamada Kazaam, donde el genio era interpretado por Shaquille O’Neal.
A pesar de no haber evidencia de que Shazaam exista, muchas personas están convencidas de que la vieron y recuerdan detalles de la trama, los personajes y hasta el cartel. Aunque Sinbad mismo ha confirmado que nunca ha interpretado a un genio, la idea de la película ha calado tanto en la memoria colectiva, que mucha gente de verdad cree que existe.
¿Qué causa el Efecto Mandela?
Si bien la causa del Efecto Mandela no se entiende en su totalidad, existen diversas teorías que intentan explicarlo. Una de ellas es la generación de falsos recuerdos (donde la gente recuerda incorrectamente los eventos o datos) debido a desinformación, malas interpretaciones o el poder de la sugestión. Otra teoría, un poco más atrevida, es que se debe a un “error en la matriz” o la existencia de un universo paralelo, donde la gente podría haber vivido una versión diferente de la realidad.
Los psicólogos piensan que el Efecto Mandela podría estar causado por cómo funciona nuestro cerebro. Específicamente, cómo nuestras mentes pueden estar influenciadas por elementos tales como las cosas que otros dicen o nuestras creencias preexistentes, lo que nos puede llevar a recordar las cosas incorrectamente. Esto se conoce como “sesgo cognitivo”. Por ejemplo, si muchas personas en redes sociales dicen que algo ocurrió de cierta manera, esto puede esto puede hacernos creer que de verdad eso fue lo que pasó, incluso si no fue así.
Aunque el Efecto Mandela no es un fenómeno reciente y está vinculado principalmente a la cultura popular, el auge de los deepfakes implica que la información falsa se puede diseminar más rápido y fácil de lo que parece, y que más personas pueden comenzar a recordar cosas que nunca ocurrieron.
Esto plantea importantes preguntas acerca de si podemos confiar en la información que vemos online, si está bien usar la IA para manipular imágenes y videos, y cuánto poder debe tener la tecnología para moldear nuestros recuerdos y creencias.
El peligro de los recuerdos derivados de deepfakes
Los deepfakes usan la IA para crear videos e imágenes realistas de personas diciendo y haciendo cosas que nunca dijeron o hicieron realmente. La tecnología se basa en el “aprendizaje profundo” (deep learning), un tipo de aprendizaje automático que conlleva entrenar a redes neurales artificiales con grandes cantidades de datos.
En 2019, había menos de 15.000 deepfakes detectados online. Hoy en día, la cifra asciende a los millones, y los deepfakes creados por expertos aumentan a una tasa anual del 900 %, según el Foro Económico Mundial.
Uno de los aspectos más preocupantes de los deepfakes es su potencial para usarse con mala intención, como para crear noticias falsas o propaganda, o para suplantar la identidad de una persona para obtener beneficios financieros. La tecnología también se usa para crear pornografía deepfake, cosa que ha generado preocupaciones acerca de su potencial para explotar individuos y el potencial que tiene para su abuso.
Los deepfakes también tienen el poder de hacer creer a la gente que han visto algo que nunca ocurrió realmente, debido al diseño realista de la tecnología. Esto podría llevar, en última instancia, a crear recuerdos falsos de un escenario no verídico.
Aquí le ofrecemos algunos ejemplos de cómo los deepfakes pueden contribuir al Efecto Mandela, y los peligros que implican:
Creación de “fake news”
Los Deepfakes pueden usarse para crear noticias falsas que son tan realistas que la gente se las cree, incluso si son absolutamente inventadas. Por ejemplo, noticias falsas como ataques terroristas o desastres naturales creadas únicamente para promover ciertas agendas sociopolíticas. Si estas historias se crean con deepfakes, pueden parecer informes noticiosos reales, combinadas con material de audio y video convincente. Esto podría crear una visión distorsionada de la historia y los sucesos durante generaciones.
Afectar opiniones políticas
Unos pocos meses antes de las elecciones de mitad de período del 2018, salió un video que se volvió viral del expresidente Barack Obama insultando a Donald Trump. Fue creado por el director ganador del óscar Jordan Peele, para usarlo como advertencia a los usuarios acerca de creerse todo lo que ven online. Irónicamente, el video tuvo el efecto contrario, y muchos de los seguidores de Trump creyeron que era real, y hordas de ellos expresaron su indignación en las redes sociales.
Si un video deepfake similar de un candidato político o una figura pública diciendo o haciendo algo que nunca llegó a ocurrir fuese muy convincente, podría tener efectos muy perjudiciales en una democracia funcional, así como en la confianza de las personas hacia las instituciones.
Por ejemplo, a medida que más y más personas queden expuestas a un deepfake potencialmente convincente de los candidatos políticos de su país en redes sociales, o mediante diversos canales de noticias, los recuerdos falsos podrían diseminarse y volverse aceptables por ser considerados verdaderos. Esto puede cambiar la opinión de los votantes, y también a quiénes eligen como líderes.
Impulsar campañas propagandísticas
Las campañas de propaganda creadas con deepfakes se pueden usar para manipular la opinión pública y diseminar información falsa acerca de grupos patrocinados por el estado, lo que termina por crear una visión distorsionada de la realidad. Por ejemplo, en referencia al conflicto con Rusia, la agencia ucraniana de inteligencia ha advertido recientemente acerca de un deepfake del presidente ucraniano Volodymyr Zelenskyy, en el que aparecía pidiéndole a los ucranianos que se rindieran.
A pesar de que muchas plataformas suspendieron el video, sigue apareciendo de vez en cuando en diversas páginas de redes sociales, como Facebook, Reddit y Tik Tok, sembrando discordia en el público y dificultando poder determinar qué es cierto y qué no lo es.
Alteración de material histórico
Los deepfakes podrían usarse para alterar material histórico, como grabaciones de discursos políticos o eventos importantes, de una manera tal que cambia los recuerdos de las personas acerca de lo que realmente ocurrió. Esto podría llevar a confusiones e incertidumbre acerca de lo que realmente ocurrió en el pasado, erosionando la confianza pública en los registros históricos y los medios de comunicación, lo que a su vez alimenta a las teorías de conspiración.
Por ejemplo, veamos lo que ocurre con el alunizaje de las misiones Apolo. Hoy en día, hay quienes afirman que fue falsificada y que nunca ocurrió. Los deepfakes se pueden usar para forjar videos y grabaciones de audio muy convincentes para propulsar esta falsa narrativa, intensificando el escepticismo y desconfianza en la autenticidad del evento histórico.
Manipulación de contenidos en redes sociales
Con la facilidad de acceso a plataformas de redes sociales, los deepfakes se podrían usar para crear artículos falsos que harían parecer que famosos, figuras públicas o influencers están presenten en un evento o apoyan a un producto específico, cuando en realidad no es así. Al permitir que las falsas narrativas se diseminen sin control, los deepfakes pueden contribuir con la polarización de la sociedad y crear un terreno fértil para campañas de desinformación. A cambio, esto socava la credibilidad de las redes sociales como herramientas de comunicación, cosa que es clave para la democracia y la cohesión social.
Forjar evidencia científica
Desde los orígenes de un virus hasta los grandes avances médicos, los deepfakes se pueden usar para crear evidencia científica falsa para apoyar hipótesis o afirmaciones que simplemente no son verdad. Por ejemplo, hay quien intenta diseminar desinformación acerca del cambio climático, a pesar de la abrumadora evidencia científica a favor de que está siendo causado por la actividad humana. Esto representa una amenaza a importantes temas, como el del calentamiento global.
Los deepfakes pueden crear evidencia científica falsa que afirma que el cambio climático es causado por factores externos, cosa que puede tener serias implicaciones; los legisladores podrían tener menos disposición a actuar sobre el cambio climático si existe una gran escepticismo acerca de sus causas. Esto podría dividir todavía más a la opinión pública y dificultar que se llegue a un consenso acerca de cómo atajar este problema tan urgente.
Creación de coartadas falsas
Además, los deepfakes también se pueden usar para crear confesiones o afirmaciones falsas en casos penales o para manipular grabaciones de seguridad para crear coartadas para criminales. Esto podría llevar a la creación de falsas narrativas acerca de eventos criminales, en donde la gente puede creer que a) El perpetrador no cometió el crimen, y b) Que fue cometido por un inocente. Con el tiempo, esta falsa narrativa podría arraigarse en la memoria colectiva de los implicados en el caso, que pasarían a creer que es cierto.
Hipotéticamente, digamos que hay un caso penal de alto perfil en el que la defensa crea un video deepfake muy realista que muestra al acusado en una ubicación diferente al momento del crimen. El video se publica en muchos canales y mucha gente llega a creer que el acusado no pudo haber sido el asesino. Incluso si se demuestra posteriormente que el video es un deepfake y el acusado es condenado, muchos podrían seguir creyendo que el acusado es inocente debido a su recuerdo del video.
10 maneras de identificar un deepfake
Tal como dijo sabiamente Abraham Lincoln: “No confíes en nada que veas en internet”. Para combatir el problema de los deepfakes que crean recuerdos falsos, es fundamental que todos nosotros seamos siempre muy críticos y escépticos ante la información que consumimos, y que las tecnológicas y gobiernos trabajen en conjunto para desarrollar soluciones para detectar y evitar la diseminación de videos deepfake.
Mientras tanto, le ofrecemos estos consejos para identificar deepfakes usted mismo y para que se proteja de la diseminación de desinformación y recuerdos falsos:
- Distorsiones y transformaciones faciales
- Busque distorsiones en la iluminación y la conversión en 3D en el rostro.
- Verifique que no haya inconsistencias en las texturas, especialmente en mejillas, frente, cejas y vello facial.
- Movimientos realistas en ojos y labios
- Chequee si las sombras, el color de los ojos y los movimientos de los lunares y los parpadeos lucen realistas.
- Verifique que los labios del sujeto luzcan naturales y pertenezcan al rostro.
- Movimientos y gestos del sujeto
- Preste atención a los movimientos y gestos del sujeto en el video.
- Evalúe si lucen extraños o demasiado perfectos.
- Análisis de sonido
- Escuche con atención el sonido en el video.
- Verifique si la voz suena artificial o está distorsionada, porque podría estar usando voces alteradas o generadas por IA.
- Inconsistencias en iluminación y reflejos
- Busque inconsistencias en la iluminación y reflejos que podrían no concordar con el entorno o la posición de la persona en el video o imagen.
- Verifique el contenido del video
- Halle el video original o busca otros ejemplos de este para verificar el contenido.
- Una la búsqueda inversa de imágenes con herramientas como Google Image Search, TinEye, SauceNAO, o Bing Visual Search.
- Análisis contextual
- Evalúe el contexto en el que se publicó o compartió el video, porque podría indicar si es genuino o no (por ejemplo, ¿por qué habría el papa de cambiar tan radicalmente sus atuendos?)
- Compruebe la fuente original del video, a ver si es una organización noticiosa respetable, un individuo cualquiera en redes sociales o una persona con propósitos cuestionables.
- Situaciones poco comunes o antinaturales
- Sea siempre escéptico ante videos que muestren situaciones poco comunes o improbables, como un famoso haciendo algo fuera de lo común o una figura política diciendo algo controversial.
- Compruebe sus metadatos
- Vea los metadatos del video a ver si coinciden con lo que se afirma, por ejemplo, la hora y lugar de la grabación.
- Tenga presente que los metadatos se pueden alterar fácilmente, así que no deberían ser lo único a considerar para determinar la autenticidad del video.
- Manténgase actualizado
- Tenga presente que la tecnología usada para crear los deepfakes mejora continamente, y que podría volverse mas difícil de identificar en el futuro.
- Asegúrese de mantenerse lo más actualizado posible con las últimas noticias en este ámbito, y tenga cuidado al compartir o reaccionar a videos que luzcan sospechosos o demasiado atractivos.