WATCH LIVE

LIVE STREAMING
Source: Getty.
Source: Getty.

Sexo, mentiras y deepfakes: ¿por qué es necesaria una educación y legislación digital?

La batalla legal y moral contra las fake news.

MÁS EN ESTA SECCIÓN

Origen Carnaval de Pasto

Cultura hispana en el cine

Carnaval 2025

La luna fue volcánica

Uso de los velos en cara

Principe Harry en NYC

Mexico apoya a Coca-cola

COMPARTA ESTE CONTENIDO:

La Cámara de Representantes de los Estados Unidos celebró el pasado jueves la primera audiencia dedicada a las deepfakes, fenómeno mejor conocido como fake news optimizadas por Inteligencia Artificial (IA).

La audiencia en la Cámara se llevó a cabo en el mejor momento para mostrar ejemplos de deepfakes con alto perfil y contraste: el primero fue un video falso de Mark Zuckerberg en Instagram –y otros famosos como Kim Kardashian- creado por los artistas Bill Posters y Daniel Howe como parte de un proyecto para concientizar sobre la privacidad de los datos, y el segundo fue un informe de AP sobre cómo un espía usó una cara inexistente en LinkedIn para infiltrarse en la escena política de Washington.

Las falsas informaciones que se arrojaron en las redes sociales durante la campaña electoral estadounidense de 2016 fueron solo el comienzo y, aunque los deepfakes todavía no son la norma, ya están aquí.

Más allá de los casos estudiados por la Cámara de Representantes, el debate ha llegado hasta en  series de televisión como Years and Years, donde en uno de sus capítulos se explica cómo cierto uso de las inteligencias artificiales en videos electorales pone bajo amenaza la democracia británica.

Las deepfakes pueden literalmente poner palabras que nunca se dijeron en la boca de políticos o celebridades.

La IA avanza a un ritmo acelerado y la cantidad de datos necesarios para simular un video se ha reducido drásticamente. Quizás lo más preocupante es que no existe forma de parar este tipo de prácticas debido a la falta de legislación de los gobiernos o la ausencia de educación digital por parte de los usuarios a nivel mundial.

Los deepfakes en video no tienen que ser en absolutamente falsos. La reciente polémica por el video de Nancy Pelosi donde simplemente se desaceleró el tiempo de las imágenes para hacerla parecer borracha es un ejemplo de falsificación barata que se salió de control: el video se hizo viral en Facebook y recibió millones de visitas en 48 horas.

Ahora existe un software de edición que permite a los usuarios cortar video y sonido produciendo una copia de un personaje casi real que dice o hace algún comentario degradante para la opinión pública. El caso de Pelosi es uno de ellos; sin embargo, en países como la India, se ha llegado a otros niveles de intimidación, especialmente contra periodistas mujeres.

El caso de Rana Ayyub es preocupante tanto para la libertad de prensa como para la libertad de las mujeres en general. La periodista india no solo sufrió intimidación en base a deepfake text en su cuenta de Twitter, sino que se hizo viral un deepfake con un falso vídeo pornográfico en donde se creaba un montaje con su cara.

Las mentiras siempre han existido, el problema ahora es el panorama que les optimiza a través de la IA y la necesidad de abordarle desde la educación y entendiendo cómo es la distribución de mensajes falsos en los medios de comunicación y las redes sociales.

Por ejemplo: Mark Zuckerberg alegó que el video de Pelosi no se eliminaría de Facebook, así como tampoco se eliminaría el suyo en Instagram. Aunque el video de Pelosi ahora se comparte en Facebook señalando que es falso ¿por qué no eliminarlo? ¿podría implicar censura? ¿sigue manteniéndose en línea para continuar generando interacciones y tiempo de uso en Facebook?

Ante las miles de preguntas que generan los avances tecnológicos, la Cámara de Representantes se ha reunido para abordar y debatir a toda prisa el asunto, con las elecciones presidenciales del 2020 pisándoles los talones. 

Es por ello que un proyecto de ley sobre deepfakes ha sido presentado de forma paralela por la representante de la Cámara Yvette Clarke, quien ofrece recomendaciones para crear una estructura ante el sesgo y crear legislaciones para responsabilizar tanto a las empresas como a los investigadores que producen herramientas de IA.  El proyecto de Clarke exige que las plataformas también deban invertir en contramedidas, integrando funciones para la detección de manipulación en sus plataformas. 

Teniendo en cuenta que la legislación va años atrasada con respecto a la tecnología profunda, varios testigos en la audiencia dijeron que todos los que usan los medios de distribución - léase, las redes sociales - deberían ser más precavidos para evitar la difusión de noticias y videos falsos.

"Las personas que comparten este tipo de historias son parte del problema, incluso si no lo saben", afirmó David Doermann, invitado experto a la Cámara de Representantes el pasado jueves quien ejerce como profesor y director del Instituto de Inteligencia Artificial de la Universidad de Buffalo. El punto de vista de Doermann es certero y amplifica las críticas hacia todos los usuarios, plataformas y gobiernos: ¿no es necesaria la educación digital para hacer buen uso de las plataformas tecnológicas?