De desnudos falsos a citas falsas: los deepfakes de IA plagaron a los atletas olímpicos

Mientras competían por medallas y gloria en Milán, Italia, los atletas olímpicos estadounidenses experimentaron algo que rápidamente se está convirtiendo en una característica habitual de la vida pública moderna: el uso generalizado de herramientas de inteligencia artificial por parte de políticos, trolls y acosadores sexuales para manipular sus imágenes y voces.

Los usuarios de 4chan y otros sitios generaron y compartieron rápidamente imágenes “desnudas” o sexualizadas de múltiples atletas estadounidenses, incluidas las patinadoras artísticas Alysa Liu, Amber Glenn e Isabeau Levito, así como las esquiadoras Mikaela Shiffrin y Eileen Gu (que compitieron por China).

Varias empresas de investigación, incluidas Graphika y Medidas abiertasrastreó las publicaciones e imágenes en 4chan, una plataforma que elimina automáticamente publicaciones y tableros de temas específicos después de un período determinado.

Cristina López G., analista senior de Graphika y autora de un informe publicado el lunes, dijo a CyberScoop que las comunidades en línea dedicadas a generar y compartir imágenes de desnudos falsos y no consensuales de celebridades, figuras públicas y mujeres que sabían que existían antes de la era de la IA generativa. Pero estos grupos han aprovechado los modelos de imágenes de IA, en particular las versiones locales de código abierto que se pueden descargar y ajustar, para mejorar la calidad de la imagen y hacer que la tecnología sea accesible para miembros menos técnicos.

“Estas comunidades han cooptado y adaptado estas tecnologías para optimizarlas para su caso de uso final, que sigue siendo la producción de [nonconsensual sexual imagery]”, dijo López G.

Los usuarios de estos foros de mensajes de 4chan siguen un patrón gamificado: una persona publica una imagen sexualizada o no consensuada y luego pide a otros que publiquen la suya propia a cambio. La disponibilidad de modelos de IA descargables y de código abierto, que carecen de barreras de seguridad y pueden personalizarse para su “nudificación”, ha acelerado esta actividad.

Estos pesos y configuraciones personalizados, llamados Adaptaciones de rango bajo (LoRA), se pueden compartir en línea y conectar a los modelos locales de otros usuarios, de manera similar a la forma en que los jugadores crean y comparten modificaciones.

Los deepfakes existen (y mejoran constantemente) desde hace años, pero la tecnología de inteligencia artificial generativa ha mejorado drásticamente en los últimos 18 meses en la generación de fotografías y videos realistas.

Además, los modelos de código abierto se han extendido por Internet, brindando a los usuarios la capacidad de personalizar, ajustar y compartir modelos que están optimizados para la nudificación y la generación de imágenes no consensuadas.

Aunque las publicaciones de 4chan se eliminan automáticamente, aún pueden propagarse a Internet en general. En 2024, por ejemplo, los desnudos deepfake de Taylor Swift se originaron en el sitio pero se volvieron virales en las principales redes sociales. López G. dijo que aplicaciones como Telegram—y cada vez más X—se convierten en conductos para difundir aún más las imágenes.

«La forma en que esto altera el juego, diría yo, es que ya no sólo se intercambian productos, sino que se intercambia la capacidad de generar productos infinitos», dijo. «Entonces el daño se agrava, porque simplemente estás permitiendo que muchas otras personas puedan producir y dirigirse de manera única y específica a estas mujeres».

IA, políticas de guerra cultural y la opinión pública

El uso de IA para imitar o acosar a los atletas olímpicos estadounidenses durante los juegos no se limitó a desnudos no consentidos en 4chan.

Brady Tkachuk, del equipo de hockey masculino de EE. UU., habló después de que la Casa Blanca publicara un video generado por IA que lo mostraba falsamente burlándose de los canadienses después de la victoria del equipo de EE. UU. por la medalla de oro sobre Canadá.

El video, compartido a través de la cuenta de TikTok de la Casa Blanca, mostraba a Tkachuk diciendo de Canadá: «Abuchearon nuestro himno nacional, así que tuve que salir y darles una maldita lección a esos que comen jarabe de arce». A pesar de incluir un descargo de responsabilidad generado por IA, el video Ha sido visto decenas de millones de veces.

Sin embargo, Tkachuk –un ciudadano estadounidense que juega profesionalmente para los Senadores de Ottawa– tomó el problemadiciendo a los medios “no me gusta ese vídeo” porque “no es mi voz, ni mis labios se mueven”.

Es el último ejemplo de cómo la Casa Blanca de Trump utiliza la IA para alterar o manipular imágenes públicas. La administración ahora crea o comparte periódicamente imágenes generadas por IA como parte de su mensaje político, a veces sin revelarlas al público. A principios de este año, la Casa Blanca publicó una foto manipulada por IA en X demostración La manifestante de Minnesota Nekima Levy Armstrong llorando mientras la arrestaban y se la llevaban esposada, una emoción que no estaba presente en la imagen original. Las cuentas de redes sociales de otras agencias federales también han compartido imágenes y videos manipulados por IA.

Los funcionarios de la Casa Blanca han defendido constantemente sus acciones, describiéndolas como poco más que bromas. López G. dijo que ya sean desnudos no consensuados o falsificaciones políticas, el problema “va más allá del daño tecnológico” y refleja cómo sectores de la cultura en línea esencialmente niegan el impacto de este contenido en el mundo real.

“Una cosa que realmente llama la atención es que muchas de las personas que producen [deepfakes] «No conecten el daño que le están haciendo a la persona real», dijo. «En sus mentes piensan que 'esto no es real' y por eso estas personas no salen lastimadas. Hay una desconexión ahí que no tiene nada que ver con la tecnología, sino más bien con nosotros como cultura”.

Greg Otto

Escrito por Greg Otto

Greg Otto es el editor en jefe de CyberScoop y supervisa todo el contenido editorial del sitio web. Greg ha dirigido una cobertura de ciberseguridad que ha ganado varios premios, incluidos los de la Sociedad de Periodistas Profesionales y la Sociedad Estadounidense de Editores de Publicaciones Empresariales. Antes de unirse a Scoop News Group, Greg trabajó para Washington Business Journal, US News & World Report y WTOP Radio. Tiene una licenciatura en periodismo televisivo de la Universidad de Temple.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *