“Mujeres disuasorias”: las políticas femeninas son objeto de “deepfakes” pornográficos
Written by rasco on January 6, 2025
“Mujeres disuasorias”: las políticas femeninas son objeto de “deepfakes” pornográficos
De Estados Unidos a Italia, del Reino Unido a Pakistán, las mujeres políticas son cada vez más víctimas de imágenes sexuales o pornográficas generadas por inteligencia artificial, una tendencia preocupante que amenaza la participación de las mujeres en la vida pública, afirman los investigadores.
Esta explosión de deepfakes publicado sin el consentimiento de los interesados frustra los esfuerzos por regular la inteligencia artificial a nivel mundial, según los expertos, con la proliferación de herramientas de inteligencia artificial de bajo coste, en particular aplicaciones de edición de fotografías en teléfonos que permiten desnudar a las mujeres.
Para los investigadores, estas imágenes íntimas se utilizan como armas reales que pretenden dañar la reputación de las mujeres en la esfera pública, comprometiendo sus carreras, socavando la confianza pública y amenazando la seguridad nacional, alimentando fenómenos de chantaje y acoso.
En Estados Unidos, el American Sunlight Project (ASP), un grupo de investigación sobre desinformación, ha identificado más de 35.000 casos de deepfakes que representan a 26 miembros del Congreso de los Estados Unidos, 25 de los cuales son mujeres, en sitios pornográficos.
Una “realidad oscura e inquietante” para los investigadores, cuyo estudio publicado el mes pasado muestra que una sexta parte de las mujeres elegidas al Congreso fueron víctimas de este tipo de imágenes generadas por la IA.
“Las mujeres miembros del Congreso están siendo atacadas por estos deepfakes La pornografía generada por IA está a un nivel alarmante”, advierte Nina Jankowicz, directora de la ASP.
“No es sólo una cuestión de tecnología, es un ataque contra las mujeres que tienen el poder y contra la propia democracia”, subraya.
La ASP no publicó los nombres de las mujeres electas al Congreso objeto de las imágenes en cuestión, para evitar generar mayor interés e investigaciones, pero indicó que había notificado a sus oficinas de manera confidencial.
“Hacer esta guerra”
En el Reino Unido, la viceprimera ministra Angela Rayner es una de al menos 30 políticos británicos objeto de una deepfakes pornográfico, según una investigación del Canal 4 publicada en julio.
Este sitio, que atrae a numerosos visitantes y cuyo nombre no ha sido revelado por el canal para evitar cualquier publicidad, utiliza la IA para “desnudar” a una decena de estos personajes políticos, transformando fotografías reales en imágenes falsas en las que aparecen desnudos.
Las mujeres son el objetivo de aplicaciones y herramientas impulsadas por IA, que están disponibles gratuitamente para el público en general y no requieren habilidades técnicas, y que permiten a sus usuarios quitar virtualmente la ropa de las imágenes o generar deepfakes a través de solicitudes de texto sexualizadas.
Los avances tecnológicos han dado lugar a lo que los investigadores llaman una creciente “industria casera” en torno a la pornografía potenciada por IA, con algunos creadores de deepfakes aceptar solicitudes pagas para generar contenido protagonizado por una persona elegida por el cliente.
En Italia, la primera ministra Giorgia Meloni exige 100.000 euros en concepto de indemnización a dos hombres acusados de crear vídeos pornográficos falsos en los que aparece ella y publicarlos en sitios pornográficos estadounidenses.
“Ésta es una forma de violencia contra las mujeres”, declaró M.a mí Meloni comparecerá ante el tribunal en octubre de 2024, según la agencia de noticias italiana ANSA.
“Con la llegada de la IA, si permitimos que el rostro de una mujer se superponga al cuerpo de otra, nuestras hijas se encontrarán en estas situaciones, y es precisamente por eso que considero legítimo luchar en esta guerra”, insistió.
“Disuadir a las mujeres”
En Pakistán, periodistas de la AFP analizaron un vídeo profundo que muestra a una funcionaria electa local, Meena Majeed, besando a un hombre en público, un acto considerado inmoral en el conservador país musulmán.
Azma Bukhari, ministra de Información de la provincia paquistaní de Punjab, dijo que se sintió “devastada” tras descubrir el vídeo. profundo quien superpuso su rostro al de una actriz india con el cuerpo desnudo.
“Observamos cada vez más el efecto paralizante de estas imágenes y vídeos generados por la IA, utilizados para acosar a las mujeres en política”, analizó en 2024 la ONG Tech Policy Press, advirtiendo que esto tiene el efecto de “disuadir a las mujeres que tienen ambiciones políticas”.
En todo el mundo, la proliferación de estos deepfakes se adelantó a las regulaciones.
La legislación existente en Pakistán “para prevenir los delitos en línea” incluye disposiciones contra el “ciberacoso” destinadas a prohibir compartir fotografías o vídeos sin el consentimiento de las personas objetivo, “para no dañar a nadie”. Sin embargo, el país no cuenta con una ley específica para combatir la difusión de deepfakes de carácter sexual.
Aunque las leyes británicas penalizan la distribución de deepfakes de naturaleza pornográfica, el gobierno laborista ha prometido prohibir la creación de dichos contenidos, pero aún no se ha fijado un calendario.
Algunos estados de Estados Unidos, incluidos California y Florida, han aprobado leyes que penalizan la publicación de deepfakes sexualmente explícitos, y los activistas están pidiendo al Congreso de Estados Unidos que apruebe urgentemente nuevas leyes para regular su creación y distribución.
Incluso si las víctimas de deepfakes Aunque hasta ahora las mujeres políticas y famosas, entre ellas la cantante Taylor Swift, tienen un carácter pornográfico, los expertos afirman que todas las mujeres, incluidas las que no pertenecen al círculo mediático, son vulnerables a ello.
Después de que ASP notificó a las congresistas objetivo, las imágenes generadas por IA fueron eliminadas casi por completo de los sitios afectados, lo que refleja lo que los investigadores llaman una “disparidad de privilegios”.
“Es poco probable que las mujeres que no tienen los recursos disponibles para los miembros del Congreso obtengan una respuesta tan rápida de los sitios que publican deepfakes pornográfico si ellos mismos iniciaron una solicitud de retiro”, explica la ASP en su informe.
¡La mejor música latina te espera! 🎶 Síguenos en Instagram @be1radio y mantente al día con nuestras novedades y eventos.
Descarga nuestra APP BEONERADIO
Google Play | Apple Store
www.be1radio.com
Instagram: @be1radio