Difunden fotos "explícitas" de Yeri Mua generadas con IA
Las imágenes se construyeron con la finalidad de hacer parecer a la influencer desnuda, lo cual se considera como una práctica de violencia digital
CIUDAD DE MÉXICO.- Yeri Mua se suma a la lista de celebridades que han sido testigos del mal uso de la Inteligencia Artificial. La imagen de la "Bratz jarocha" fue utilizada sin su consentimiento para crear fotografías falsas.
Las imágenes se construyeron con la finalidad de hacer parecer a la influencer desnuda, lo cual se considera como una práctica de violencia digital. En sus redes sociales, Yeri Cruz Varela indicó: "como que ahora traen las fans de kpop fotos mias desnudas editadas con inteligencia artificial? Para atacarme ay diosssss encima me pusieron pelos en la puc** auxilio yo ni pop canto".
De acuerdo con la influencer, un amigo la contactó preocupado para decirle que las fotos se estaban difundiendo como si fueran reales. Ahí fue cuando se enteró de lo que estaba pasando: "Todos están muy preocupados porque las están exponiendo como si fueran reales, ay no sé me siento muy expuesta q asco me dan las que hicieron eso con mi cuerpo".
Los fanáticos de la "Bratz jarocha" no tardaron en demostrarle su apoyo. Al mismo tiempo reprobaron la conducta de las personas que se han dedicado a insultar a Yeri Mua por su físico.
Más de la sección
Y aunque la intérprete de "Chupón" procuró tomar la situación con humor, pidió ayuda para denunciar el contenido. "Ayúdenme a denunciar esas fotos, son puras cuentas de fans de K-Pop subiendo fotos mías desnudas de IA. Todas mujeres no lo puedo creer", dijo.
Según la cantante, la difusión de las fotos la detectó dentro de grupos de fans de K-Pop que abundan en redes sociales. Sin embargo, sus seguidores le pidieron no generalizar y acusar sin pruebas:
"No, no generalizo, pero las que las están difundiendo son de esos grupitos, con razón me llegaron un montón de msjs en Instagram de viejos asquerosos, qué les pasa a esas niñas", respondió en su perfil de X.
Yeri Mua fue víctima de las denominadas "deepfake", es decir, noticias falsas que se construyen con base a la identidad de una persona, ya sea en foto o audio, para alterarlas o manipularlas mediante un software de Inteligencia Artificial.
El caso de la influencer mexicana es similar a la situación que atravesó Rosalía, cuando el rapero JC Reyes difundió una serie de fotos falsas que daban la apariencia de que la cantante española estaba desnuda.
En la actualidad, este tipo de actos con Inteligencia Artificial no han sido regulados por la ley. Sin embargo, dentro de la violencia digital se contemplan acciones como la difusión de imágenes sin consentimiento, acoso, humillación y hostigamiento.