Taylor Swift fue blanco de un ataque a su imagen.
Taylor Swift se encuentra analizando las acciones legales que realizará en contra de un portal de contenido para adultos que difundió videos de simulaciones de actos íntimos protagonizados por ella, generados mediante aplicaciones de inteligencia artificial.
“La decisión de emprender acciones legales está en proceso, pero una cosa es evidente: estas representaciones falsas generadas por IA son abusivas, ofensivas, y explotadoras, perpetradas sin el previo consentimiento o autorización de Taylor”, reveló una fuente allegada a la cantante.
Los deepfakes exhibían a la artista ataviada con prendas alusivas a los Kansas City Chiefs, dentro del estadio, haciendo referencia a sus asistencias a los eventos deportivos de su pareja, el destacado jugador Travis Kelce.
Rápidamente, las imágenes se propagaron en diversas plataformas de redes sociales, suscitando la indignación de Swift.
“La cuenta de Twitter que los difundió ya no existe. Es sorprendente que la red social haya tolerado su presencia desde el principio. Es imperativo eliminar estas imágenes de cualquier lugar donde subsistan, y nadie debería respaldar su promoción.
“El círculo cercano de Taylor, incluyendo familiares y amigos, está encolerizado, al igual que sus seguidores, con toda razón. Tienen el derecho a sentirse así, como cualquier mujer. Es crucial cerrarle la puerta a esto. Urge la aprobación de legislación para prevenir y sancionar este tipo de prácticas”, afirmó la fuente cercana a la intérprete.
Según Daily Mail, medio que ha tenido contacto directo con el círculo cercano a la cantante, un informe de la investigadora independiente Genevieve Oh reveló que durante este año se difundieron en línea más de 143 mil nuevos videos deepfake, superando la suma de todos los años anteriores.
Este jueves por la mañana, la plataforma X empezó a suspender cuentas que habían compartido ciertos contenidos gráficos, mientras Taylor Swift aún no ha emitido comentarios respecto al sitio ni a la divulgación de las imágenes.
La creación y difusión de pornografía deepfake no consensuada es ilegal en Texas, Minnesota, Nueva York, Virginia, Hawái y Georgia. En Illinois y California, las víctimas pueden entablar demandas contra los generadores de dicho contenido ante los tribunales por difamación.