Det er ikke længere muligt at søge efter Taylor Swifts navn på det sociale medie X, som tidligere hed Twitter. Hvis man forsøger, får man blot fejlbeskeden: »Noget gik galt«. Det melder The Wrap.
Årsagen er, at en række AI-genererede deepfake-billeder, der viser (en falsk udgave af) Taylor Swift uden tøj på er gået viralt på X siden onsdag. Ifølge The Wrap ved man ikke, hvor billederne stammer fra.
Taylor Swift overvejer, ifølge Daily Mail, som citerer en anonym kilde tæt på popstjernen, at gå rettens vej for at bekæmpe den virale deepfake-porno, som har brugt hendes udseende.
»Taylors Swifts kreds af familie og venner er rasende, det er hendes fans selvfølgelig også«, siger den anonyme kilde.
»Om der vil blive taget retslige skridt eller ej, er ved at blive afgjort, men én ting står klart: Disse falske AI-genererede billeder er misbrug, stødende, udnyttende og udført uden Taylors samtykke og/eller viden«.
Deepfake-billederne fik i torsdags også skuespillerforbundet SAG-AFTRA til tasterne.
»De seksuelt eksplicitte, AI-genererede billeder, der afbilder Taylor Swift, er oprørende, skadelige og dybt bekymrende«, skriver fagforeningens repræsentanter til The Wrap. »Udarbejdelsen og spredningen af falske billeder – især billeder af uanstændig karakter – uden nogens samtykke skal gøres ulovligt«.
Også Det Hvide Hus’ pressesekretær, Karine Jean-Pierre, har udtalt sig om sagen, skriver The Wrap.
»Mens sociale medievirksomheder træffer deres egne uafhængige beslutninger om indholdsstyring, mener vi, at de har en vigtig rolle at spille i at håndhæve deres egne regler for at forhindre spredning af misinformation og intime billeder uden samtykke«, sagde Jean-Pierre fredag.
»Dette problem er ikke nyt, og det er et problem, som Biden-Harris-administrationen har prioriteret siden dag ét. Vi har taget det meget seriøst«.