Taylor Swift é vítima de nudes falsos gerados por IA
Pessoa do ano de 2023 pela revista Time e uma das cinco mulheres mais poderosas da Forbes, Taylor Swift foi alvo de desinformação e exposição de fotos íntimas falsas na internet. As imagens foram criadas por IA (Inteligência Artificial) e compartilhadas no X, o antigo Twitter.
Segundo o , as imagens são deepfakes. A prática é uma técnica feita com IA que copia a imagem da pessoa e coloca uma situação que não ocorreu na realidade, conforme explica o .
As imagens falsas ainda faziam referências a um jogo do Kansas City Chiefs, time de futebol americano do namorado de Taylor Swift, Travis Kelce.
A CNN lembrou que o X não permite o compartilhamento de “mídia sintética, manipulada ou fora de contexto que possa enganar ou confundir as pessoas e causar danos”. Porém, o X não respondeu os pedidos da emissora.
Já segundo a , o X suspendeu ao menos uma conta por compartilhar as imagens falsas criadas por IA.
Em resposta, os swifties (fãs da Taylor Swift), responderam compartilhando vídeos e fotos de apresentações da cantora para se sobreporem às imagens falsas. Nos posts, os fãs escreveram “protejam Taylor Swift” em meio a pedidos para uma regulamentação do uso da tecnologia.
queria proteger minha menina de todas essas pessoas ruins que estão compartilhando essas montagens nojentas de IA! cadê o mínimo de respeito por mulheres? isso é crime.protect taylor swift e todas as mulheres que são vítimas dessas montagens! 🤍
— lissa ᰔᩚ (@libraryjurdan)
Taylor Swift fake já participou de comercial de panelas
Não é a primeira vez que usam a imagem da cantora de 34 anos para desinformação. Ainda em janeiro, ela teve sua imagem atrelada a um vídeo falso feito por inteligência artificial. O objetivo era enganar usuários do Facebook em um falso anúncio de sorteio de panelas.
Nos Estados Unidos, os estados de Texas, Minnesota, Nova York, Havaí e Geórgia proíbem a pornografia criada por deepfake não consensual. Em outubro, o presidente norte-americano Joe Biden emitiu uma ordem executiva para ter mais rigorosidade contra as deepfakes.
Um projeto de lei que torna crime em nível federal a pornografia criada por IA e seu compartilhamento está parado no Comitê Judiciário da Câmara dos Estados Unidos.
No Brasil, o , conhecido como “PL das Fake News”, que versa sobre normas para as redes sociais e os serviços de mensagem no que diz respeito ao combate à desinformação, espera análise da Câmara dos Deputados. A do projeto aborda o uso de imagem manipulada, mas de candidatos a cargo público.