Deepfakes usam streamers famosos em vídeos pornôs gerados por IA
Streamers famosos, em especial mulheres, estão vendo suas imagens serem usadas sem consentimento em vídeos de pornografia deepfakes – técnica de IA (inteligência artificial) que cria imagens falsas de forma tão convincente que parecem reais.
Na maioria das vezes, deepfakes substituem o rosto de personagens em vídeos já existentes pelo de outra pessoa. A tecnologia espelha até as expressões faciais que existem no vídeo original para o “novo rosto” colocado artificialmente.
Apesar da técnica ser comum para criar na internet, 96% das deepfakes são usadas na pornografia, aponta um estudo da empresa holandesa Sensity, que detecta mídia sintética online. O mais preocupante é que a grande maioria desses materiais envolvem mulheres que não consentiram com a criação do conteúdo.
É o caso da streamer britânica Sweet Anita, de 32 anos. Com 1,9 milhão de seguidores na Twitch, ela viu sua imagem em vídeos pornôs dos quais ela nunca havia participado.
“Fui vendida contra a minha vontade. Não consenti em ser sexualizada”, disse ela em à emissora NBC. “Isso obviamente acontece há um bom tempo sem que eu saiba. Eu não fazia ideia, pode ter anos pelo que sei”, contou.
Outra streamer, QTCinderella, também passou por uma situação parecida. “Ver-se nua contra a vontade e transmitida na internet é como se sentir violada”, afirmou em seu canal na Twitch. “Eles têm que saber o que é dor, porque é isso”, lamentou. “É assim que se sente ao ser violado. É assim que você fica nu contra a sua vontade e por toda a internet”.
Exploração antiga
As streamers não são as únicas vítimas das deepfakes. Atrizes como Scarlet Johansson, Emma Watson e Gal Gadot já veem suas imagens sendo usadas em vídeos do tipo há alguns anos. “Lutar contra isso é uma causa perdida”, desabafou Johansson em 2019.
A diferença é que, agora, o acesso facilitado às tecnologias de IA podem fazer com que qualquer mulher tenha sua imagem vinculada a conteúdo adulto sem nem ter ideia disso. Uma reportagem, também da , mostrou como a criação do pornô deepfake está cada vez mais simples, acessível e lucrativa na web.
A investigação identificou um usuário que se ofereceu para criar deepfakes com “qualquer garota” em “menos de cinco minutos”. O valor: US$ 65 – pouco menos de R$ 330 no câmbio atual.
A maioria desses criadores vendem os conteúdos em transações comuns, via cartão de crédito ou criptomoedas, em comunidades do Discord. Depois, sobem os vídeos em sites pornôs, a um clique nas buscas do Google.
Em 2022, outra investigação apontou que uma página popular de deepfake teve um aumento de sete vezes no volume de vídeos carregados desde 2018. Saltou de 1,9 mil para mais de 13 mil no período, com mais de 16 milhões de visitas mensais.
Enquanto usuários lucram com a imagem de mulheres, streamers tentam buscar seus direitos na Justiça – e alertar para os riscos na internet. “Se você é capaz de olhar para isso, então você é o problema. Você vê as mulheres como um objeto. Você não deveria estar bem fazendo isso”, disse QTCinderella, por fim, em seu vídeo desabafo.