Com o surgimento de inteligência artificial generativa que consegue criar vídeos extremamente realistas o risco de desinformação por deepfake é maior. Pensando nisso, a gigante de tecnologia Microsoft anunciou uma parceria para ajudar a remover imagens íntimas não consensuais — incluindo deepfakes — de seu mecanismo de busca Bing.
Parceria da Microsoft contra deepfake
A parceria é com StopNCII, uma organização que permite que vítimas de pornografia de vingança criem uma impressão digital dessas imagens explícitas, reais ou não, em seus dispositivos. Aí então a Microsoft pode usar essa impressão digital, ou “hash”, como é tecnicamente conhecido, para limpar a imagem de suas plataformas.
Além do Bing, varias outras empresas de tecnologia concordaram em trabalhar com a StopNCII. A Meta utiliza a ferramenta em suas plataformas Facebook, Instagram e Threads. Outros serviços como Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse e Redgifs também já fecharam um acordo com a StopNCII.
Segundo a , já tomou medidas em 268.000 imagens explícitas retornadas pela busca de imagens do Bing em um piloto até o final de agosto.
“Ouvimos preocupações de vítimas, especialistas e outras partes interessadas de que os relatórios de usuários por si só podem não ter impacto efetivo ou abordar adequadamente o risco de que as imagens possam ser acessadas por meio de pesquisa”, disse a Microsoft.
Algoritmo para identificar deepfake
Pesquisadores da Universidade de Drexel, da Filadélfia (EUA), desenvolveram um algoritmo chamado “MISLnet” que consegue detectar vídeos deepfake com uma precisão de 98%.
Em um estudo publicado em junho, os pesquisadores comentam sobre a dificuldade das ferramentas atuais para identificar vídeos gerados por IA. Ressaltando a necessidade de um método novo.
Assim, esse algoritmo, segundo o estudo, focou em um método de detecção de conteúdo falso gerado por IA que teria as mesmas características únicas de vídeos de IA generativa. Portanto, eles utilizaram algoritmos de machine learning, para identificar padrões sutis, ou “impressões digitais” em vídeos deepfake de IA generativa.
O MISLnet é um tipo de CNN. E demonstrou uma capacidade de adaptação impressionante, de acordo com os criadores.