Tecnologia
Hackers criam FraudGPT com IA maliciosa para gerar golpes com um clique
Oferecidos em fóruns da dark web, modelos de IA maliciosa permitem criar malwares, emails de phishing e até vídeos de deep fake
Imagem: Mohammad Rahmani/Unsplash/Reprodução
Hackers que frequentam a dark web criaram dois modelos que, por meio de IA generativa, criam malwares, campanhas de desinformação e até chamadas de vídeo falsas com apenas um comando.
Os “gêmeos do mal” do ChatGPT são conhecidos como FraudGPT e WormGPT. Segundo um relatório publicado pelo Departamento de Cibersegurança da Academia de Defesa da Nigéria, as ferramentas “representam um ponto de virada nos ataques cibernéticos maliciosos”.
Como funcionam o FraudGPT e o WormGPT
Ambos os modelos funcionam de forma parecida com o ChatGPT. Os usuários acessam a plataforma e fornecem um prompt. Em seguida, o comando é executado pela inteligência artificial em alguns segundos.
Porém, em vez de produzirem conteúdos em texto inofensivos, o FraudGPT e o WormGPT permitem a criação de emails de phishing e até mesmo sites inteiros para roubar informações de usuários.
Os primeiros relatos de fraudes envolvendo os modelos de IA surgiram em canais do Telegram e fóruns da dark web, como verificado pelo site , em julho de 2023.
Segundo especialistas, as IAs criminosas se baseiam no modelo GPT-J. Esse modelo foi desenvolvido em código aberto pela EleutherAI, em 2023, com base em diversos parâmetros semelhantes ao GPT-3, da OpenAI.
Assim como a versão completa do ChatGPT, tanto o FraudGPT e o WormGPT são serviços pagos. De acordo com o , hackers pagam de US$ 65 (R$ 321) até US$ 200 (R$ 988) por mês para acessar as plataformas.
Alguns cibercriminosos chegam a gastar mais de US$ 5,4 mil (R$ 26,6 mil) para adquirir a versão mais completa do WormGPT.
IA gera emails de phishing convincentes e sem erros
O uso de IA por hackers faz com que as tentativas de golpe se tornem cada vez mais convincentes e comuns. Aliás, aqui no Giz Brasil, noticiamos o crescimento no número desses casos, em outubro do ano passado.
Até pouco tempo atrás, a principal recomendação para evitar cair em golpes era checar erros gramaticais, contextuais e de sintaxe nos textos de emails ou sites suspeitos. O problema é que conteúdos gerados por máquinas não têm erros ortográficos.
Além disso, o FraudGPT permite aos cibercriminsos criarem emails maliciosos em qualquer idioma, com linguagem praticamente perfeita. Por isso, vale cada vez mais investir em segurança digital.