O ChatGPT está revolucionando a maneira com que o público lida com a inteligência artificial. A ferramenta é acessível para todos, sendo capaz de escrever redações, criar resumos de pesquisas e até mesmo responder a perguntas de maneira satisfatória o suficiente para ser aprovado em testes.
Mas suas habilidades também causam preocupações. Por ser difícil diferenciar o que é escrito pelo ChatGPT ou pelos humanos, é possível que a ferramenta seja usada de forma errada, produzindo spam, por exemplo.
Há ainda um segundo problema que ameaça a comunidade científica. Pesquisadores podem creditar os textos de IA como sendo seus ou mesmo utilizar a ferramenta para revisar outros trabalhos, deixando algumas inconsistências passarem despercebidas.
Para evitar a queda da qualidade científica das pesquisas, a revista Nature, em parceria com todos os periódicos da Springer Nature, que devem ser seguidos pelos autores.
Em primeiro lugar, ferramentas do tipo não serão aceitas como autor credenciado nos trabalhos. Isso porque os autores são responsáveis por aquilo que escrevem na pesquisa e os robôs não são capazes de assumir a culpa por possíveis erros.
O segundo princípio diz que os pesquisadores que usarem tais ferramentas devem documentar a utilização nas seções de métodos ou agradecimentos. Se não houver essas seções no artigo, o uso deve ser citado em outra parte apropriada do trabalho.
E como a Nature saberá se os trabalhos são realmente legítimos? A editora Springer Nature está desenvolvendo tecnologias para identificar padrões, passagens genéricas e erros simples. Também há planos para que os desenvolvedores de chatbots coloquem marcas d’água que identifiquem a saída dos textos, embora essa técnica não seja infalível para evitar golpes.