Saiba o que é ASI, a próxima grande barreira da inteligência artificial

ASI é sigla para Inteligência Social Artificial, modelo que possibilita não apenas auxiliar, mas "imitar" sinais emocionais dos humanos
Saiba o que é ASI, a próxima barreira da inteligência artificial
Imagem: Alexander Sinn/Unsplash/Reprodução

A Inteligência Social Artificial, ou ASI, é a próxima grande barreira dos sistemas de IA como o ChatGPT, o bot ultra responsivo da OpenAI. Essa é a conclusão de pesquisadores do Instituto de Inteligência Artificial Geral da Universidade Tsinghua, com sede em Pequim (China). 

Em publicado em dezembro, a equipe de cientistas chineses afirma que a IA até pode ser inteligente, mas ainda fica para trás por não ter habilidades sociais. Apesar de terem capacidade para agendar e acompanhar reuniões, ainda não conseguem decidir sozinhos o que é mais importante, dar prioridade, por exemplo. 

A ASI usa ciência cognitiva e modelos computacionais para identificar lacunas entre os sistemas de inteligência artificial e a inteligência social humana. É uma área do conhecimento que se apropria de diversos campos, como percepção social, neurociência e interação social, além da tecnologia de informação. 

No alcance dos modelos de inteligência artificial, a ASI ganha peso e se torna mais desafiadora, pois depende em grande medida dos contextos sociais. 

“Esse desafio único dificulta para algoritmos lidar com problemas do mundo real, que são frequentemente complexos, ambíguos, dinâmicos e parcialmente observáveis”, Lifeng Fan, a principal autora do estudo.

Segundo a pesquisadora, os sistemas de IA só terão condições de avançar quando conseguirem usar a ciência cognitiva e modelagem computacional. Só então poderão identificar as lacunas entre as máquinas e a inteligência social humana. 

Mas, para isso acontecer, a abordagem precisa ser diferente e requer esforços muito maiores dos que já vêm sendo feitos. Um exemplo é que IAs deverão ter capacidade para interpretar pistas sociais, como bocejos e olhos revirados, para entender o estado mental de seus interlocutores. A partir daí, conseguiria entender as crenças e intenções e cooperar em tarefas comuns. 

Imitando humanos 

A conclusão da pesquisadora é que a melhor abordagem para os sistemas de IA é imitar a interação entre os humanos – não só entre eles, mas como se relacionam com o mundo ao redor. 

Mas isso requer um ambiente aberto e interativo, e não baseado em modelos fechados, com bases de dados restritos, como são os treinamentos dos sistemas de IA hoje. 

Segundo ela, isso só será possível com uma “abordagem holística” – ou seja, que contemple o todo dos robôs, assim como acontece com o aprendizado humano. Isso inclui técnicas de aprendizado através de tarefas, com tentativas e até pedagogia, por exemplo. 

“Precisamos definir novos problemas, criar novos ambientes e conjuntos de dados, configurar novos protocolos de avaliação e construir novos modelos computacionais”, pontuou a cientista. “O objetivo final é equipar a IA com ASI de alto nível e elevar o bem-estar humano com a ajuda da Rede Social Artificial Inteligência”, terminou.

Julia Possa

Julia Possa

Jornalista e mestre em Linguística. Antes trabalhei no Poder360, A Referência e em jornais e emissoras de TV no interior do RS. Curiosa, gosto de falar sobre o lado político das coisas - em especial da tecnologia e cultura. Me acompanhe no Twitter: @juliamzps

fique por dentro
das novidades giz Inscreva-se agora para receber em primeira mão todas as notícias sobre tecnologia, ciência e cultura, reviews e comparativos exclusivos de produtos, além de descontos imperdíveis em ofertas exclusivas

카지노사이트 온라인바카라 카지노사이트