_Tecnologia

Após boom do Bing, Microsoft demite equipe inteira de ética para IA

Equipe de ética era responsável por identificar possíveis riscos da adoção do ChatGPT, da OpenAI, nos produtos da Microsoft

microsoft fecha estúdios

Imagem: Thomas Hawk/Flickr/Reprodução

A Microsoft demitiu o resto da equipe que cuidava das questões de ética e sociedade nos recursos de IA (inteligência artificial) da companhia. O grupo atingiu seu auge em 2020, quando chegou a 30 funcionários. Desde outubro, sete pessoas operavam no setor. 

O grupo está entre os 10 mil funcionários com contratos rescindidos pela empresa, segundo informações obtidas pelo site . Com as saídas, a Microsoft está sem uma equipe dedicada a manter a ética dentro das suas plataformas de IA. 

As saídas acontecem enquanto o Bing explode em número de usuários após implementar um bot aos moldes do ChatGPT na plataforma. Só no primeiro mês de implantação da IA, o navegador ganhou mais de 100 milhões de usuários, como anunciou a Microsoft , na quinta-feira (9).

A empresa mantém um Escritório de IA ativo, que ficou encarregado de criar regras e princípios para governar as iniciativas de inteligência artificial internas. Mesmo com as demissões, a Microsoft diz que o investimento geral está aumentando. 

“A Microsoft está comprometida em desenvolver produtos e experiências de IA com segurança e responsabilidade, e o faz investindo em pessoas, processos e parcerias que priorizam isso”, afirmou a big tech em comunicado. 

Por que uma equipe de ética 

O grupo, que inclui engenheiros, designers e até sociólogos e filósofos, desempenha um papel importante ao garantir que os princípios de IA da empresa reflitam no produto final que é entregue ao usuário. 

Nos últimos anos, a equipe projetou o jogo “Judgment Call”, que ajudou os designers a visualizar possíveis danos causados pela IA. A partir disso, eles discutiam formas de combater preconceitos e ajustar o comportamento via aprendizado de máquina durante o desenvolvimento do produto. 

Mais recentemente, a equipe estava trabalhando para identificar possíveis riscos da adoção do ChatGPT, da OpenAI, em todos os produtos da Microsoft. Faz sentido: a IA do Bing, por exemplo, já demonstrou comportamentos inadequados ao ameaçar e até fazer declarações de amor para usuários. 

Depois dos relatos assustadores, a Microsoft impôs limites de tempo para as conversas. A big tech alegou que os insultos, informações falsas e comportamento sexual da plataforma só aconteceram porque os diálogos se prolongaram por mais de duas horas, o que “confundiu” a máquina. 

Sair da versão mobile
카지노사이트 온라인바카라 카지노사이트