Pandemia atrapalhou moderação de conteúdos ligados a suicídio e abuso infantil, diz Facebook
O vice-presidente de integridade do Facebook, Guy Rosen, que a queda no número de ações tomadas foi uma consequência direta do coronavírus, já que a aplicação de regras nessas categorias requer maior supervisão humana. Os moderadores de conteúdo da empresa — que já enfrentam condições de trabalho muito ruins — não conseguem render tão bem ou mesmo trabalhar quando está em casa, de acordo com Rosen:
Com menos revisores de conteúdo, tomamos medidas em relação a um número menor de peças de conteúdo no Facebook e no Instagram para suicídio e automutilação, e nudez infantil e exploração sexual no Instagram. Apesar dessas reduções, priorizamos e tomamos medidas em relação ao conteúdo mais prejudicial dentro dessas categorias. Nosso foco continua em encontrar e remover esse conteúdo, enquanto aumentamos a capacidade de revisão da maneira mais rápida e segura possível.O relatório não ofereceu estimativas da prevalência de conteúdo violento, gráfico, nudez adulta ou atividade sexual no Facebook ou no Instagram. Rosen alega que a empresa “priorizou a remoção de conteúdo prejudicial”. O processo de apelação do Facebook, pelo qual os usuários podem contestar uma decisão da moderação, também ficou quase em zero em todas as categorias. Em julho, a empresa que, com moderadores fora do escritório, daria aos usuários que desejam apelar a opção de manifestar essa visão. A companhia disse que monitoraria esse feedback para melhorar a precisão, mas provavelmente não revisaria o conteúdo uma segunda vez.
Lembre-se de que tudo isso é , que recentemente enfrentou acusações de fazer vista grossa para violações de regras que são politicamente inconvenientes, bem como um protesto de funcionários e boicote de anunciantes pressionando a empresa a adotar um combate mais rígido contra o discurso de ódio e desinformação.
Por definição, o relatório mostra apenas o conteúdo proibido que o Facebook já tem conhecimento. Avaliações independentes da forma como a empresa lida com questões como discurso de ódio nem sempre refletem a insistência com que a empresa afirma tem progredido nessas questões.Uma auditoria de direitos civis publicada em julho de 2020 concluiu que o Facebook falhou em construir uma infraestrutura de direitos civis e fez escolhas “frustrantes e dolorosas” que ativamente causaram “retrocessos significativos para os direitos civis”.
Um relatório das Nações Unidas em 2019 classificou a reação como do Facebook às acusações de cumplicidade no genocídio do povo Rohingya em Mianmar, denunciando a empresa por não fazer o suficiente para remover conteúdo racista do site rapidamente ou para impedi-lo de ser postado. (É possível que parte do aumento do discurso de ódio identificado pelo Facebook se deva à introdução de mais ferramentas de detecção em birmanês, a língua predominante de Mianmar.) Ainda não se sabe se as ferramentas de inteligência artificial do Facebook estão fazendo um bom trabalho. Caitlin Carlson, professora associada da Universidade de Seattle, que o discurso de ódio “não é difícil de encontrar” no site, e que os 9,6 milhões de posts que o Facebook disse ter removido por discurso de ódio no primeiro trimestre de 2020 pareciam um número muito baixo. Em janeiro de 2020, Carlson e um colega publicaram os resultados de um experimento em que reuniram 300 posts que acreditavam violar os padrões da empresa e os relataram aos moderadores do Facebook; .Grupos dedicados a teorias da conspiração, como o de , continuam a se espalhar pelo site e têm . O Facebook, assim como outros sites de mídia social, também desempenhou um papel importante na disseminação da desinformação sobre o coronavírus neste ano.
Muitos dos moderadores do Facebook começaram a . , o Facebook disse que está trabalhando para ver como suas métricas podem ser auditadas “de maneira mais eficaz” e disse que está solicitando uma auditoria externa e independente dos dados do Community Standards Enforcement Report, que deve começar em 2021.