Manual para moderadores do Facebook é falho, diz jornal
Funcionário forneceu material usado pela rede social para orientar como deve ser o controle de postagens que contrariam as políticas de uso
Tecnologia e Ciência|Pablo Marques, do R7
O manual de regras utilizado pelo Facebook para treinar os funcionários que trabalham com a moderação de conteúdo na rede social contém muitas falhas, segundo as informações publicadas pelo jornal The New York Times.
Leia também
Facebook revela falha que expôs fotos de 6,8 milhões de usuários
WhatsApp é usado para difundir pornografia infantil, dizem ONGs
Facebook permitiu que Netflix e Spotify lessem mensagens privadas
Facebook abriu dados para empresa suspeita de favorecer a Rússia
Facebook capacitou Apple a esconder coleta de dados irregular
A publicação encontrou numerosas lacunas, preconceitos e erros no material usado para orientar os moderadores. Foram obtidas mais de 1.400 páginas de um manual usado por quem atua na função de evitar a propagação de conteúdos que contrariam os termos de uso da plataforma.
Os moderadores dizem que enfrentam pressões para revisar cerca de mil conteúdos por dia, sendo de oito a 10 segundos para cada postagem. O Facebook diz que não existem cotas de análise e que não há pressão por tempo.
A rede social confirmou ao The New York Times que o material obtido é verdadeiro. No entanto, argumentou que o jornal não teve acesso à versão mais recente.
Regras e orientações
Segundo o jornal, as falhas no treinamento e a dificuldade de determinar regras claras prejudicam o controle de conteúdo. Há casos em que foram promovidas postagens inadequados enquanto usuários foram censurados sem um motivo aparente.
Os moderadores receberam ordens, por exemplo, para remover apelos para arrecadação de fundos para as vítimas do vulcão na Indonésia, porque um co-patrocinador da campanha estava na lista interna de grupos banidos do Facebook.
Em Mianmar, um erro burocrático permitiu que um proeminente grupo extremista, acusado de fomentar o genocídio da minoria rohyngia, permanecesse na plataforma por meses. Na Índia, os moderadores foram informados por engano para retirar comentários críticos sobre a religião.
Houve também uma orientação para permitir elogios ao Taleban, normalmente uma prática proibida, se fosse mencionada a decisão de um cessar-fogo. Outra instrução pedia para remover rumores de que um soldado israelense havia matado um médico palestino.
O NYT também teve acesso a uma planilha do Excel na qual o Facebook nomeia cada grupo e indivíduo que a empresa discretamente barrou como figura de ódio. Todos são instruídos a remover qualquer conteúdo que cite algum item listado.