O Brasil é um dos três países que mais precisam de moderação de conteúdo do Facebook, ao lado de Índia e Estados Unidos, segundo demonstram documentos vazados por funcionários da empresa e pela ex-gerente e delatora Frances Haugen. O caso está sendo chamado de “Facebook Papers” (Documentos do Facebook, em tradução direta).
De acordo com os arquivos internos da empresa, desde o final de 2019, a plataforma mantém um ranking de nações que demandam atenção especial, principalmente em períodos delicados, como eleições, manifestações e instabilidade social. Brasil, EUA e Índia estão no topo, o “nível 0” (tier 0), de prioridade máxima.
Eles são os que recebem mais recursos e um trabalho proativo de moderação, incluindo equipes especializadas dedicadas 24 horas por dia, com auxílio de inteligência artificial. O Facebook estabeleceu verdadeiras “salas de guerra”, oficialmente chamadas de “centros de operações aprimoradas”, para monitorar a plataforma nestes três países constantemente.
De acordo com as investigações:
- No “nível 1” (tier 1), estão Indonésia, Israel, Irã, Itália e Alemanha. Eles recebem menos recursos, com atenção especial apenas na época de eleições.
- No “nível 2” (tier 2), há outros 22 países, sem “salas de guerra”.
- No “nível 3” (tier 3), está o resto do mundo que o Facebook funciona. Na categoria, existe mínima intervenção e a avaliação de conteúdo é quase inexistente: uma postagem indevida só é retirada do ar caso seja localizada manualmente por um moderador.
Apenas no caso de crises e eventos extraordinários, como golpes de Estado e violações aos direitos humanos, um desses países ou regiões do grupo três pode receber esforços mais ativos, temporariamente.
Ou seja, apenas as 30 nações com mais usuários e acessos à rede social contam de fato com revisão das postagens. De acordo com os documentos internos, o ranking —criado meses antes das últimas eleições presidenciais norte-americanas, em 2020— foi uma maneira de distribuir melhor o uso dos recursos de moderação pelo mundo.
Consequências da desigualdade
Com cerca de 3 bilhões de usuários, a empresa preferiu fazer escolhas e priorizar os locais em que é mais popular do que dividir os recursos igualmente. Essa desigualdade de moderação tem sido alvo de críticas nos últimos anos.
Países como Mianmar, Paquistão e Etiópia, apesar de constantemente atravessarem conflitos sectários, políticos e sociais, não contam com classificadores de conteúdo, o que contribui para o aumento da disseminação de violência e ódio na rede social.
Em Mianmar a situação é ainda pior, pois o Facebook é a principal maneira de navegação na Internet, devido aos constantes blecautes e à censura imposta pelo governo.
Uma das grandes barreiras é o idioma: a empresa não tem especialistas, como tradutores e moderadores, suficientes que falem a língua de boa parte dos países de nível 2 e 3. Só assim seria possível detectar discursos de ódio e fake news, além de treinar a inteligência artificial para fazer o mesmo.
“Temos equipes dedicadas que trabalham para impedir o abuso em nossa plataforma em países onde há alto risco de conflito e violência. Também temos equipes globais com falantes nativos que revisam o conteúdo em mais de 70 idiomas, juntamente com especialistas em questões humanitárias e de direitos humanos”, garantiu um porta-voz do Facebook ao site Insider.
“Fizemos progresso no enfrentamento de grandes desafios, como a evolução de termos de discurso de ódio, e construímos novas maneiras de responder rapidamente aos problemas quando eles surgirem. Sabemos que esses desafios são reais e estamos orgulhosos do trabalho que fizemos até agora.”
*Com informações do Uol