O texto de introdução do relatório reforça a prática adotada pelo Facebook em março deste ano, quando a empresa mandou para casa todo o seu contingente de moderadores humanos como medida de proteção contra a pandemia da COVID-19. Desde então, o Facebook vem contando mais e mais com seu aparato tecnológico, contando com a inteligência artificial para ser mais atuante na identificação de postagens que trouxessem racismo, intolerância religiosa, desigualdades de gênero ou fobia contra públicos LGBTQIA+ em seu conteúdo. “Apesar do impacto da COVID-19, aprimoramentos feitos em nossa tecnologia nos permitiram tomar ações em mais áreas de conteúdo, além de aumentar a nossa detecção proativa em outras”, diz um trecho do relatório na página oficial da empresa. “Nossa média de identificação de discurso de ódio no Facebook aumentou em seis pontos, indo de 89% para 95%. Além disso, o volume de conteúdo contra os quais nós tomamos medidas aumentou de 9,6 milhões [de posts] no primeiro trimestre, versus 22,5 milhões no segundo”. Esse aumento todo, segundo o Facebook, é atribuído à expansão do suporte da inteligência artificial a mais idiomas: o relatório afirma que, desde março, a rede social criada por Mark Zuckerberg passou a reconhecer conteúdos em birmanês, além de expandir seus conhecimentos em inglês e espanhol. Desde março deste ano, a empresa vem contando com este recurso em maior demasia, sobretudo na eliminação de fake news sobre o novo coronavírus (SARS-CoV-2).
Instagram também foi reavaliado
Noutra parte do relatório, o Facebook também compartilhou números do Instagram, um de seus principais verticais de negócios: “No Instagram, nossa média de detecção proativa para discursos de ódio aumentou em 39 pontos, indo de 45% para 84%, e a quantidade de conteúdo que avaliamos ampliou-se de 808,9 mil no primeiro trimestre para 3,3 milhões no segundo. Estes aumentos também foram promovidos graças à expansão de nossas tecnologias de monitoramento em inglês e espanhol”. Para ambas as plataformas sociais, o Facebook também reconhece que o volume de apelações por parte dos usuários — ou seja, pessoas que entendem que suas postagens foram removidas injustamente — teve uma redução, embora não tenha compartilhado números específicos: “O número de apelações também é muito menor neste relatório porque nem sempre fomos capazes de oferecer esta opção. Nós informamos isso às pessoas e se elas sentissem que nós cometemos um erro, ainda trouxemos a opção de elas nos dizerem que discordam da decisão. Revisamos muitas destas instâncias e restauramos postagens removidas quando apropriado”. “Finalmente”, segue a empresa, “pelo fato de priorizarmos a remoção de conteúdos ao invés de medir determinados esforços desta vez, nós não pudemos calcular o volume de conteúdo graficamente violento, nudez adulta ou atividades sexuais. Acreditamos que teremos a capacidade de compartilharmos tais métricas em nosso relatório do terceiro trimestre”. Outro tópico atacado pela IA do Facebook foi o terrorismo, registrou aumento de 6,1 milhões para 8,7 milhões de posts removidos no segundo trimestre. Também houve registro de aprimoramento tecnológico na detecção de postagens e grupos de supremacia branca e veiculação organizada de discursos de ódio que não necessariamente entram nas métricas mais acima, mas o Facebook não ofereceu números específicos aqui.
Futuro
Finalizando o relatório, o Facebook reconhece que ainda há espaços onde a empresa pode e deve melhorar no que tange à moderação do conteúdo postado pelos usuários. Para tanto, a rede confirmou que já chamou de volta uma pequena parte das equipes de moderadores humanos para atuarem em conjunto com a inteligência artificial — especialmente em casos onde uma análise mais aprofundada se faz necessária, como em posts de suicídio ou automutilação. Futuramente, o Facebook planeja investir mais em forças-tarefa humanas voltadas à inclusão social em todas as suas plataformas, especificamente citando o Instagram Equity Team e o Facebook Inclusive Product Council, além de atualizar seus termos de uso para contemplar discursos de ódio implícitos, como fotos que reproduzam o chamado “blackface” (onde pessoas brancas pintam os rostos de preto e simulam comportamentos de estereótipo atrelado à população negra), bem como teorias conspiracionistas, como postagens que afirmam que “judeus secretamente controlam o mundo”. Finalmente, o Facebook anunciou que, a partir de 2021, passará a ser auditado por uma companhia terceirizada e independente, em um claro intuito de afirmar sua transparência. Fonte: Facebook