Zuckerberg reconhece erros do Facebook nas Eleições dos EUA

Explicação dada por ele foi a mais completa desde o escândalo do Cambridge Analytica

Por Iracema Almeida há 9 meses

O Facebook finalmente quer ser mais transparente na gestão do conteúdo que é veiculado em sua plataforma. Esta foi a mensagem passada pela empresa nesta quinta-feira (15) em uma teleconferência que contou com a presença do executivo-chefe Mark Zuckerberg. O chefão da empresa ainda publicou um extenso documento descrevendo os planos da rede social, que envolvem desde relatórios trimestrais de transparência até a instalação de um órgão independente para apelações de conteúdos reportados.

No olho do furacão desde que o escândalo do Cambridge Analytica  explodiu no início de 2018, a empresa tem adotado medidas gradativas nesse sentido, mas tardou a tomar uma postura mais contundente. 

A explicação dada por Zuckerberg nesta quinta foi a mais completa feita pela empresa até então, detalhando números da atuação do Facebook no combate a discurso de ódio, fake news, bullying, além da apresentação de medidas claras para diminuir o impacto desses problemas no futuro. A apresentação foi aberta com um discurso do chefão da empresa, que traçou um paralelo entre o conteúdo danoso espalhado dentro da rede social com o crime nas ruas de qualquer cidade: ele vai acontecer, o objetivo é combate-lo e diminuir a incidência ao máximo.

Acompanhado de Guy Rosen, vice-presidente de gestão de produtos, e Monika Bickert, chefe global de gestão de políticas, Zuckerberg respondeu a perguntas por mais de uma hora e deu detalhes de como a empresa tem atuado e como irá atuar em um futuro próximo.

Rosen detalhou a importância de ferramentas de inteligência artificial para o monitoramento de conteúdo que violasse as políticas da plataforma. Segundo ele, a automatização de parte desses processos libera os moderados humanos para os trabalhos que exigem mais nuance, como discurso de ódio ou bullying, duas modalidades de conteúdo que as máquinas têm dificuldade de identificar corretamente. Ainda assim, erros acontecem, mas a meta do Facebook é diminuílos, segundo Zuckerberg.

"Hoje, dependendo do tipo de conteúdo, nossos times de revisão tomam a decisão errada em mais de um em cada 10 casos", relatou o executivo-chefe, que apontou a parceria entre revisores e inteligência artificial como uma forma de agir mais proativamente na remoção de conteúdos irregulares, não só na base das denúncias de usuários que já viram o material que vai contra as regras do Facebook.

As ações combinadas têm surtido efeito, pois 1,5 bilhão de contas falsas, fontes de spam, desinformação e campanhas de informação coordenadas, foram removidas nos últimos dois trimestres. Apesar dos avanços, Zuckerberg ainda vê muito espaço para melhorias.

"Transparência é uma das maiores áreas que eu acho que a gente precisa fazer mais. Vimos nos últimos meses, temos feito mais dessas ligações quando achamos ações coordenadas e não-autênticas, vamos ao telefone e tentamos responder as perguntas difíceis prontamente, para as pessoas entenderem como lidamos com isso", afirmou.

O executivo admitiu que as violações das regras do Facebook nunca terão fim, mas o objetivo da empresa é diminuir a incidência delas.

O executivo também mostrou preocupação com a polarização crescente estimulada pela plataforma, evidenciada por conteúdos sensacionalistas que estão próximos dos limites estabelecidos pelas políticas do Facebook. Esse tipo de material é o que gera maior envolvimento dos usuários, o que aumenta o alcance de publicações desse gênero.

A empresa usará inteligência artificial para identificar sensacionalismo e derrubar o alcance desse tipo de material, em um esforço para diminuir a quantia de pessoas afetadas por esse tipo de conteúdo, que, embora não seja irregular, pode "piorar a qualidade" dos serviços do Facebook.

Juízes externos 

Como uma forma de transparência (ou até transferência de responsabilidade), Zuckerberg anunciou a criação de um comitê externo, independente à rede social, que permitirá que usuários recorram sobre casos de conteúdos derrubados ou de denúncias não acatadas. Ele não será a primeira esfera para a qual os usuários poderão recorrer, mas a última. Antes disso, os recursos pedidos passarão pelos sistemas automatizados, depois por uma avaliação humana interna do Facebook e só então chegarão ao órgão externo. O executivo entende que a montagem desse comitê será difícil, mas quer começar os testes dele em 2019: "É um balanço difícil de acertar, mas é muito importante".

Outra preocupação com a isenção da plataforma tem a ver com os algoritmos que julgam o que é conteúdo perigoso dentro da plataforma. Tendo isso em vista, a empresa também têm estudado a questão ética de suas inteligências artificiais, para torná-las o mais imparcial possível.

Folha/Uol