O executivo do Facebook afirma que as atualizações técnicas são mais eficazes do que os verificadores de fatos para combater notícias falsas

BuzzFeed

Adam Mosseri faz uma apresentação no International Journalism Fesitval em abril de 2017.



Seis meses atrás, o Facebook estava sob cerco.

A eleição surpresa de Donald Trump resultou em uma reação contra a empresa durante o quantidade de desinformação espalhada em sua plataforma durante a campanha. A resposta inicial do CEO Mark Zuckerberg foi descartar preocupações , o que só gerou mais protestos. Como BuzzFeed News relatado na época , um grupo de funcionários desonestos inicialmente assumiu a responsabilidade de começar a trabalhar em maneiras de reduzir a disseminação de boatos e informações incorretas na plataforma. Mas logo a liderança da empresa mudou de tom e começou a pensar em maneiras de atacar o problema.



Esse trabalho caiu em grande parte sobre os ombros de Adam Mosseri, o vice-presidente do Feed de notícias. Ele é cada vez mais a face da missão da empresa de livrar o Facebook de clickbait, notícias falsas e o que o chefe da equipe de parcerias de notícias da empresa recentemente se referiu como lixo contente. Tem sido um processo contínuo, que significou muitas mudanças na forma como o Facebook apresenta as atualizações.



Para garantir que os editores não fiquem surpresos (ou seja: inesperadamente rebaixados) pelas mudanças em andamento no Feed de notícias, Mosseri publicou hoje uma postagem no blog para oferecer aos editores orientações básicas para manter o lado bom da plataforma. Ele aconselha os editores a evitar manchetes clickbait e tentativas de tentar deliberadamente jogar o Feed de notícias, ao mesmo tempo que os incentiva a compartilhar links informativos e significativos. Aqueles que não atendem ao conselho correm o risco de serem apanhados na rede cada vez maior do Feed de notícias.

Mosseri apresenta essas diretrizes no contexto das mudanças que fez nos seis meses desde a eleição, período durante o qual a empresa lançou uma série de atualizações no ranking do Feed de notícias que manchetes clickbait alvo e links para sites cheios de anúncios ruins e pouco conteúdo. Isso tornou a capacidade de sinalizar conteúdo falso ou enganoso mais proeminente para os usuários, e também parceria com verificadores de fatos terceirizados nos Estados Unidos e em dois outros países para colocar uma etiqueta de advertência em conteúdo considerado falso.

Junto com as mudanças no produto - que, dado o núcleo do Facebook como uma organização de engenharia, são talvez a melhor expressão de seu compromisso com este trabalho - a empresa adotou um tom novo e mais humilde ao falar sobre o combate à desinformação e sua relação com os meios de comunicação. Também despejou milhões na criação de um Iniciativa de Integridade de Notícias .



Tudo isso é resultado da eleição e suas consequências, que Mosseri reconhece que o pegou e a outros de surpresa.

Acho que fomos pegos de surpresa pela quantidade de atenção dada especificamente às notícias falsas, disse ele em uma entrevista ao BuzzFeed News.

Não havia nenhuma maneira que eu poderia ter esperado, ou qualquer um de nós teria esperado, que esse fosse o principal ponto focal de escrutínio da eleição. Isso definitivamente nos surpreendeu.

Steve Jennings / Getty Images



Adam Mosseri fala no palco durante o TechCrunch Disrupt SF 2016.

Mosseri disse ao BuzzFeed News que acredita que as atualizações recentes direcionadas a fazendas de anúncios e manchetes clickbait terão o impacto mais positivo na qualidade dos links que as pessoas veem em seu Feed de notícias. Mas essas atualizações foram ofuscadas pela parceria do Facebook com verificadores de fatos terceirizados que anexam um rótulo contestado a links com conteúdo falso. Esse programa foi analisado no início desta semana, quando o The Guardian relatou que links disputados às vezes são compartilhados mais do que aqueles que não foram desmascarados. Mosseri disse que os dados do Facebook, que não foram compartilhados publicamente ou com seus parceiros de checagem de fatos, mostram que não é o caso. (O Facebook se recusou a compartilhar esses dados com o BuzzFeed News.)

Observamos o que é sinalizado e, geralmente, a distribuição é menor quase imediatamente, disse ele. A forma de sua curva de distribuição muda quase imediatamente após serem rotulados.

Mosseri disse que a parceria de verificação de fatos costuma receber mais atenção e escrutínio porque é mais fácil de entender do que um ajuste de algoritmo.

É muito mais difícil de entender ou fazer uma captura de tela de todo o trabalho que fazemos para construir a infraestrutura de classificação e modelagem ... do que ver ‘Oh, há um grande pedaço de texto no topo de um link que diz que foi contestado por Snopes ou PolitiFact’.

No momento, o programa de checagem de fatos é único entre as medidas de integridade do Facebook porque muitas vezes gera duas conclusões contraditórias: que é a maior parte do pacote de esforços da empresa para combater a desinformação e, portanto, determina se o esforço geral é eficaz; ou não é nada mais do que um folha de figo destinada a gerar boas relações públicas. A última visão sugere que a eficácia real da etiqueta de verificação é irrelevante, desde que esteja lá para a empresa apontar nas comunicações.

Eu não diria que é irrelevante - acho que estamos sempre procurando encontrar novas maneiras de identificar melhor todas as formas de conteúdo problemático, disse Mosseri. Portanto, descobrimos que isso era de valor incremental.

Honestamente, o trabalho vai bem, muito além do programa de terceiros, ele continuou. E embora eu ache o programa importante, é - bem, direi desta forma: precisamos garantir que isso [esforço para reduzir notícias falsas] funcione em países onde não há organizações terceirizadas de checagem de fatos, que, a propósito, é um monte de países ao redor do mundo.

Uma maneira de aumentar potencialmente o número de verificadores seria o Facebook investir dinheiro em verificações de fato ao redor do mundo. (Atualmente, o Facebook conta com a ajuda de verificadores de fatos nos Estados Unidos, França e Holanda.) Mosseri diz que é uma opção que a empresa consideraria, mas a prioridade atual são os esforços técnicos.

Existem mais de 2 bilhões de coisas postadas no Facebook por dia, e talvez 400 a 500 milhões de links postados por semana, disse ele. Portanto, não existe uma versão do programa de verificação de fatos de terceiros que possa verificar tudo. Por necessidade, procuramos sempre complementar esse tipo de programa ou sistema com soluções técnicas que podem ser escalonadas, apenas porque temos que fazê-lo.

Imagem de Craig Silverman

ContatoCraig Silverman nocraig.silverman@buzzfeed.com .

Tem uma dica confidencial? Envie aqui .