Para pesquisadores, compromisso das plataformas ainda é vago e não há um 'remédio' 100% eficaz contra a disseminação de notícias falsas. De olho no combate à desinformação nas próximas eleições, o Tribunal Superior Eleitoral (TSE) firma acordos com redes sociais desde fevereiro.
Só que, segundo os especialistas ouvidos pelo g1, os termos dessa cooperação são vagos e, apesar de representarem um avanço, não são suficientes para blindar as eleições contra fake news.
Compartilhe no Telegram
Compartilhe no WhatsApp
Segundo os documentos, empresas como Facebook, Twitter e Google realizaram mudanças em suas plataformas especificamente para o período e prometeram manter contato próximo com o tribunal para identificação e contenção de casos e práticas de desinformação, por exemplo.
Mas não se comprometeram a atender todos os pedidos de exclusão de conteúdo feitos pelo tribunal.
O que você vai saber nessa reportagem:
quais são as plataformas que firmaram acordos com o TSE;
as principais críticas dos especialistas aos acordos e às plataformas;
algumas soluções propostas contra a desinformação.
Quem participa e o que dizem os acordos?
Os acordos valem até 31 de dezembro próximo. O TSE já anunciou acordos com 12 plataformas:
Facebook;
WhatsApp;
Instagram;
Google;
YouTube;
LinkedIn;
Twitter;
Kwai;
TikTok;
Telegram;
Spotify;
Twitch.
Não existe um acordo-padrão para todas as plataformas: cada empresa acertou termos específicos com o TSE. Eles levam em consideração características de cada um dos aplicativos e o comportamento dos usuários. Ainda assim, possuem pontos em comum.
Os principais compromissos firmados pelas plataformas foram:
Canais de comunicação diretos para denunciar ao TSE disparos em massa e conteúdos de desinformação;
Treinamentos para representantes de TSE, tribunais eleitorais regionais e partidos políticos, entre outros;
Apoio na divulgação de mensagens oficiais do TSE sobre as eleições;
Google e Facebook prometeram disponibilizar recursos para transparência em publicidade política que já existem fora do Brasil.
Plataformas apresentaram críticas à versão atual do PL das Fake News
Alessandro Feitosa Jr/g1
Por que os acordos não resolvem o problema?
Segundo especialistas, os acordos não são um remédio eficiente contra a desinformação porque seus termos são vagos e, especialmente, porque não adianta abordar o tema só pela ótica das eleições.
Por enquanto, ainda não há uma legislação no Brasil sobre fake news – um projeto de lei que aborda o tema é discutido desde 2020. A nova versão do texto foi apresentada no dia 31 de maio pelo relator Orlando Silva (PCdoB-SP), na Câmara.
O relatório ainda pode ser alterado até a votação em plenário e não há garantias de que seja votado antes das eleições.
Na falta da legislação adequada para o tema, especialistas veem como positivas iniciativas de cooperação como a do TSE com as principais redes sociais usadas na disseminação de notícias falsas.
No entanto, a diretora do centro de pesquisa em direito e tecnologia InternetLab Heloísa Massaro afirma que o combate às fake news é muito complexo e que os acordos podem não ser tão ágeis quanto a situação requer.
“O tempo do direito eleitoral é um tempo muito diferente de outros tempos do mundo jurídico. É preciso pensar em medidas preventivas porque as coisas acontecem muito rápido. O período eleitoral é muito curto. Se o conteúdo é danoso, ainda que ele venha a ser removido, ele pode causar dano ao processo eleitoral”, afirma Heloísa.
A seguir, o g1 listou as principais críticas aos acordos, segundo os especialistas consultados.
Excesso de poder das plataformas
Uma das formas de fazer com que uma notícia falsa atinja mais pessoas é pagar anúncios nas redes sociais para que um post seja impulsionado.
Assim, um dos problemas é que as plataformas ganham muito dinheiro com desinformação, seja por anúncios ou pelo engajamento em publicações controversas, diz o pesquisador de direito e tecnologia Ivar Hartmann, que também é professor do Insper.
Dessa forma, completa Hartmann, o papel das empresas se torna ambíguo. A participação dúbia deveria enfraquecer a posição das redes como moderadoras. Mas o que se vê é o contrário: elas ganham cada vez mais poder de decisão, segundo o pesquisador.
Para os especialistas consultados pelo g1, é preocupante o excesso de poder nas mãos de plataformas na decisão do que é verdade ou quais são as manifestações políticas legítimas.
“São políticas que exigem uma precisão muito grande, como a plataforma diz o que é ou não um conteúdo legítimo e o que é desinformação, por exemplo”, admite o diretor jurídico do Google Brasil, Daniel Arbix.
Os pesquisadores citam que esse problema poderia começar a ser resolvido com mais transparência das plataformas no processo de moderação das postagens, que inclui o monitoramento, checagem e avaliação que um conteúdo desinforma.
É o que critica Nicolo Zingales, professor de Direito e Regulação da Informação da Fundação Getúlio Vargas (FGV):
"Não tem a transparência devida toda vez que é feita um exercício de poder. Ainda estamos reféns das decisões dessas plataformas sem saber como elas são construídas."
O escândalo da Cambridge Analytica expôs a natureza do modelo comercial do Facebook e seus riscos
GETTY IMAGES via BBC Brasil
O que WhatsApp, Telegram, TikTok, Facebook e YouTube prometem fazer contra fake news nas eleições
Sem responsabilização
Nos acordos com o TSE, Google e Facebook prometeram revelar dados sobre a publicidade eleitoral. Porém, nenhum termo dos documentos prevê a responsabilização das plataformas caso seus serviços de anúncios sejam utilizados de forma maliciosa para propagação de notícias falsas.
Apesar de terem começado a divulgar de forma mais transparente esses dados (veja abaixo as novidades), a falta de responsabilização cria uma brecha: as regras dessas empresas podem se sobrepor à legislação brasileira em um primeiro momento.
Mesmo que o TSE ou os usuários dessas plataformas detectem a notícia falsa, pelos termos dos acordos, não há nada que garanta que a rede social vai acatar a denúncia.
A política de anúncios do Google, por exemplo, pode não impedir a veiculação de propagandas que infrinjam regras eleitorais.
Nesses casos, até que seja feita uma denúncia formal, o material pode seguir no ar — com todos os riscos que isso possa implicar. Pode ser necessária até mesmo uma determinação judicial para a retirada do conteúdo.
O poder de propagandas políticas pagas para desinformar ficou evidente nas eleições de 2016 nos EUA, com escândalo do vazamento dos dados do Facebook para anúncios formulados pela Cambridge Analytica.
Outros escândalos similares alertariam as autoridades de todo o mundo, que colocaram mais pressão nas plataformas. Em outubro de 2019, o Twitter baniu anúncios políticos em sua plataforma globalmente.
O Facebook tomou a mesma atitude em 2020, nos EUA, na semana anterior à eleição, disputada entre Joe Biden e Donald Trump.
A empresa não informou se fará algo parecido no Brasil neste ano, mas, junto com o Google, lançou uma série de ferramentas para aumentar a transparência sobre o setor de propaganda política.
O que fazem o Facebook e o Google:
O Facebook disponibiliza desde 2020 no Brasil a Biblioteca de Anúncios, página que mostra todas as campanhas publicitárias pagas na rede social, para qual público elas foram destinadas, qual alcance tiveram e o valor aproximado pago pela página.
Neste ano, a rede social ainda se comprometeu a dar ao tribunal acesso à Biblioteca de Anúncios por meio de uma API, para que o órgão possa pesquisar anúncios ativos e inativos.
Na versão da Biblioteca dos EUA e na Alemanha, há também um dado agregado com a quantia total investida pela página. Esse resumo ainda não existe no Brasil e não consta dos acordos com o TSE.
Fruto da parceria com o tribunal, o Google divulga desde junho os dados de quem paga por propaganda política em seu buscador, no YouTube e nos milhares de sites parceiros que usam o sistema de publicidade AdSense.
Canais de comunicação não garantem agilidade e remoção
Um ponto comum em todos os acordos firmados pelo TSE é a criação de canais de denúncia que funcionem como linha direta entre o tribunal e as redes sociais. O objetivo é facilitar a identificação de desinformação e fazer com que a remoção desse conteúdo danoso seja a mais rápida possível.
Só que esse tipo de iniciativa não é suficiente, apontam os especialistas. Isso porque a tomada de decisão ágil esbarra em dois problemas: a imensa quantidade de publicações feitas nas redes — que atrasa o poder de moderação das empresas —, e a falta de obrigatoriedade de as plataformas atenderem às denúncias.
Um exemplo da dimensão do problema é a enxurrada de conteúdo questionando a segurança das urnas eletrônicas.
Segundo relatório divulgado em fevereiro pela Diretoria de Análise de Políticas Públicas da Fundação Getulio Vargas, entre novembro de 2020 e janeiro de 2022 foram detectadas mais de 349 mil postagens sobre fraude nas urnas eletrônicas e voto impresso auditável. Essas publicações atraíram mais de 111 milhões de interações.
O conteúdo falso sobre fraude nas urnas pode estar contido em uma fala no meio de um podcast do Spotify, em uma postagem impulsionada no Facebook ou, ainda, em disparos para milhares de contatos do WhatsApp.
Essas postagens ainda podem ser feitas com táticas que dificultam ainda mais a remoção do conteúdo: perfis falsos ou sem identificação, bots e disparos em massa.
Em cada uma dessas situações, o combate ao conteúdo precisa ser diferente. E a reação a essa notícia falsa depende de um desses pontos:
a própria plataforma detectar esse conteúdo antes ou depois de publicado;
uma denúncia do TSE por meio de um “canal direto” com as plataformas.
Urna eletrônica do TSE
Antonio Augusto/secom/TSE
A soma da quantidade gigante de informações falsas e o descompasso entre as políticas das empresas e do TSE já trouxeram diversos exemplos da dificuldade de controlar as fake news de forma rápida e eficiente.
Por exemplo, o YouTube anunciou em março que derrubaria vídeos com informações falsas relacionadas às eleições de 2018, incluindo alegações de fraude e erros que possam ter alterado o resultado da votação. Depois da medida, o presidente Jair Bolsonaro teve um vídeo excluído do serviço por citar uma suposta fraude sem apresentar provas.
Ainda que todas as redes possuíssem o mesmo direcionamento, o conteúdo foi postado em agosto de 2021 e só foi excluído vários meses depois.
Em outro caso similar recente, o mandatário voltou repetir, sem provas, suspeitas sobre as urnas eletrônicas durante um encontro com embaixadores. O vídeo, publicado no dia 18 de julho, só foi retirado do YouTube no dia 10 de agosto.
Outra crítica nesse sentido é que os termos não especificam qual o prazo para a análise das postagens acusadas.
"Os canais de denúncias não tiveram os detalhamentos de como vão funcionar", diz a advogada especialista em direito digital Karolyne Utomi. "Está totalmente genérico".
Da mesma forma, o acordo prevê capacitações para que os servidores do TSE compreendam melhor tanto o funcionamento das plataformas quanto suas ferramentas de denúncia. A medida só não deixa claro quais são os conteúdos desses treinamentos e os ganhos práticos desse tipo de evento.
Assim, ainda que a comunicação entre as redes e o TSE funcione de maneira rápida — e que os funcionários do tribunal dominem as ferramentas de redes sociais — há um desafio de escala. O volume de publicações realizadas todos os dias supera os investimentos em tecnologia e pessoas para moderação do conteúdo.
Dados do Google indicam que, a cada minuto, mais de 500 horas de vídeos são publicadas no YouTube e centenas de milhões de buscas são feitas.
Segundo o diretor jurídico do Google Brasil, Daniel Arbix, a companhia reconhece que precisa fazer mais para identificar e remover conteúdo nocivo.
“Temos estudado como alavancar ferramentas de remoção automáticas e fizemos um trabalho de parcerias com instituições que podem dizer com clareza se determinado conteúdo é desinformativo”, afirma Arbix.
Apoio para divulgação oficial é pouco
Outro item presente em todos os acordos é a cooperação de Google, Facebook, WhatsApp e outros para a divulgação de notícias oficiais sobre as eleições.
Segundo os memorandos, o TSE terá apoio para seus canais sociais, com as plataformas notificando seus usuários e reforçando os comunicados oficiais.
Ainda estão incluídas nos acordos com Google e WhatsApp, uma ilustração com o logo do buscador especial para as eleições (doodle) e um pacote de figurinhas do TSE para o mensageiro.
Na visão dos especialistas consultados pelo g1, as medidas de divulgação são positivas, mas têm pouca utilidade frente ao disparo de milhões de mensagens que mostram um candidato a presidente ao lado de um criminoso condenado, por exemplo.
Heloísa Massaro, do InternetLab, classifica esse tipo de ataque usando fake news como "violência política".
"Não é só desinformação que afeta o processo eleitoral. A gente também tem dinâmicas de violência política, de ataques a candidatos que muitas vezes intimidam e acabam silenciando vozes. E isso interfere no processo eleitoral", aponta a diretora do centro de pesquisa em direito e tecnologia.
Nesses casos, nem a iniciativa do próprio TSE para desmentir fake news tem velocidade suficiente para checar tantas informações suspeitas.
“O maior desafio é entender que a desinformação talvez nunca tenha um remédio porque pessoas têm sistemas de crenças muito complexas e não apenas agem racionalmente”, diz a pesquisadora Yasmin Curzi, do Centro de Tecnologia e Sociedade da Fundação Getulio Vargas (FGV).
Para Yasmin, é necessário investimento por parte do governo em políticas públicas de educação digital. Já no nível privado, a pesquisadora acredita que as plataformas precisam ampliar as parcerias com organizações que checam fatos.
Já a advogada Karolyne Utomi acredita que os acordos acontecem em cima da hora – o que não dá tempo para medidas de informação tenham efeito. "É bom que estejam sendo feitos [os acordos], mas a gente está com um tempo muito curto para ter um resultado bem efetivo".
De acordo com a advogada, ainda falta preparo da sociedade brasileira para lidar com as informações que chegam por meios digitais – o que facilita a manipulação das opiniões.
“Falta pensamento crítico”, diz Karolyne. As pessoas não têm o hábito de ler além das chamadas de uma notícia. As pessoas não entendem ainda que vídeos podem ser falsos. Uma pessoa falando algo pode ser falso. Estamos em um nível de maturidade muito precário com relação a tecnologia”.
O que é deepfake e como ele é usado para distorcer realidade em vídeos falsos
Homem com celular na mão na região central de São Paulo
Celso Tavares/g1
Soluções
Apesar de não acreditar em uma "alternativa perfeita", Ivar Hartmann entende que a pressão de órgãos públicos para acordos com redes sociais, como no caso do TSE, não seja a melhor solução.
"Quando o TSE procura, por uma via indireta, regular a moderação de conteúdo em redes sociais, está fazendo isso de maneira totalmente parcial", afirma o professor do Insper. "Porque ele está reagindo às críticas que são feitas a ele em relação à urna eletrônica."
O pesquisador Nicolo Zingales tem opinião no sentido contrário. Ele acredita que o combate efetivo ao problema depende da regulação do poder público, mas que é fundamental também a participação de entidades sociais e acadêmicas para evitar excessos das autoridades e das plataformas no processo de combate às fake news.
Dessa forma, diz Gonzales, seria mais democrático e transparente a padronização de parâmetros de linguagem e moderação para combater o conteúdo sem interferir na liberdade de expressão dos usuários.
"Com a possibilidade de os pesquisadores terem acesso aos dados de moderação, teria a possibilidade de documentar e estudar quais são as ferramentas mais efetivas", diz.
"A gente poderia formar uma ótima base de dados para pensar em como combater o problema nas próximas eleições. Então podemos aprender com a história."
Combate às fake news: TSE vai punir quem descumprir regras na propaganda eleitoral
Fonte: G1