Um estudo de caso do bloqueio de posts do presidente sobre coronavírus.

Relatório de reunião por Bruna Santos
Introdução, conclusão e edição por Joana Varon

No início desta semana, tanto Twitter, como Facebook e Instagram deletaram postagens de Jair Bolsonaro. O alvo da controvérsia foram vídeos do passeio do presidente brasileiro pelas ruas de diferentes cidades do Distrito Federal, abraçando cidadãos e causando aglomerações, em clara oposição às recomendações de isolamento social feitas pelo Ministro da Saúde para o combate à Pandemia do coronavírus. Nessas mídias, Bolsonaro também citava o uso de cloroquina, que ainda está em fase de testes, como forma de tratamento da doença, e defendia o fim do isolamento social. Ambas empresas gestoras das plataformas alegaram que as remoções de conteúdo foram motivadas por indícios de propagação de desinformação.

Em nota, o Twitter afirmou que está deletando “conteúdos que forem contra informações de saúde pública orientadas por fontes oficiais e possam colocar as pessoas em maior risco de transmitir COVID-19.” Foi a segunda vez que o Twitter apagou a postagem de um presidente, a primeira foi um post do presidente da Venezuela, Nicolás Maduro, que, assim como Bolsonaro, que tanto o critica, recomendava um “antídoto” contra o vírus. Além do pai, o Twitter também deletou postagens de outros membros do clã Bolsonaro que publicaram conteúdos similares.

O Facebook também alegou que o post foi excluído de suas plataformas de redes sociais por “causar danos reais às pessoas” por “criar desinformação”, em afronta aos seus Padrões da Comunidade.

Claro que a gente não aguentava mais ver o presidente falando tanta bobagem e que um sorrisinho vingativo se abriu no rosto quando repassamos internamente a notícia, mas, para quem vem debatendo esse fenômeno da desinformação nas redes sociais há alguns anos, sabemos que a resposta à divulgação de desinformação não é tão simples. Já participamos de muitas discussões sobre como plataformas tem lidado com desinformação utilizada, por exemplo, como forma de violência de gênero e suas interseccionalidades, como foi o caso horroroso dos ataques à vereadora Marielle Franco, logo após seu assassinato, ou da divulgação de notícias falsas sobre a vida de várias jornalistas, inclusive de parte do próprio presidente. Também já observamos atentamente como desinformação e manipulação de dados pessoais atuaram nas famigeradas eleições presidenciais de 2018.

Não querendo cortar a boa vibe que a notícia trouxe em tempos já meio difíceis, mas preocupadas com essa atuação por parte de grandes plataformas, em um momento em que as redes de proteção de direitos humanos fundamentais parecem se esgarçar para dar espaço a soluções aflitas contra um vírus mortal, perguntamos nas redes da Coding Rights o que a galera achava disso:

Post publicado no perfil da Coding Rights: https://twitter.com/CodingRights/status/1244645277090361344

Claro que o sentimento do sorrisinho vingativo prevaleceu e geral achou ótimo cancelarem os posts do presida, mas alguns também viram problemas. O professor e pesquisador Tarcizio Silva, que, entre outras coisas, faz um trabalho maravilhoso sobre raça e algoritmos, trouxe mais umas questões:

PS: Nosso pronome pra Coding é “ela”, “A” Coding Rights, viu Tarcizio?❤
Tá gente? 🙂

O fato é que, seja no contexto de #Coronavírus, #Eleições, #FogoNaAmazonia, #ParadaLGBT ou daquilo que for polêmico para a humanidade, o que as empresas que detém o monopólio das principais plataformas que usamos para nos informar devem fazer diante das chamadas “fake news” não é uma resposta simples. A discussão acontece entre uma linha tênue que a) traça limites para a liberdade de expressão, b) que levanta a questão sobre quem deve ter o poder de julgar e implementar esses limites, c) traz a necessidade de se entender e atender contextos nos quais serviços de plataformas que se pretendem globais são parcialmente territorializados pelas demandas locais de moderação de conteúdo; e, d) principalmente requer rapidez, transparência e precisão nas respostas dadas. Spoiler alert: não vai ter inteligência artificial sábia o suficiente para resolver 100% essa.

Mas, felizmente, cérebros ainda servem, então, para debater tudo isso. No início do distante mês de fevereiro, quando ainda podíamos circular pelas ruas, provavelmente quando muitas já estavam no modo folia, se preparando para o Carnaval, a Coding Rights esteve em Londres para uma reunião de especialistas a respeito do fenômeno da desinformação e seus possíveis impactos nos Direitos Humanos. O encontro, organizado pelo Escritório do Alto Comissariado de Direitos Humanos das Nações Unidas, em parceria com The Carter Center, Human Rights, Big Data and Technology Project (HRBDT) da Universidade de Essex, debateu diferentes aspectos relacionados ao tema, como eventuais limitações ao direito de Liberdade de Expressão, regulação de plataformas e responsabilidade de intermediários.

Na oportunidade, um grupo restrito de especialistas sobre os temas de Direitos Humanos na Era Digital, o Relator Especial da Organização dos Estados Americanos para Liberdade de Expressão e o Relator Especial das Nações Unidas para Liberdade de Religião e Crença, se reuniram por dois dias para debater os temas e iniciar um trabalho que poderá resultar em recomendações para Estados e Empresas do setor de tecnologia. Quem foi representar a Coding Rights foi a Bruna Santos, que relata abaixo como foi a discussão e também destaca como anda o debate sobre o tema na midiática CPMI de Fake News. Esperamos que trazendo um pouco dos temas e conclusões por onde estão se encaminhando esses debates seja possível diversificar visões e fomentar a ampliação da discussão para nosso contexto brasileiro.

Quem quiser ler e, de repente, tiver outras ideias e quiser ir lá interagir com nossa pergunta inicial nas redes sobre o caso das postagens do presidente, tá aqui o link: https://twitter.com/CodingRights/status/1244645277090361344

Relato da reunião de Especialistas sobre os possíveis impactos da Desinformação nos Direitos Humanos

O debate foi estruturado nas seguintes 7 mesas temáticas e uma mesa de encerramento:

  • Desinformação e Direitos Políticos;
  • Desinformação e Eleições;
  • Desinformação e Direitos Econômicos, Sociais e Culturais;
  • Leis Anti-Desinformação e expectativas dos Estados;
  • Moderação de Conteúdo e o Impacto de Políticas Corporativas Anti-Desinformação nos Direitos Humanos;
  • Outras Iniciativas para combater o Fenômeno da Desinformação
  • Como avançar ante o desafio posto pela Desinformação para a fruição dos Direitos Humanos.

A seguir, destaco as principais conclusões ou pontos apresentados nas mesas temáticas de cada um desses eixos de debate:

Desinformação e Direitos Políticos

Quando se pensa no uso de ferramentas de desinformação aplicadas a estratégias que visam coibir o exercício de Direitos Políticos, imediatamente levantamos questões sobre privacidade; proteção de dados; transparência de plataformas e em campanhas políticas; e novas regras de accountability. Neste contexto, medidas de mitigação da influência da propaganda política direcionada online e o constante estado de violações do direito à privacidade promovido por empresas e data brokers surgiram como ponto principal. A importância de leis para a proteção de dados — e autoridades de proteção de dados pessoais — capazes de regular as atividades de coleta e processamento de dados pessoais e proteger os cidadãos, bem como regras mais restritas para campanhas digitais foram vistas como absolutamente necessárias. Além disso, vários dos presentes entoaram o coro por mais transparência sobre recursos utilizados — bases de dados, propagandas contratadas em redes sociais, direcionamentos — em campanhas realizadas na Internet.

Com relação ao possível impacto da desinformação em outros direitos, também se pontuou os eventuais efeitos sobre o Direito à Vida e à não submissão à tortura, a Liberdade de Expressão e a Não-Discriminação. Importante mencionar que o fenômeno da desinformação cria novos fluxos de informação que, por sua vez, podem ampliar exclusão ou discurso de ódio contra grupos minorizados. Nestes cenários, a utilização do discurso de ódio como uma ferramenta de silenciamento também foi destacada.

Desinformação e Eleições

O mesa sobre essa temática curiosamente apontou que, no mundo, Brasil e Estados Unidos despontam como exemplos de casos onde o direcionamento de informações inconsistentes ou falsas nas redes sociais e plataformas de mensagem auxiliou, de alguma maneira, os resultados eleitorais. Aqui, o interesse principal é responder à questão de como garantir a integridade eleitoral em tempos de interferência — doméstica ou internacional — nos processos eleitorais. Em alguns casos, nos Estados Unidos, o compartilhamento de notícias falsas foi realizado com o objetivo de reduzir a participação em eleições — desencorajando eleitores a votar ou até gerando confusão sobre as datas e locais de voto. Neste caso, também aparecem preocupações sobre possíveis restrições do espaço cívico, bem como do direito ao voto e participação social.

Nesse sentido, a Organização dos Estados Americanos lançou, em Outubro de 2019, um guia para a garantia da Liberdade de Expressão durante contextos eleitorais, tendo em mente os exemplos das eleições brasileiras, norte-americanas e mexicanas. Um apontamento feito durante a reunião é que as campanhas de desinformação funcionam de uma maneira parecida com verdadeiras campanhas políticas, particularmente considerando que os atores de disseminação das informações também podem ser partidos políticos e candidatos. As diferentes atuações de plataformas como TwitterFacebook e Whatsapp foram destacadas, já que possuem divergências — que vão da proibição completa de veiculação de conteúdo eleitoral até definições mais abrangentes de conteúdo com teor político e barreiras de infraestrutura da plataforma para a verificação de conteúdos.

Desinformação e Direitos Econômicos, Sociais e Culturais

A mesa discutiu como a fruição de Direitos Sociais, Econômicos e Culturais pode ser afetada pelo fenômeno da desinformação. Destacou-se que, quando se pensa em acesso à saúde, o exemplo mais óbvio, naquele contexto de fevereiro, foram as redes de desinformação relacionadas à vacinação contra doenças, criadas com o objetivo de minar a confiança da sociedade. No caso brasileiro, ainda é comum a disseminação de informações falsas a respeito do acesso a políticas públicas ou até questionando a legitimidade de beneficiários e efetividade de programas como o Bolsa Família. Aqui, as fake news ou desinformação são compartilhadas como uma barreira extra ao acesso — seja a vacinas, a informações sobre direito reprodutivo ou a um determinado benefício social. Este contexto é preocupante e traz à tona a necessidade de autoridades assumirem um papel mais ativo na comunicação dos direitos para os cidadãos e formas de acesso, bem como quais seriam os outros possíveis atores com mais ingerência para compartilhar dados oficiais. Mencionou-se que a Organização Mundial da Saúde, já diante da grande quantidade de desinformação referente ao Coronavírus na região asiática, adotou uma estratégia de produção de conteúdo exclusivo para redes sociais — a ser veiculado em seus canais oficiais e por usuários — e com foco nas plataformas que possuíam mais predominância naquela região.

Leis Anti-Desinformação e expectativas dos Estados

Se cabe aos Estados/Governos o reforço e cumprimento das regras e tratados de Direitos Humanos, como podemos evoluir nas atuais estratégias governamentais dedicadas ao tema? Essa foi a pergunta base desse painel. Neste ponto, destacou-se que as ações adotadas pelos países até o momento podem ser divididas entre eixos como (a) educação midiática; (b) regulação da Mídia e Internet; © regulação de propaganda online e direcionamento de conteúdos; (d) regime de responsabilidade pela criação e disseminação de informação falsa; (e) regulação e restrições ao uso de contas automatizadas; etc.

Na discussão sobre possíveis medidas a serem adotadas por Estados, as demandas e problemas também são compartilhadas. Aqui, frisou-se a (a) importância de uma Lei e de corte eleitoral capaz de mitigar o compartilhamento massivo de informações falsas durante eleições; (b) regras de moderação de conteúdo mais sensíveis às diferentes culturas e realidades a fim de minimizar a influência das regras da comunidade sobre a liberdade de expressão; © mecanismos mais transparentes e responsáveis para lidar com a moderação do conteúdo, especialmente em relação a algoritmos; (d) princípios de direitos humanos como base para qualquer norma ou prática de regulamento de conteúdo emitida em nome de empresas ou estados; e (e) disponibilização mais clara de informações legais precisas ou mesmo informações sobre programas sociais.

Participantes da reunião também reforçaram que uma eventual criminalização do envio e disseminação de informações falsas pode resultar em restrições à Liberdade de Expressão ou à Privacidade (no caso da criptografia). Foi apontado também que restrições no campo do direito civil, somadas a eventuais cooperações entre plataformas e Estados, poderia ter um efeito mais duradouro e menos problemático para os nossos direitos.

Moderação de Conteúdo e o Impacto de Políticas Corporativas Anti-Desinformação nos Direitos Humanos

Nos debates promovidos no evento a respeito de Moderação de Conteúdo e o Impacto das Políticas Corporativas Anti-Desinformação nos Direitos Humanos,desponta a necessidade de aplicação de princípios de direitos humanos às plataformas e empresas atuantes no campo. De uma maneira geral, o temor é que as respostas oferecidas ao fenômeno da desinformação sejam responsáveis por ações que resultem em mais retiradas de conteúdo, bloqueios de contas e desrespeito a regras e salvaguardas estipuladas a favor do usuário — como as regras de responsabilidade delimitadas no artigo 19 do Marco Civil da Internet.

Outra preocupação é a utilização em larga escala de medidas de revisão de conteúdo automatizadas, sem revisão humana, e baseadas nas regras estipuladas pelas plataformas que não estão adequadas às diferentes culturas e realidades. Nesse sentido, a utilização de tecnologias de Inteligência Artificial e Machine Learning pode ser problemática ao passo que são baseadas em algoritmos e desprovidas de capacidade cognitiva, o que pode gerar retirada de conteúdos legítimos e de interesse para o debate público. Estender o controle que os usuários têm sobre essas plataformas — por meio de algoritmos auditáveis, e mais transparência sobre as regras de moderação de conteúdo — parece ser a atitude adequada neste cenário.

Outras Iniciativas para combater o Fenômeno da Desinformação

Para além das soluções dos Estados e plataformas, esse último painel destacou que entre outras iniciativas relevantes para combater o Fenômeno da Desinformação estão a educação midiática e a checagem de fatos e informações. Atualmente, plataformas de redes sociais tendem a ser fonte prioritária de notícias para muitas pessoas e, por vezes, até chegam a ser consideradas por alguns como fontes de confiança da população. Ante os novos fluxos de informações apresentados pela desinformação, apontou-se que o desenvolvimento de pensamento crítico e de soluções que promovam educação midiática são papéis atribuídos à sociedade civil, governos e setor privado. O desafio seria, portanto, ajudar as pessoas a compreenderem que nem todas as informações às quais elas têm acesso na Internet são verdadeiras. Iniciativas de checagem de fatos podem ser ferramentas poderosas na criação de uma sociedade mais resiliente aos desafios impostos pelas notícias falsas.

Como avançar ante o desafio posto pela Desinformação para a fruição dos Direitos Humanos?

Considerando todos os pontos expostos acima e ao longo do evento, tentou-se responder à pergunta acima dividindo a discussão em Estados e setor privado. Com relação ao primeiro ator, concluiu-se que (a) a resposta regulatória nem sempre é a melhor, como o desafio é complexo e envolve vários níveis de condutas tipificadas e direitos dos cidadãos, deve-se evitar aqui a classificação de Notícias Falsas como um tipo exclusivo de conteúdo a ser coibido; (b) medidas que incentivem a transparência — tanto de campanhas políticas quanto de plataformas de redes sociais — são bem vindas; © os Estados devem focar na proteção de jornalistas e incentivar o jornalismo e o cenário midiático em prol do interesse público; (d) grupos em situações vulneráveis seguem sendo vítimas do fenômeno e, por isso, merecem uma maior proteção; e (e) mais poder aos órgãos eleitorais, a fim de que estes possam auditar campanhas e candidatos e sejam mais vigilantes com relação a utilização de táticas de desinformação.

No caso das empresas, a transparência também foi apontada como um dos eixos de solução ao passo que o grupo concordou com a necessidade de promoção, por parte das plataformas, de consultas significativas com grupos mais amplos e partes interessadas de maneira sistemática (ex. conselho de supervisão mais inclusivos). Além disso, foi proposta a aplicação de avaliações de impacto em direitos humanos que eventuais práticas das plataformas podem ter e se o direito ao contraditório é garantido aos seus usuários. Por fim, em termos de auto-regulação, destacou-se que são bem vindas medidas que incentivem regras mais claras e compreensíveis de moderação de conteúdo e automação, critérios de decisão, granularidade na informação fornecida aos usuários e uma melhor compreensão das definições adotadas por elas para “conteúdo”, “Desinformação” e outras formas de expressão e a aplicabilidade dos seus termos de serviço.

E afinal as plataformas agiram bem em deletar os posts do presidente?

Passada a preocupação inicial e refletindo sobre o tema, podemos levar em conta os seguintes fatores que, se analisados em conjunto, e respondidos à altura, talvez nos permitem excepcionalmente considerar relativamente aceitável a prática das plataformas no que diz respeito ao posts do presidente e filhos:

a) Contexto global excepcional: uma Pandemia de um vírus novo, na qual informação tem sido uns dos nossos melhores instrumentos de batalha e desinformação pode mesmo tirar vidas.

+

b) Contexto local surreal: a autoridade presidencial do país ser um dos principais vetores de desinformação, que repetidamente contraria orientações da Organização Mundial da Saúde, e, que, por ser quem é, tem grande potencial de alcance e de convencimento de massas.

+

c) Previsão clara: esse é o ponto mais controverso nos casos em questão. Estavam claras as previsões e fundamentos para a remoção? Pelo menos a remoção de conteúdos pelo Twitter ficou justificada por serem “contra informações de saúde pública orientadas por fontes oficiais e possam colocar as pessoas em maior risco de transmitir COVID-19”, no caso do Facebook ainda consideramos a definição um pouco ampla demais.

+

d) Tempo restrito para essa prática: esperamos que esse tipo de conduta por parte das plataformas dure apenas enquanto se mantenham esses contextos atípicos.

+

e) Transparência: informação sobre a razão da remoção foram publicadas, mas seria importante também termos uma visão geral de quantos outros posts estão sendo removidos por essa mesma justificativa. Hoje as plataformas normalmente publicam em seus relatórios de transparência apenas números sobre remoções por ordem judicial, mas, para fins de transparência e accountability, até para saber o impacto dessas práticas, precisamos saber a quantidade de conteúdo removido nessa lógica simplesmente por iniciativa das plataformas.

+

f) Publicidade: ainda que a peça de desinformação já não esteja nessas redes, portanto, se disseminando com grande potencial de letalidade, por se tratar de um post do presidente, sabemos o que foi dito e podemos cobrar satisfação.

Ufa, não seria muito simples para um robô passar por todos esses aspectos, não é mesmo? Somadas todas essas considerações, acreditamos que a remoção é justificada e razoável. Ainda assim, entendemos que é sempre problemático dar mais poder a essas plataformas, que já detém um monopólio considerável sobre nossos locais de comunicação, e, portanto, o poder de atuar na nossa liberdade de expressão. Por isso, ficamos atentas para o risco desse precedente abrir caminho para esse tipo de prática em outros contextos de forma a silenciar vozes, principalmente de grupos minorizados, e seguimos indagando as razões pelas quais faltam, de parte dessas plataformas, medidas mais efetivas de diálogo, transparência e mitigação de propagação de desinformação utilizada como método de violência de gênero e suas interseccionalidades, que, por sinal, podem também ameaçar vidas.