Tramita no Congresso Nacional o projeto de uma “Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet”, proposto conjuntamente pelos deputados Felipe Rigoni e Tabata Amaral (PL 1429/2020) e pelo Senador Alessandro Vieira (PL 2630/2020). Considerando a consulta pública sobre o tema aberta na plataforma E-Democracia (1), a Coalizão Direitos na Rede torna públicas suas reflexões sobre a iniciativa, no sentido de contribuir para um debate equilibrado e democrático sobre o tema, em consonância com os padrões internacionais de proteção à liberdade de expressão.

A Coalizão Direitos na Rede é uma articulação de 38 organizações da sociedade civil – entre elas entidades de pesquisa acadêmica, defesa do consumidor e de direitos humanos – que, há cerca de quatro anos, atuam em conjunto na defesa de direitos como acesso, privacidade e liberdade de expressão no ambiente online. Neste sentido, integramos a parcela da sociedade brasileira preocupada com os riscos à nossa democracia trazidos pelo avanço das práticas de desinformação no país e os desafios para mitigá-las. Este tema tem sido objeto da atuação sistemática de nossas organizações, que, além da produção de pesquisas e do acompanhamento da atuação do Legislativo, do Judiciário e do Executivo a esse respeito, têm participado de debates dentro e fora do Brasil no esforço de buscar medidas de enfrentamento ao problema.

Reconhecemos, assim, a importância da iniciativa legislativa em discussão, que visa evitar a ampla propagação de desinformação nas redes e dar transparência aos conteúdos pagos veiculados e às ações de moderação de conteúdo realizadas pelas plataformas digitais. Reconhecemos também as mudanças realizadas entre a primeira versão protocolada do PL e o texto agora em consulta, sobretudo no que tange à aplicabilidade da lei (Artigo 1º), às boas práticas recomendadas (Art 10º) e às ampliações feitas na Seção II sobre o dever de transparência dos provedores de aplicação. Consideramos, entretanto, que a proposta segue oferecendo riscos significativos ao exercício da liberdade de expressão na Internet, que expomos a seguir.

Mudança no regime de responsabilização das plataformas

Em primeiro lugar, é importante destacar que, apesar de o Artigo 2º do PL afirmar que o disposto na eventual lei deve considerar os princípios e garantias previstos no Marco Civil da Internet (Lei 12.965/14), de cuja construção participamos ativamente, na prática o texto modifica o regime de responsabilização das plataformas (provedores de aplicação) acerca do conteúdo publicado por terceiros. Antes da aprovação do Marco Civil da Internet (MCI), vigorava no Brasil, na maior parte das plataformas de publicação de conteúdo digital por terceiros, a regra do “notice and take down”. Baseadas nessa regra, as plataformas tinham a prática de derrubar conteúdos contra os quais algum tipo de notificação havia sido feita por qualquer pessoa. Se alguém discordasse de alguma publicação feita em um blog ou numa rede social, poderia notificar a plataforma de hospedagem deste conteúdo e a empresa, temendo ser corresponsabilizada pelo conteúdo veiculado, retirava-o do ar. Ao usuário que se sentisse prejudicado caberia o ônus de procurar a Justiça para reaver seu conteúdo.

Assim, textos de blogs críticos a administrações públicas chegaram a sair do ar porque o prefeito citado alegou difamação; denúncias de violações de direitos foram excluídas das redes depois de serem notificadas enquanto calúnia; vídeos foram removidos acusados de violação de direitos autorais. O Brasil era, no início desta década, um dos países com maior índice de remoção de conteúdos pelas plataformas. O Marco Civil da Internet buscou enfrentar este problema e, de forma competente, trouxe garantias e dispositivos para tornar efetivo, também no ambiente digital, o artigo 5º, IX, da Constituição Federal, que preconiza a liberdade de expressão intelectual, artística, científica e de comunicação, independentemente de censura ou licença.

Seu artigo 19 determinou que os provedores de aplicações só sejam responsabilizados civilmente por conteúdos postados por terceiros caso não os tornem indisponíveis depois de uma ordem judicial neste sentido. Ou seja, de acordo com o MCI, a responsabilidade das plataformas sobre determinado conteúdo começa não quando ele é postado, mas depois que recebem uma ordem judicial para removê-lo e não o fazem. A lei buscou, assim, desincentivar a remoção “preventiva” de conteúdos pelas empresas e mudar o paradigma que vigorava até então no país, que ignorava o papel do Estado e podia resultar em casos de censura privada, desconsiderando, em muitos momentos, o direito de defesa de quem divulgou inicialmente tais conteúdos questionados. Trouxe, assim, maior segurança jurídica para as plataformas questionarem e não atenderem solicitações ilegítimas (2) e fortaleceu a perspectiva da liberdade de expressão enquanto princípio basilar da comunicação, inclusive em plataformas que utilizam conteúdo gerado por terceiros.

Ao proibir a existência de “contas inautênticas” nas plataformas, definidas como “contas criadas ou usadas com o propósito de disseminar desinformação ou assumir identidade de terceira pessoa para enganar o público” (Artigo 4º, IV), os PL 1429/2020 da Câmara dos Deputados e o PL 2630/2020 do Senado Federal, agora em discussão, passam a responsabilizar objetivamente as redes sociais pelo conteúdo que tais contas veiculam, colocando para tais empresas privadas não apenas a possibilidade de verificar o conteúdo que circula em suas plataformas – algo que já fazem, para garantir o respeito às diretrizes de seu funcionamento –, mas o dever de fazê-lo.

Conflitos com diretrizes internacionais de proteção à liberdade de expressão

Em 2011, em declaração conjunta (3) sobre a Internet, a Relatoria Especial das Nações Unidas sobre a Liberdade de Opinião e Expressão, a Organização para a Segurança e a Cooperação na Europa para a Liberdade dos Meios de Comunicação, a Relatoria Especial da Organização dos Estados Americanos (OEA) para a Liberdade de Expressão e a Relatoria Especial da Comissão Africana de Direitos Humanos e dos Povos para Liberdade de Expressão e Acesso à Informação afirmaram que não se deve exigir que os intermediários controlem os conteúdos gerados por usuários da Internet, tampouco estarem sujeitos a normas extrajudiciais sobre remoção de conteúdos que não ofereçam suficiente proteção à liberdade de expressão, como o mecanismo de “notificação e retirada”. Para os organismos multilaterais, os sistemas de filtragem de conteúdos impostos por governos ou por provedores de serviços comerciais constituem uma forma de censura prévia. No ano passado, em nova declaração conjunta (4), os relatores colocaram o “controle privado” como um dos três principais desafios para a liberdade de expressão na atual década.

Em 2016, em publicação conjunta das relatorias para a liberdade de expressão da ONU e da OEA com o escritório regional da UNESCO para a América Latina e o Caribe, o pesquisador Andrew Puddephatt escreveu:

*“É importante reconhecer a necessidade de proteger grupos vulneráveis, porém, ao fazê-lo, quaisquer arranjos – por exemplo, solicitações para que os intermediários retirem da rede materiais que incitem ao ódio ou à criminalidade – devem estar sujeitos à supervisão judicial” *(5).

Para o autor, a não responsabilidade direta dos intermediários pelos conteúdos que hospedam é uma importante característica da Internet, fundamental para que tais plataformas desempenhem seu papel de facilitadoras do exercício da liberdade de expressão. Em 2018, o Relator Especial para Liberdade de Expressão da ONU David Kaye, em relatório temático sobre regulação de conteúdo no ambiente online, afirmou:

“Os Estados devem procurar apenas restringir conteúdos de acordo com uma ordem de autoridade judicial independente e imparcial, e de acordo com o devido processo e padrões de legalidade, necessidade e legitimidade. (…) devem evitar delegar responsabilidade às empresas como árbitros de conteúdo, o que fortalece o julgamento corporativo sobre os valores dos direitos humanos em detrimento dos usuários.”(6)

Assim, nos mesmos moldes já estabelecidos em 2014 pelo MCI, os organismos multilaterais reafirmaram que “os governos devem atribuir a responsabilização por conteúdos ilegais (como a linguagem de ódio ou a pornografia infantil) à fonte do material ou até mesmo ao usuário final, como no caso da pornografia infantil, ao invés de atribuí-la ao provedor de serviços de Internet”. O que dizer então de conteúdos cuja definição mostra-se muito mais complexa e exige, além da verificação de dados objetivos, a análise de contexto, a interpretação de fatos e a diversidade de fontes de informação, e cuja moderação corre risco de ser feita de maneira automatizada pelas plataformas, diante do volume de postagens a serem analisadas.

A própria Comissão Europeia, cuja definição de desinformação inspira as matérias em análise, após concluído o trabalho de seu Grupo de Alto Nível sobre o tema, optou por um modelo de autorregulação regulada, desenhado num Código de Conduta, em vez da responsabilização objetiva das plataformas por conteúdo produzido por terceiros – mesmo que a análise do conteúdo possa ser feita também por agências de checagem, caracterizadas nos PLs como “verificadores independentes”, conceito que também exigiria aprofundamento.

Ao contrário do que podem sugerir iniciativas como a lei adotada na Alemanha – voltada para combater discurso de ódio e não desinformação -, a não responsabilização direta das plataformas digitais por conteúdos postados por terceiros é o modelo predominante de regulação da rede no chamado mundo democrático. Nos Estados Unidos, por exemplo, os provedores não devem ser tratados como editores de qualquer informação disponibilizada online. Por mais que o país tenha ampliado os casos de exceção à regra, especialistas destacam que esse dispositivo é a mais importante ferramenta jurídica para a proteção da liberdade de expressão na Internet.

Outros riscos à liberdade de expressão e a direitos fundamentais

Preocupam ainda a Coalizão Direitos na Rede outros aspectos do Projeto da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Um deles diz respeito às definições presentes ou ausentes do texto. A definição de “conta inautêntica”, já mencionada, traz dúvidas também em relação ao tratamento que o projeto dá para contas verificadas e que veiculam conteúdos desinformativos, mas não apenas isso. São cotidianos os exemplos de autoridades brasileiras que, no uso de seus perfis oficiais nas redes sociais, publicam ou compartilham conteúdos posteriormente classificados como falsos pelas agências de checagem que os PLs incentivam. Essas contas seriam classificadas como “inautênticas” de acordo com o projeto?

A definição de “disseminadores artificiais” (Artigo 4º, V) como “qualquer programa de computador ou tecnologia empregada para simular, substituir ou facilitar atividades de humanos na disseminação de conteúdo em aplicações de internet” também preocupa nossas organizações no sentido de levar ao banimento de bots usados para fins não relacionados à prática da desinformação.

Por outro lado, o projeto traz conceitos sem defini-los previamente, gerando insegurança jurídica e abrindo brechas perigosas para a prática de censura privada ao estabelecer regras baseadas em “comportamento inautêntico” (Artigo 7o, II e III), “comportamento ilegal” (Artigo 7º, IV), e relacionadas a anúncios com temas “sociais” e “políticos” (Artigo 23).

Outro aspecto preocupante é a ausência, no texto, de mecanismos de garantia de devido processo e de direito de defesa prévia à remoção dos conteúdos e contas, assim como da possibilidade de remoção voluntária do conteúdo publicado antes da implementação unilateral de medidas pelas plataformas. Apesar do Artigo 11 prever o dever de notificação de uma remoção e suas motivações e do Artigo 12 estabelecer um mecanismo recursal das medidas adotadas pelas plataformas, em matéria de direitos fundamentais, como a liberdade de expressão, é mandatório que o sopesamento de direitos seja feito antes da tomada de qualquer decisão – mesmo que por ente privado –, sob risco do dano efetivado ser irreparável a posteriori.

Preocupam-nos, ainda, os dados exigidos para efeito de rotulação dos conteúdos pagos, previstos no Artigo 20. Considerando os princípios e diretrizes da Lei Geral de Proteção de Dados Pessoais (Lei 13.709/18), a granulação apontada nos PLs pode ser considerada abusiva e levar à exposição da privacidade de milhares de cidadãos. Num contexto de crescente autoritarismo no país, os riscos para ativistas e defensores de direitos humanos, que também usam as redes sociais para articular e dar visibilidade a suas lutas, é significativo.

A centralidade de um processo participativo

Por fim, e não menos importante, projetos que se proponham a regular o exercício de um direito fundamental, impactando diretamente milhões de usuários de redes sociais e de aplicativos de mensageria instantânea, precisam ser desenhados em um amplo processo de discussão e debate público.

O Marco Civil da Internet, já citado nesta nota, não se tornou uma referência internacional em termos de direitos dos usuários da rede apenas pelo que estabeleceu em seu texto, mas também pela forma como foi construído e aprovado, num processo que envolveu dezenas de audiências públicas, seminários, consultas no âmbito do Executivo e do Legislativo, e muita negociação multissetorial. Não é demais afirmar que o processo e os prazos para discussão garantidos na tramitação do MCI foram essenciais para permitir que seu texto não apenas fosse aprovado pela absoluta maioria do Parlamento, mas que seus princípios e diretrizes passassem a ser de fato reconhecidos e respeitados. O mesmo vale dizer para o processo que levou à aprovação da Lei Geral de Proteção de Dados Pessoais.

Infelizmente, apesar da boa fé dos parlamentares autores dos PLs, cabe destacar que sua primeira versão foi tornada pública há pouco mais de um mês, num contexto em que o Congresso Nacional já tinha suas portas fechadas à sociedade civil em função das recomendações de isolamento social trazidas pela pandemia do novo coronavírus. Contexto este que tem negado à população brasileira seu direito constitucional de participação do debate legislativo neste momento, em que a falta de transparência e de possibilidade de monitoramento dos projetos em tramitação também fragilizam o jogo democrático.

Tampouco nos parece cabível uma consulta pública, que não contou com ampla divulgação, ter apenas dez dias de duração – sabendo-se que foi aberta somente após o pleito de organizações de defesa da liberdade de expressão. Ao contrário da justificativa apresentada para sua realização – “combater a desinformação durante a pandemia do Coronavírus” –, algo por si só improvável mesmo considerando ritos urgentes de tramitação, sanção e implementação de leis, a pressa na tramitação de um projeto de tamanha envergadura pode trazer mais danos do que benefícios ao país.

Ratificando nossa preocupação com o fenômeno da desinformação e o nosso compromisso em buscar saídas consistentes para seu enfrentamento, a Coalizão Direitos na Rede solicita que o Parlamento brasileiro considere as questões aqui apresentadas e não vote os projetos em pauta neste momento, não antes da concretização de um amplo e participativo debate, que ouça todos os setores que serão atingidos pela proposta.

Coalizão Direitos na Rede

15 de maio de 2020

1_ Disponível em : https://edemocracia.camara.leg.br/wikilegis/p/12-lei-brasileira-de-liberdade-responsabilidade-e-transparencia-na-internet/

2_ Para fomentar uma discussão mais aprofundada sobre o tema, a Coalizão Direitos na Rede lançou este ano a publicação “Liberdade de expressão online e o papel do Marco Civil da Internet”, disponível em: https://direitosnarede.org.br/2019/12/11/cdr-lanca-cartilha-sobre-liberdade-de-expressao-na-internet.html

3_ Disponível em: https://www.oas.org/pt/cidh/expressao/showarticle.asp?artID=849&lID=4

4_ Declaración Conjunta: Desafíos para la libertad de expresión en la próxima década del Relator Especial de las Naciones Unidas (ONU) para la Libertad de Opinión y de Expresión, el Representante de la Organización para la Seguridad y la Cooperación en Europa (OSCE) para la Libertad de los Medios de Comunicación, el Relator Especial de la Organización de Estados Americanos (OEA) para la Libertad de Expresión y la Relatora Especial sobre Libertad de Expresión y Acceso a la Información de la Comisión Africana de Derechos Humanos y de los Pueblos (CADHP), 2019.

5_ Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000246670_por

6_ Disponível em: https://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/ContentRegulation.aspx

***
Nota originalmente publicada no site da Coalizão Direitos na Rede, acesse aqui.

1 Comment

Comments are closed.