Em 2014, o Brasil foi alçado a exemplo de país referência na adoção de políticas para a internet, a partir da consagração do Marco Civil da Internet. O sucesso da norma, considerada a Constituição da Internet do país, está relacionado a seu processo de elaboração, que contou com a participação de diferentes setores, entre os quais dezenas de organizações da sociedade civil, como o Intervozes, e por ter consagrado a governança multissetorial que nosso país já experimentava, com êxito, no Comitê Gestor da Internet no Brasil, o CGI.br, desde 2003.
Não à toa o Marco Civil da Internet definiu que políticas dos diferentes entes da federação para o setor devem ter como diretriz o “estabelecimento de mecanismos de governança multiparticipativa, transparente, colaborativa e democrática, com a participação do governo, do setor empresarial, da sociedade civil e da comunidade acadêmica”, com destaque para a participação do CGI.
Mas o debate público e a escuta da sociedade não são tônica de um governo que diuturnamente defende a ruptura e reduz os espaços de participação em nossa já tão frágil democracia. Na esteira dos preparativos para este 7 de Setembro, Jair Bolsonaro modificou o Marco Civil da Internet, estabelecendo, com a Medida Provisória Nº 1.068, limites para a prática de moderação de conteúdos por parte das redes sociais (entre as quais não são considerados aplicativos de mensagens, como o WhatsApp).
Tais práticas ficariam limitadas a casos chamados de “justa causa”, bastante restritos e passíveis de interpretação dúbia. Não fica claro quem vai avaliar eventuais erros de moderação — se a própria plataforma, o Judiciário ou uma ouvidoria. E nem qual será o papel da governança multissetorial nesse processo. Essa situação pode tornar mais lento o processo de análise e, com isso, facilitar a perpetuação de conteúdos criminosos na rede.
Com a MP, Facebook, YouTube, Twitter e outros ficam obrigados a manter no ar todo o conteúdo que não seja considerado passível de remoção com ‘justa causa’
O artigo 19 do Marco Civil estabelece que o provedor de aplicações de internet só poderá ser responsabilizado por danos provocados de conteúdo gerado por terceiros se, após ordem judicial específica, “não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente”. O texto busca um equilíbrio tênue: as plataformas não podem ser forçadas, por exemplo, a retirarem conteúdos por conta própria. Por outro lado, o poder e o conhecimento sobre os fluxos de postagem, o volume de informação e a velocidade com que ela circula tornam as plataformas responsáveis por promover um ambiente digital melhor.
A lei permite que intermediários desenvolvam políticas de moderação, em relação às quais, como assevera o artigo 20, é garantido ao autor das postagens conhecer “motivos e informações relativos à indisponibilização de conteúdo, com informações que permitam o contraditório e a ampla defesa em juízo”, salvo expressas previsão legal ou determinação judicial.
Esse desenho processual é baseado no reconhecimento da centralidade da governança multissetorial, que Bolsonaro tem seguidas vezes buscado fragilizar nessa MP. Exemplo dessa convergência é a remoção, sem necessidade de decisão judicial, de material relacionado a abuso sexual infantil, bem como de ameaças baseadas em texto, demanda de organizações que atuam na defesa dos direitos das crianças.
Com a MP, por outro lado, Facebook, YouTube, Twitter e outros ficam obrigados a manter no ar todo o conteúdo que não seja considerado passível de remoção com “justa causa”, sem uma ordem judicial.
A sociedade civil é contra conferir poder absoluto às plataformas. Em todos os debates sobre internet, fala-se da importância de garantir de transparência da operação, o devido processo e de estabelecer termos de uso transparentes e condizentes com os direitos humanos e participação cidadã.
Também questionamos o comprometimento das plataformas com políticas contra desinformação e temos alertado sobre o modelo de negócios em geral utilizado por elas, desenvolvido sem preocupações com a ética ou com o impacto de conteúdos criminosos que circulam na rede, mas baseado na disputa pela atenção dos usuários e na coleta de dados – um motor para as práticas de desinformação que Bolsonaro conhece tão bem.
Todas essas questões estão postas à mesa. E a saída para elas não está na destruição das conquistas, mas na garantia de avanços baseados em mais e não em menos participação.
Pode-se argumentar que a MP traz aspectos importantes, como possibilidade de retirada de conteúdo com prática, apoio, promoção ou incitação de atos de ameaça ou violência, inclusive por razões de discriminação ou preconceito de raça, cor, sexo, etnia, religião ou orientação sexual. Também organiza uma seção de direitos dos usuários, a serem obrigatoriamente observados nas hipóteses de moderação de conteúdo, entre eles a garantia de contraditório, ampla defesa e recurso, além da garantia de canal de comunicação. O trecho define que deve haver restituição do conteúdo disponibilizado pelo usuário, em particular de dados pessoais, textos, imagens, dentre outros, quando houver requerimento; e restabelecimento da conta, do perfil ou do conteúdo no mesmo estado em que se encontrava, na hipótese de moderação indevida pelo provedor de redes sociais.
Mas, além de não detalhar como pode se dar um questionamento e sua avaliação, o texto não modifica a relação desigual de poder entre plataformas e usuários, pois legitima seus termos como bases para o entendimento do que deve ou não circular. Assim, embora argumente diminuir o poder das plataformas, o governo legitima a ideia de que elas se autorregulam.
Entre o que é considerado “justa causa” não está a desinformação ou spam, assédio, incitação à violência, venda de armas, venda de pessoas, conteúdos que atentem contra a saúde pública ou contra as instituições democráticas e muitos outros que, hoje, são objetos de ação das plataformas.
O sentido que anima a proposta fica claro quando observamos o que a MP chama de “justa causa”, aqueles casos que possibilitariam a exclusão, suspensão ou bloqueio de conta ou de divulgação de conteúdo e seriam, portanto, uma exceção à lógica de não interferência. Entre o que é considerado “justa causa” não está a desinformação ou spam, assédio, incitação à violência, venda de armas, venda de pessoas, conteúdos que atentem contra a saúde pública ou contra as instituições democráticas e muitos outros que, hoje, são objetos de ação das plataformas.
Isto é: em nome da “liberdade de expressão”, que o presidente promove equivocadamente como se fosse superior a outros direitos, e ilimitado, mesmo diante de crimes, o que há de mais danoso na internet poderá continuar, até que uma vítima, quem sabe, acione e venha a ganhar na Justiça o direito de ter um conteúdo removido.
Constam na Medida como “justa causa”, todavia, uma série de questões bastante vagas, como nudez ou representações explícitas ou implícitas de atos sexuais; apologia a drogas ilícitas; atos contra a segurança de Estado – a depender do entendimento das plataformas, esse rol pode ser usado contra movimentos feministas, antiproibicionistas e que questionem o Estado em geral. Mais uma vez, o equilíbrio é difícil, daí a importância de toda uma arquitetura complexa e participativa relacionada à moderação.
Vale notar ainda que uma “justa causa” posta pela MP permite que sejam retiradas “contas que ofertem produtos ou serviços que violem patente, marca registrada, direito autoral ou outros direitos de propriedade intelectual”. Isto é: as plataformas poderão remover um conteúdo que utilize, por exemplo, trechos de novelas ou filmes protegidos por direito autoral. Isso já ocorreu com o Intervozes, que teve vídeos retirados pelo YouTube, com a alegação de que eles feriam aquele direito. A Justiça se debruçou sobre o caso e deu ganho de causa para o coletivo, apontando que o Google, proprietário do YouTube, havia praticado censura prévia.
Em nota lançada logo após a publicação da MP, a Coalizão Direitos na Rede, que reúne mais de 50 organizações que atuam na defesa dos direitos digitais, afirmou que a MP revela-se arbitrária, insuficiente e a técnica. “Diante dos graves impactos à Internet, a Coalizão Direitos na Rede alerta para a necessidade da devolução ou revogação desta MP e chama os atores da sociedade, do Estado e do setor privado para que o debate sobre a regulação do discursos online continue sendo feito no Congresso Nacional, no âmbito do Projeto de Lei N.º 2630/20, já aprovado no Senado e em discussão neste momento na Câmara dos Deputados”.
É preciso que esse assunto seja debatido com responsabilidade, identificando os problemas centrais e tendo em vista aquelas e aqueles que mais são afetados por práticas danosas no âmbito da rede. Sem partir disso, como ocorre com a MP, aquilo que, à primeira vista, pode aparecer interessante tende a ser utilizado para impedir ações contra crimes, fragilizar direitos e a própria internet. Com uma canetada, Bolsonaro buscou dar conta de seus próprios interesses, evitando o debate complexo sobre a construção de um ambiente mais democrático na rede. Debate que deve ser feito com o Marco Civil da Internet, o Comitê Gestor da Internet e a sociedade, não sem eles. No momento em que estamos, bons debates e avanços só podem ser sonhados sem Bolsonaro, não com ele.
*Texto publicado originalmente no Blog do Intervozes, no site Carta Capital. Publicado com autorização da autora.
Comentários