Projeto de Bolsonaro piora combate a fake news, e texto na Câmara ignora inação das redes

Segundo especialistas, texto enviado pelo presidente impede remoção de discurso de ódio; outro projeto deixa brechas para empresas

A moderação feita por plataformas de redes sociais é criticada tanto pelo conteúdo como pela forma. No primeiro caso, há críticas sobre o que é mantido no ar e sobre remoções abusivas. No segundo caso, são frequentes relatos de retiradas sem notificação ao usuário ou então com justificativas genéricas.

Na última semana, o presidente Jair Bolsonaro enviou ao Congresso um projeto de lei, o PL 3.227, que se aprovado limitaria e engessaria a moderação de conteúdo realizada pelas plataformas com mais de 10 milhões de usuários.

O debate sobre o tema já vem sendo travado no âmbito do projeto de lei das fake news, o PL2.630, que foi aprovado em junho do ano passado no Senado e, no momento, está em discussão na Câmara.

Em relação aos procedimentos de moderação, as propostas dão passos à frente, ao prever obrigações às plataformas, que, nas moderações, teriam que notificar usuários e permitir a possibilidade de recurso às suas decisões, por exemplo. Este ponto é de maior consenso entre especialistas.

Já quanto à análise feita pelas empresas sobre o mérito do conteúdo, os caminhos dos projetos são bastante diferentes -e o tema também gera maior divergência entre quem estuda o assunto.

Em linhas gerais, seria possível seguir três tipos de regulação: permitir que as plataformas moderem, proibir a moderação ou obrigar que retirem certos conteúdos.

A proposta de Bolsonaro permite a moderação de alguns temas, previstos em uma lista, mas impede a remoção de tudo que está fora dela. Tal lista inclui, por exemplo, nudez e apologia implícita do consumo de drogas, mas não racismo e homofobia.

Com a proibição, postagens com discurso de ódio, spam ou desinformação só poderiam ser retiradas pelas plataformas após decisão judicial.

Para além dos custos envolvidos, diante do volume de postagens criminosas ou inadequadas feitas diariamente nas redes sociais, especialistas dizem que seria inviável depender apenas do Judiciário.

Já o PL 2.630 não cria obstáculos ao combate à desinformação, mas também não oferece ferramenta para lidar com a inação das plataformas.

O caminho seguido pelo projeto até agora foi o de permitir a moderação, sem trazer previsões acerca do conteúdo, seja no sentido de obrigar a re- tirada ou de impedi-la. O projeto vedou robôs não identificados e contas inautênticas.

No momento, a proposta está em discussão em um grupo de trabalho na Câmara. O relator, deputado Orlando Silva (PC do B-SP), apresentará um texto substitutivo que pode ter mudanças em relação à proposta aprovada no Senado.

Além disso, a depender da decisão do presidente da Câmara, Arthur Lira (PP-AL), o projeto apresentado por Bolsonaro pode ser apensado ao das fake news e ser avaliado em conjunto pelos deputados.

E m linha s gerais, aIguém alvo de racismo em uma plataforma hoje pode denunciar a postagem à empresa, pedindo a remoção. Caso ela decida não remover, o indivíduo pode recorrer ao Judiciário.

No caso do PL 2.630, segundo o que foi aprovado pelo Se nado, o cenário não mudaria.

Já pelo projeto de Bolsonaro, a empresa não poderia remover esse conteúdo sem uma decisão judicial, a não ser que haja “prática, apoio, promoção ou incitação de atos de ameaça ou violência”.

No caso de a plataforma não agir para remover discursos de ódio ou desinformação, por exemplo, nenhum dos projetos traz soluções.

Ao longo da tramitação no Senado, versões do PL chegaram a prever a retirada, pelas plataformas, de desinformação ou postagens que incidissem em uma lista de crimes.

Porém isso foi abandonado ao longo do processo em nome da liberdade de expressão.

Uma dificuldade foi definir o que seria desinformação.

Para a diretora do IntemetLab Mariana Valente, o ideal seria que a lei focasse procedimentos. Ela destaca como ponto positivo do projeto de Bolsonaro a previsão de que as plataformas informem ao usuário qual política foi violada e embasou a moderação.

Mas Valente considera inadequada a criação de uma lista do que pode ser moderado. “Pode fazer com que as plataformas não removam conteúdos que seriam importantes que fossem removidos por receio [de responsabilização].” No entanto, ela não descarta que, no futuro, após debate, fossem listados temas sobre os quais as plataformas não poderiam fazer moderação.

Estudo sobre violência política (do qual Valente é uma das autoras, feito dentro do projeto Monitora em 2020) traz recomendações de como as plataformas podem facilitar a forma como mulheres denunciam esse tipo de ataque, não exigindo, por exemplo, indicação de cada conteúdo em caso de postagem em massa.

A previsão não consta em nenhum dos projetos de lei, assim como não há menção aos algoritmos das plataformas -nem de distribuição ou de moderação.

Para Ana Gabriela Ferreira, coordenadora na Artigo 19, diante do volume de postagens nas redes, a moderação de conteúdo pelas plataformas não deveria ser coibida.

Ela diz, contudo, que denúncias de discurso de ódio contra mulheres, mulheres negras e LGBTQIA+ são muitas vezes ignoradas e que, ao denunciar esses casos, esses grupos

têm suas postagens derrubadas por serem identificadas por algoritmos como discriminatórias.

Segundo Ferreira, seria importante que o projeto de lei trouxesse um desenho em que fosse possível recorrer das decisões das plataformas sem necessariamente depender do Judiciário. O ideal, diz, seria criar uma autarquia ou uma agência reguladora independente das empresas e do Executivo que pudesse emitir orientações e analisar recursos.

O PL 2.630 prevê a criação de um Conselho de Transparência e Responsabilidade na Internet, com representantes do Estado, de empresas e da sociedade civil. Mas tal proposta é diferente da sugestão de Ferreira tanto em sua composição quanto nas competências. Caberia a esse órgão, segundo o projeto, criar um código de conduta, mas não revisar decisões.

Sobre o texto apresentado por Bolsonaro, outro ponto criticado por especialistas é que ele deixa para um órgão do governo analisar se a moderação das plataformas é adequada, podendo aplicar multas. No caso do PL 2.630, caberia ao Judiciário a aplicação das sanções previstas na lei.

Para o professor associado do Insper Ivar Hartmann, a ideia de ter um órgão intermediário independente seria interessante, mas ele avalia que tal órgão poderia apenas analisar se a plataforma cumpriu deveres procedimentais. Quanto ao mérito da decisão das plataformas, ele defende que deveria caber apenas uma revisão ao Judiciário.

Para Hartmann, é preciso definir parâmetros para que o Judiciário decida quando uma remoção foi ou não abusiva.

“Nenhum país achou solução muito boa para isso [regulação da moderação] ainda”, afirma. “Quando a gente achar solução minimamente boa para esse problema, ela não vai ser uma solução simplista.” Já o professor da Universidade de Frankfurt Ricardo Campos defende legislação que obrigue as plataformas a removerem conteúdos, com base em condutas que sejam consideradas crimes ou ilícitos, a exemplo da lei alemã.

Para ele, além de determinar procedimentos, é preciso reduzir a discricionariedade com que as plataformas decidem o tipo de conteúdo que pode ou não ser censurado.

“Depender de decisão judicial para criar responsabilidade da plataforma retirar é anacrônico dada a velocidade do mundo digital”, diz. “Por isso que a ação da plataforma de antemão, rapidamente, é importante. Ela já faz isso, só que de forma privada, baseada em critérios privados, se esse critério diminuir o lucro dela, aí

ela não vai fazer.”

FONTE: FOLHA DE S.PAULO

About The Author