Combate ao discurso de ódio nas redes sociais recua em 2021, segundo relatório da Comissão Europeia

O sexto relatório de avaliação do Código de Conduta da União Europeia sobre a remoção do discurso de ódio nas principais plataformas de redes sociais não trouxe boas notícias. Segundo a análise, os gigantes de tecnologia registraram médias inferiores na remoção de conteúdo impróprio em relação às de 2020 e 2019.

Os 11 provedores signatários eliminaram em média 62,5% do conteúdo denunciado por 35 grupos anti-discriminação nos países membros entre março e abril deste ano. O número é menor do que os 71% registrados no mesmo período em 2019 e 2020. E analisaram cerca de 81% do conteúdo sinalizado como discurso de ódio.

No total, foram feitas 4,5 mil denúncias às plataformas durante o período analisado este ano. As mais frequentes são relacionadas a orientação sexual e xenofobia. A classificação de discurso de ódio na UE inclui ainda conteúdo racista e que incite a violência ou o ódio contra grupos em razão de raça, cor da pele ou religião, entre outros.

A iniciativa de autorregulação nos países da UE começou em 2016, quando Facebook, Microsoft, Twitter e YouTube concordaram em remover em menos de 24 horas o discurso de ódio que violasse as diretrizes da comunidade. Posteriormente, outras plataformas como Instagram, Google+, Snapchat, Dailymotion, Jeuxvideo.com, TikTok e, recentemente o LinkedIn, também aderiram ao código de forma voluntária.

Um fator chave para a UE estabelecer o código foi a preocupação com a disseminação de conteúdo terrorista online, enquanto os legisladores buscavam maneiras de aplicar pressão rapidamente às plataformas para acelerar a remoção de conteúdo de pregação de ódio. Mas, agora, o bloco tem um regulamento para isso: em abril, a UE aprovou uma lei sobre remoção de conteúdo terrorista que definiu uma hora como o tempo padrão para as remoções serem realizadas.

Os legisladores da UE também propuseram uma ampla atualização das regulamentações digitais, que expandirá os requisitos de plataformas e serviços digitais para outras áreas. Uma delas é relacionada à desinformação, para a qual também há um código de adesão voluntária. De acordo com os legisladores europeus, a notificação para os usuários ainda é insuficiente e se constitui na principal fraqueza do código.

Liberdade de expressão e limites à atuação do Estado

No Brasil, o debate sobre a moderação de conteúdo nas redes sociais se dá no contexto do Marco Civil da Internet, que estabelece as diretrizes básicas de regulação, e é reconhecido por ter sido aprovado após um amplo debate público. No entanto, ainda há lacunas a serem preenchidas, pois o marco civil não aborda de forma relevante a regulação de conteúdo. No país, estes limites ainda estão muito sujeitos à governança de cada empresa, que estabelece e aplica suas próprias regras e procedimentos para regulação do discurso dos usuários em suas respectivas redes.

A internet mudou radicalmente a forma como nos comunicamos e, consequentemente, exige adequações em termos de regulação, um tema complexo, que envolve o estabelecimento dos limites da liberdade de expressão, assim como os da atuação do Estado.