Mark Zuckerberg, CEO da Meta, anunciou mudanças significativas nas políticas de moderação de conteúdo do Facebook, Instagram e WhatsApp, em um movimento que ele descreve como uma tentativa de promover a "liberdade de expressão". Essas alterações, que já começaram a ser implementadas nos Estados Unidos, incluem o fim das parcerias com verificadores de fatos e ajustes na abordagem de moderação de conteúdo político e casos de menor gravidade. No Brasil, as mudanças geram preocupação em meio ao debate sobre regulação das big techs, especialmente com a tramitação de propostas como o PL das Fake News.
Principais mudanças anunciadas pela Meta
- Fim da verificação de fatos por terceiros: A Meta descontinuará as parcerias com agências de checagem e também reduzirá a atuação de sua equipe interna nessa área.
- Correções pelos próprios usuários: Em casos considerados de "menor gravidade", usuários poderão adicionar correções diretamente às postagens.
- Prioridade ao conteúdo político: A empresa planeja sugerir mais conteúdos políticos com base no engajamento dos usuários, mas sem detalhar os critérios.
- Filtros contra violência: Filtros serão implementados para combater violações graves, enquanto ações em casos leves dependerão de denúncias feitas pelos usuários.
Críticas e reações no Brasil
No Brasil, a mudança foi recebida com apreensão por autoridades e especialistas em regulação digital. João Brant, secretário de Políticas Digitais da Secretaria de Comunicação Social (Secom), criticou a postura da Meta e destacou que a referência de Zuckerberg a "tribunais secretos" parece apontar diretamente ao Supremo Tribunal Federal (STF). O STF tem sido protagonista na remoção de conteúdos que promovem fake news e ataques ao estado democrático de direito.
Brant afirmou que a Meta parece alinhar-se com o governo dos Estados Unidos para desafiar legislações internacionais que buscam responsabilizar as big techs por conteúdos nocivos, colocando em xeque esforços para proteger direitos no ambiente online.
Regulação das redes sociais no Brasil
O Brasil está em processo de discutir e implementar novas regulamentações para o ambiente digital, com foco no Marco Civil da Internet e no PL das Fake News. Essas iniciativas visam estabelecer limites e responsabilidades para plataformas digitais, incluindo a obrigatoriedade de moderação de conteúdos que incentivem a violência ou disseminem desinformação.
A nova postura da Meta pode complicar a aplicação dessas leis, especialmente diante da redução de esforços da empresa em checar conteúdos ou moderar violações consideradas menos graves.
Impactos globais e implicações futuras
O discurso de Zuckerberg também foi marcado por críticas a regulações da União Europeia e a ações judiciais em países latino-americanos. A Meta argumenta que tais medidas restringem a liberdade de expressão e impõem barreiras para a atuação de empresas americanas. No entanto, o posicionamento da empresa gerou desconfiança em relação ao real comprometimento com a responsabilidade digital e a segurança dos usuários.
Finalmente, uma movimentação foi feita por parte da rede social, algo aguardado há tempos. A RPJNEWS destaca que enfrenta grandes dificuldades para utilizar o Facebook de maneira eficaz. A plataforma frequentemente confronta o jornalismo independente, dificultando a propagação de matérias e, em muitos casos, bloqueando conteúdos sem motivos aparentes. Essa postura tem sido um obstáculo para a atuação jornalística na rede, reforçando a necessidade de mais mudanças para um ambiente digital mais inclusivo e transparente.
Para o Brasil, as mudanças na política da Meta reforçam a urgência de uma regulação que equilibre liberdade de expressão e responsabilidade, garantindo um ambiente digital mais seguro e justo. A reação de governos e órgãos reguladores a essa nova postura será fundamental para definir o futuro da interação entre plataformas digitais e sociedade.
Comentários: