O sistema de verificação de fatos, que funcionava em parceria com organizações especializadas em mais de 26 idiomas, será substituído por uma abordagem focada em questões de alta gravidade, como terrorismo, exploração infantil, fraudes e drogas. Conteúdos considerados de menor impacto serão moderados pelo recurso de “notas da comunidade”, permitindo que os próprios usuários sinalizem e adicionem informações às publicações.
Segundo Zuckerberg, a medida visa evitar erros de moderação e garantir maior liberdade de expressão, reduzindo o número de publicações e perfis removidos acidentalmente. A Meta continuará investindo na equipe de “confiança, segurança e moderação de conteúdo” para lidar com casos críticos, mas encerrará a verificação de informações de menor gravidade.
Embora as mudanças estejam, por ora, limitadas aos Estados Unidos, declarações de Zuckerberg indicam que o modelo poderá ser implementado em outros países. Em regiões como Europa e América Latina, onde o CEO mencionou preocupações com supostas censuras governamentais, a adoção do novo sistema parece iminente.
No Brasil, ainda não há uma definição clara. Contudo, o Ministério Público Federal (MPF) já solicitou explicações da Meta sobre o impacto do encerramento do sistema de checagem de fatos no país.
Além da substituição do sistema de verificação, a Meta também anunciou que voltará a permitir a recomendação de conteúdos políticos. A mudança é parte de um esforço para retornar às origens da empresa, valorizando a liberdade de expressão nas plataformas.
O comunicado da Meta não menciona mudanças relacionadas ao WhatsApp. No entanto, em março de 2024, houve relatos de que a empresa havia reduzido os recursos destinados à checagem de fatos no Brasil, afetando principalmente o WhatsApp.