Em janeiro de 2025, a Meta, empresa controladora do Facebook, Instagram e Threads, anunciou o fim de seu programa de checagem de fatos realizado por terceiros nos Estados Unidos. Essa decisão implica que a empresa deixará de colaborar com organizações independentes para verificar a veracidade de conteúdos compartilhados em suas plataformas. Em vez disso, a Meta implementará um sistema de moderação comunitária, conhecido como “Community Notes”, semelhante ao utilizado pela rede social X (antigo Twitter).
Motivações por trás da mudança
Mark Zuckerberg, CEO da Meta, justificou a alteração como um retorno ao compromisso fundamental com a liberdade de expressão. Ele afirmou que a empresa busca reduzir erros na aplicação de políticas e minimizar a censura indevida, permitindo discussões mais amplas sobre tópicos sensíveis, como imigração e identidade de gênero.
Repercussões e preocupações nos Estados Unidos
A decisão gerou debates acalorados. Especialistas temem que a ausência de checagem profissional facilite a disseminação de desinformação e discursos de ódio nas plataformas da Meta. Angie Drobnic Holan, diretora da International Fact-Checking Network, expressou preocupação de que os usuários sejam sobrecarregados com informações falsas, dificultando distinguir fatos de boatos.
Impacto potencial no Brasil
No Brasil, a notícia também causou inquietação. O Ministério Público Federal (MPF) solicitou esclarecimentos à Meta sobre a aplicação dessas mudanças no país, buscando entender se a nova política será implementada em território brasileiro e como isso afetará o combate à desinformação. A Meta tem 30 dias para responder aos questionamentos.
Ministros do Supremo Tribunal Federal (STF) minimizaram o impacto imediato da decisão nos EUA sobre o Brasil. Eles acreditam que embates recentes com outras plataformas, como o X, estabeleceram barreiras contra a circulação de desinformação, dissuadindo possivelmente a Meta de implementar mudanças semelhantes no país.
Em janeiro de 2025, a Meta, empresa controladora do Facebook, Instagram e Threads, anunciou o fim de seu programa de checagem de fatos realizado por terceiros nos Estados Unidos. Essa decisão implica que a empresa deixará de colaborar com organizações independentes para verificar a veracidade de conteúdos compartilhados em suas plataformas. Em vez disso, a Meta implementará um sistema de moderação comunitária, conhecido como “Community Notes”, semelhante ao utilizado pela rede social X (antigo Twitter).
Motivações por trás da mudança
Mark Zuckerberg, CEO da Meta, justificou a alteração como um retorno ao compromisso fundamental com a liberdade de expressão. Ele afirmou que a empresa busca reduzir erros na aplicação de políticas e minimizar a censura indevida, permitindo discussões mais amplas sobre tópicos sensíveis, como imigração e identidade de gênero.
Repercussões e preocupações nos Estados Unidos
A decisão gerou debates acalorados. Especialistas temem que a ausência de checagem profissional facilite a disseminação de desinformação e discursos de ódio nas plataformas da Meta. Angie Drobnic Holan, diretora da International Fact-Checking Network, expressou preocupação de que os usuários sejam sobrecarregados com informações falsas, dificultando distinguir fatos de boatos.
Impacto potencial no Brasil
No Brasil, a notícia também causou inquietação. O Ministério Público Federal (MPF) solicitou esclarecimentos à Meta sobre a aplicação dessas mudanças no país, buscando entender se a nova política será implementada em território brasileiro e como isso afetará o combate à desinformação. A Meta tem 30 dias para responder aos questionamentos.
Ministros do Supremo Tribunal Federal (STF) minimizaram o impacto imediato da decisão nos EUA sobre o Brasil. Eles acreditam que embates recentes com outras plataformas, como o X, estabeleceram barreiras contra a circulação de desinformação, dissuadindo possivelmente a Meta de implementar mudanças semelhantes no país.
A suspensão do programa de checagem de fatos pela Meta nos Estados Unidos levanta questões significativas sobre a responsabilidade das plataformas digitais na moderação de conteúdo e no combate à desinformação. No Brasil, embora a mudança não tenha sido confirmada, autoridades e especialistas permanecem vigilantes quanto aos possíveis desdobramentos e impactos na sociedade.
10/01/2025