O Conselho de Supervisão, um órgão independente responsável por revisar as decisões e políticas de conteúdo do Facebook e Instagram, fez críticas à empresa na terça-feira em relação ao seu programa de cross-check. Em seu comunicado, o Conselho de Supervisão propôs uma série de alterações que a empresa-mãe do Facebook, Meta, precisa implementar em relação à moderação de conteúdo em suas plataformas de mídia social.
Revisão cruzada é um sistema interno utilizado pelo Facebook que foi descrito como uma forma de garantir a qualidade, sendo um método de revisão dupla de decisões de moderação de conteúdo antes de serem apresentadas aos usuários mais conhecidos da plataforma. Dado o grande volume de conteúdo analisado diariamente pelo Facebook, erros podem ocorrer. Portanto, o sistema de revisão cruzada foi implementado com o objetivo de reduzir as remoções equivocadas de conteúdo dos usuários considerados importantes para a empresa.
No entanto, segundo um relatório do Wall Street Journal, o programa estabelece essencialmente um sistema de moderação em duas etapas para os usuários do Facebook que são conhecidos e para todos os outros.
Em resumo, o cross-check permitiu que celebridades, políticos e influenciadores infringissem as regras do Facebook e do Instagram sem sofrer as mesmas penalidades que os demais usuários. Cerca de 5,8 milhões de contas estavam na lista de permissões do cross-check, que incluía nomes como o ex-presidente Donald Trump e Mark Zuckerberg.
O Conselho emitiu uma declaração contundente, acusando o Meta de ter sido desonesto em relação ao programa cross-check desde o início.
No relatório elaborado pelo Conselho de Supervisão, foram identificadas diversas deficiências no sistema de verificação cruzada do Meta. Embora a empresa tenha afirmado que o objetivo do cross-check é promover os compromissos de direitos humanos, constatou-se que o programa parece estar mais focado em atender às demandas comerciais.
O Conselho reconheceu que o Meta é uma empresa, porém não conseguiu cumprir suas próprias diretrizes de conteúdo, monitorar os resultados do programa e ser transparente sobre o mesmo.
O programa CrossCheck foi revelado publicamente pela primeira vez quando Frances Haugen, denunciante do Facebook, divulgou informações internas sobre os prejuízos reais causados pela plataforma de mídia social. Haugen mencionou o CrossCheck ao Oversight Board, juntamente com outras questões reveladas nos documentos.
O Conselho de Supervisão propôs diversas alterações no programa, com foco principalmente na transparência. Por exemplo, recomendou que o Meta identifique as contas dos usuários participantes do programa cross-check. Isso possibilitaria que o público responsabilizasse os usuários privilegiados para garantir que as entidades protegidas estejam cumprindo as regras estabelecidas.
Além disso, foi sugerido pelo Conselho de Supervisão que o Facebook exclua certos conteúdos considerados de grande gravidade, mesmo que um usuário faça parte do cross-check. Se um usuário do cross-check persistir em violar as regras, a recomendação do Conselho de Supervisão é que o Meta exclua sua conta do programa.
O Meta segue as orientações do Conselho de Supervisão em relação a decisões individuais de moderação de conteúdo, mas as recomendações de alteração de políticas feitas pelo Conselho são apenas sugestões, e o Meta não é obrigado a implementá-las para o programa Cross-Check.
Propósito ou objetivo.
Mais histórias
TikTok may face a ban in the United States following a decision by the Supreme Court; learn more.
Si TikTok es vetado en Estados Unidos, así es como se verá para el resto del mundo.
A Austrália pretende proibir o acesso de crianças menores de 16 anos às redes sociais.