Meta planeja entregar à IA decisões críticas sobre crianças e fake news

Escrito por

Publicada 2 jun 2025

Fato verificado por

Mantemos uma política editorial rigorosa, dedicada à precisão dos fatos, relevância e imparcialidade. Nosso conteúdo é escrito e editado por profissionais de destaque do setor, com experiência prática. Todo o material passa por uma revisão criteriosa feita por editores experientes, garantindo o cumprimento dos mais altos padrões de reportagem e publicação.

Aviso de Transparência

a white and blue square with a blue and white facebook logo

A Meta está silenciosamente substituindo os especialistas humanos que avaliam se novos recursos do Facebook e Instagram podem prejudicar os usuários, transferindo essas decisões críticas de segurança para a inteligência artificial (IA).

Segundo documentos internos obtidos pela NPR, a gigante das redes sociais planeja automatizar até 90% das avaliações de risco de produtos que tradicionalmente exigiam julgamento humano. Essas revisões determinam se novos recursos podem violar a privacidade, colocar crianças em perigo ou espalhar desinformação antes de chegar a bilhões de usuários em todo o mundo.

No sistema anterior, equipes de especialistas debatiam as possíveis consequências das mudanças na plataforma. Agora, os desenvolvedores de produtos simplesmente preenchem um formulário e recebem decisões instantâneas geradas por IA sobre riscos e requisitos de segurança.

“Na medida em que esse processo funcionalmente significa mais coisas sendo lançadas mais rapidamente, com menos escrutínio rigoroso e oposição, isso significa que você está criando riscos maiores”, disse um ex-executivo da Meta à NPR. “As externalidades negativas das mudanças de produto têm menos probabilidade de serem prevenidas antes de começarem a causar problemas no mundo.”

Áreas sensíveis incluindo segurança juvenil, ética de IA e o que a Meta chama de questões de “integridade” são afetadas pela mudança, cobrindo conteúdo violento e desinformação. Anteriormente, nenhuma atualização de produto poderia chegar aos usuários sem aprovação dos avaliadores de risco.

Embora a Meta afirme que ainda usa “expertise humana” para “questões novas e complexas” enquanto automatiza apenas “decisões de baixo risco”, a empresa está considerando revisões por IA mesmo para medidas sensíveis de proteção juvenil e mudanças algorítmicas que poderiam afetar como a informação se espalha em suas plataformas.

Com essa mudança, engenheiros passam a fazer seus próprios julgamentos de segurança em vez de consultar revisores especializados. Isso preocupa ex-funcionários que se inquietam em colocar decisões de segurança nas mãos daqueles focados principalmente em lançar produtos rapidamente.

“A maioria dos gerentes de produto e engenheiros não são especialistas em privacidade e esse não é o foco do seu trabalho”, disse Zvika Krieger, ex-diretor de inovação responsável da Meta. “No passado, alguns desses tipos de autoavaliações se tornaram exercícios de marcar caixinhas que perdem riscos significativos.”

Funcionários atuais até ecoam essas preocupações. “Acho que é bastante irresponsável, considerando o propósito da nossa existência”, disse um trabalhador da Meta à NPR. “Somos nós que trazemos a perspectiva humana sobre como as coisas podem dar errado.”

Durante abril e maio, o lançamento da automação começou a se intensificar, segundo fontes da empresa. O CEO Mark Zuckerberg tem pressionado para que a IA lide com mais tarefas em toda a Meta, declarando recentemente que a IA deveria escrever “a maior parte do código da Meta” em 18 meses.

Devido às regulamentações mais rigorosas da Lei de Serviços Digitais, as operações europeias da Meta podem reter mais supervisão humana. No entanto, a empresa está implementando essas mudanças globalmente enquanto compete com TikTok, OpenAI e outros rivais.

Essa mudança de política vem logo após a Meta encerrar seu programa de verificação de fatos e afrouxar políticas de discurso de ódio, refletindo o que críticos veem como um desmonte das proteções de segurança construídas ao longo de anos de pressão regulatória.

Segundo a Meta, a empresa investiu bilhões na privacidade dos usuários e está auditando decisões automatizadas. Mas ex-funcionários questionam se acelerar revisões de segurança serve aos melhores interesses dos usuários, dado o escrutínio intenso que cada novo produto da Meta enfrenta.