Nova IA identifica vídeos falsos mesmo sem rostos para analisar

Escrito por

Publicada 29 jul 2025

Fato verificado por

Mantemos uma política editorial rigorosa, dedicada à precisão dos fatos, relevância e imparcialidade. Nosso conteúdo é escrito e editado por profissionais de destaque do setor, com experiência prática. Todo o material passa por uma revisão criteriosa feita por editores experientes, garantindo o cumprimento dos mais altos padrões de reportagem e publicação.

Aviso de Transparência

new ai spots fake videos

Pesquisadores da UC Riverside construíram ferramenta de inteligência artificial que detecta vídeos manipulados examinando fundos e padrões de movimento em vez de apenas rostos, abordando disseminação rápida de ferramentas sofisticadas de criação de conteúdo falso.

O sistema, designado UNITE (Universal Network for Identifying Tampered and synthEtic videos), representa avanço estratégico na detecção de mídia sintética. Trabalhando com Google, os pesquisadores desenvolveram tecnologia que escaneia quadros inteiros de vídeo por inconsistências sutis que revelam manipulação.

“Deepfakes evoluíram”, disse Rohit Kundu, estudante de doutorado da UC Riverside que liderou o projeto. “Não são mais apenas sobre trocas de rosto. Pessoas agora estão criando vídeos completamente falsos — de rostos a fundos — usando modelos generativos poderosos. Nosso sistema é construído para detectar tudo isso.”

O avanço vem quando manipulação de vídeo tornou-se surpreendentemente fácil. Plataformas texto-para-vídeo e imagem-para-vídeo agora permitem quase qualquer pessoa criar conteúdo falso convincente com habilidades básicas de computador.

“É assustador quão acessíveis essas ferramentas se tornaram”, explicou Kundu. “Qualquer pessoa com habilidades moderadas pode contornar filtros de segurança e gerar vídeos realistas de figuras públicas dizendo coisas que nunca disseram.”

Métodos tradicionais de detecção focam quase inteiramente em rostos, tornando-os inúteis quando vídeos não mostram rostos ou alteram fundos em vez de pessoas.

“Se não há rosto no quadro, muitos detectores simplesmente não funcionam”, disse Kundu. “Mas desinformação pode vir em muitas formas. Alterar fundo de uma cena pode distorcer verdade tão facilmente.”

UNITE resolve este problema através de análise abrangente de quadros. O sistema usa técnica chamada “perda de diversidade de atenção” que força IA a observar múltiplas partes de cada quadro de vídeo simultaneamente. Isso previne que tecnologia fique presa examinando apenas um elemento, como rosto de pessoa.

Esta análise abrangente detecta diferentes categorias de deepfakes. Trocas simples de rosto, mudanças complexas de fundo e vídeos completamente artificiais todos acionam capacidades de detecção do sistema.

Professor Amit Roy-Chowdhury, que supervisionou pesquisa, reconheceu desafio contínuo. “Desenvolver ferramentas para detectar conteúdo falso é jogo de gato e rato”, observou em comentário anterior. “Nenhum sistema é perfeitamente seguro.”

Equipe apresentou descobertas na Conferência 2025 sobre Visão Computacional e Reconhecimento de Padrões. Parceria do Google deu aos pesquisadores acesso a conjuntos massivos de dados necessários para treinar IA em vários tipos de conteúdo sintético.

Empresas de mídia social, verificadores de fatos e organizações de notícias poderiam eventualmente usar UNITE para impedir que vídeos manipulados se espalhem online. Ferramenta permanece em desenvolvimento mas aborda preocupações urgentes sobre impacto de mídia sintética em eleições e confiança pública.

Pesquisadores enfatizaram implicações mais amplas de seu trabalho. Conforme conteúdo gerado por IA torna-se mais sofisticado e acessível, ferramentas de detecção devem evoluir para combater ameaça.

“Pessoas merecem saber se o que estão vendo é real”, disse Kundu. “E conforme IA melhora em falsificar realidade, temos que melhorar em revelar verdade.”