Vídeos racistas gerados com IA da Google Veo 3 viralizam no TikTok

Escrito por

Publicada 4 jul 2025

Fato verificado por

Mantemos uma política editorial rigorosa, dedicada à precisão dos fatos, relevância e imparcialidade. Nosso conteúdo é escrito e editado por profissionais de destaque do setor, com experiência prática. Todo o material passa por uma revisão criteriosa feita por editores experientes, garantindo o cumprimento dos mais altos padrões de reportagem e publicação.

Aviso de Transparência

veo3 racist ai generated videos 1

Vídeos racistas e antissemitas criados com ferramenta de IA Veo 3 do Google acumularam milhões de visualizações no TikTok desde maio, provocando remoções da plataforma e expondo falhas críticas nas medidas de segurança de inteligência artificial.

Vídeos criados com Veo 3 do Google atingiram 14,2 milhões de visualizações no TikTok antes da remoção. Media Matters publicou essas descobertas em 1º de julho. O conteúdo gerado por IA mostrava pessoas negras como macacos e criminosos enquanto promovia ideias prejudiciais sobre múltiplos grupos raciais.

Media Matters identificou os vídeos através de marcas d’água “Veo” e limites de clipes de oito segundos. Essas características correspondem às especificações da ferramenta. Pesquisadores encontraram conteúdo atacando americanos negros, asiáticos, comunidades judaicas e imigrantes no TikTok, Instagram e YouTube.

“É tanto repugnante quanto perturbador que esses tropos raciais e imagens estejam prontamente disponíveis para serem criados e distribuídos em plataformas online”, disse Nicol Turner Lee, diretora do Centro de Inovação Tecnológica da Brookings Institution, à WIRED.

Google lançou Veo 3 em maio de 2025, comercializando-o como gerador de texto para vídeo com proteções de segurança integradas. Políticas da empresa proíbem explicitamente criar conteúdo que promova discurso de ódio ou assédio. Essas salvaguardas aparentemente falharam quando usuários empregaram prompts indiretos que evitaram filtros direcionados a humanos.

TikTok removeu contas identificadas após publicação do relatório. Muitas já haviam sido banidas antes da Media Matters completar sua investigação.

“Aplicamos proativamente regras robustas contra discurso e comportamento de ódio”, disse porta-voz do TikTok Ariane de Selliers.

Os vídeos usaram imagens de animais para contornar filtros de conteúdo enquanto promoviam ideias racistas. Um clipe mostrava polícia atirando num “negro” e obteve mais de 14 milhões de visualizações. Outro mostrava macacos num restaurante com melancia e frango frito, atingindo 600 mil visualizações.

Comentários mostraram que espectadores entenderam mensagens racistas. “Cara, até IA tem fadiga de negro”, escreveu um espectador num vídeo de macacos no avião.

Alguns criadores monetizaram conteúdo de ódio vendendo cursos de US$ 15 ensinando outros a gerar vídeos similares usando Veo 3. Tutoriais orientavam estudantes através de técnicas de prompts que contornavam medidas de segurança do Google.

Esta situação vai além de vídeos individuais para revelar problemas sistêmicos com desenvolvimento de IA e governança de mídia social. Sistemas de moderação de conteúdo lutam para encontrar discurso de ódio gerado por IA. Isso é especialmente difícil quando usa linguagem codificada e símbolos visuais.

Google não respondeu pedidos de comentário sobre falhas de segurança do Veo 3. A empresa planeja adicionar gerador de vídeo ao YouTube Shorts. Isso pode expandir alcance de conteúdo similar.

O incidente segue padrão de ferramentas de IA reproduzindo preconceitos sociais apesar de proteções técnicas. Pesquisas anteriores mostram sistemas de IA consistentemente exibindo preconceito racial. Eles atribuem traços negativos a falantes de inglês afro-americano e perpetuam estereótipos históricos.

Desafios de aplicação do TikTok refletem lutas mais amplas da indústria com conteúdo gerado por IA. A plataforma remove menos de 1% dos vídeos publicados por violações de política, segundo próprios relatórios. Formatos de vídeo curto tornam moderação contextual particularmente difícil enquanto distribuição algorítmica pode amplificar conteúdo prejudicial.

A disseminação viral mostra como ferramentas de IA podem transformar técnicas antigas de propaganda em armas. Imagens racistas que antes requeriam certas habilidades agora podem ser geradas instantaneamente através de prompts de texto, reduzindo barreiras para criar e espalhar discurso de ódio.