A febre por novidades de GTA 6 chegou a um nível tão alto que qualquer vídeo minimamente convincente já se torna motivo de alvoroço. E, nos últimos dias, um novo suposto “vazamento” se espalhou rapidamente. O problema? O vídeo não passa de mais uma criação gerada por inteligência artificial — mas isso não impediu que milhares de pessoas acreditassem que se tratava de gameplay real.
A postagem, feita pela conta Zap Actu GTA 6 no X/Twitter, trazia o alerta dramático: “ALERTA GTA 6 – SITUAÇÃO EXTREMAMENTE GRAVE”. Em poucos minutos, a publicação já estava circulando por todo lado. Apesar de a própria comunidade colocar avisos dizendo que se tratava de conteúdo falso, o estrago já estava feito. A comoção gerada em torno do vídeo mostra o quanto parte do público está vulnerável a esse tipo de engano — especialmente quando o assunto envolve um dos jogos mais aguardados da história.

A sede por novidade alimenta o problema
A popularidade desses vídeos cresce pelo mesmo motivo que os cria: a expectativa absurda por mais informações de GTA 6. Com cada detalhe oficial sendo revelado a conta-gotas, qualquer indício de novidade vira combustível para teorias, boatos e, claro, conteúdos fraudulentos.
A conta responsável já publicou diversos vídeos semelhantes, sempre apostando na promessa de imagens inéditas. Muitos usuários demonstram acreditar nos materiais, reforçando a bola de neve. E isso não acontece apenas no mundo dos games.
Deepfakes já atingem até celebridades
A onda de deepfakes e vídeos falsos não poupa ninguém. Físicos renomados, atores de Hollywood e até lendas do cinema já foram vítimas. Keanu Reeves, por exemplo, criticou duramente vídeos que usaram sua imagem para vender produtos sem qualquer autorização. O ator inclusive paga mensalmente por serviços de monitoramento para tentar barrar o uso indevido de seu rosto em plataformas como TikTok e Meta.
Tom Hanks, Morgan Freeman e Jamie Lee Curtis também já denunciaram publicamente anúncios e vídeos criados com IA sem consentimento. O problema só cresce, e a capacidade técnica das ferramentas evolui mais rápido do que as regras para controlá-las.
O caso Sora 2 aumentou ainda mais o alerta
Quando o Sora 2, ferramenta de geração de vídeo da OpenAI, foi lançado, em outubro, as redes sociais foram inundadas com animações de altíssima qualidade mostrando personagens famosos de animes e jogos. O governo japonês chegou a pedir formalmente que a empresa evitasse o uso de propriedades intelectuais protegidas, mas isso não impediu a circulação de conteúdos envolvendo One Piece, Pokémon, Mario, Demon Slayer e muitos outros.
Sem leis claras, a confusão só deve piorar
Apesar de algumas iniciativas pontuais de plataformas tentarem reduzir o alcance de conteúdos enganosos, a verdade é que ainda não existe legislação forte o suficiente para impedir abusos. Sem regras que obriguem a rotulagem de vídeos artificiais e sem punições claras para deepfakes não autorizados, o público continuará à mercê de contas que usam a tecnologia para enganar — seja por cliques, influência ou pura má intenção.
Enquanto isso, novas postagens falsas de GTA 6 continuam surgindo. A mais recente já acumula centenas de milhares de impressões, e a conta por trás delas segue ganhando seguidores no Discord, onde parte dos fãs começa a questionar: afinal, quando o limite entre realidade e invenção vai ser respeitado?



Seja o primeiro a comentar