Um rosto familiar sorri na frente da câmera, improvisa um discurso político, chora ao falar sobre sua infância. Parece uma confissão sincera. Mas não é real. Nem o vídeo, nem as lágrimas, nem o discurso. É Sora. E milhões de pessoas já acreditaram no contrário.
Quando o vídeo deixou de ser evidência
Por: Gabriel E. Levy B.
Até alguns anos atrás, a imagem em movimento era a evidência definitiva do que havia acontecido. “Se está em vídeo, é verdade”, costumavam dizer.
Mas essa certeza começou a desmoronar com os primeiros deepfakes, aquelas montagens rudimentares que mostravam rostos trocados, vozes clonadas e movimentos desajeitados. Eles pareciam um truque de mágica digital, limitado a ambientes marginais ou experimentais.
No entanto, como explica Hany Farid, professor da Universidade da Califórnia, Berkeley e pioneiro na detecção de manipulação digital, a evolução da inteligência artificial transformou esses conjuntos de laboratório em sofisticadas ferramentas de produção visual.
Deepfakes deixaram de ser um truque e se tornaram uma arte invisível.
Com o Sora, essa tecnologia foi democratizada. Agora, qualquer usuário com acesso à rede social pode criar uma cena hiper-realista, desde um protesto fictício até uma conversa privada que nunca existiu.
A pesquisadora dinamarquesa Britt Paris, especialista em desinformação digital, já alertou em 2020 que a ameaça dos deepfakes não era apenas técnica, mas epistemológica: “se qualquer imagem pode ser manipulada, então todo testemunho visual se torna suspeito”. Sora não inventou esse problema, mas o tornou viral.
O Império do Plausível
Uma frase é suficiente. Um texto curto. Uma imagem de referência.
E Sora gera um vídeo. Em segundos. O resultado é tão preciso que engana não apenas os olhos, mas também os algoritmos treinados para detectar falsificações. Esse fenômeno, amplamente documentado nas últimas semanas por meios de comunicação como Fast Company e The New York Times, alarma especialistas em segurança cibernética, justiça, política e comunicação.
O recurso “cameos”, por exemplo, permite que qualquer usuário seja inserido em uma cena gerada por IA com apenas uma verificação facial.
O problema é que essa verificação, na prática, foi violada algumas horas após o lançamento. Empresas especializadas em engenharia de falsificação de identidade conseguiram incorporar os rostos de celebridades em situações fictícias, contornando as barreiras de autenticação implementadas pela OpenAI.
Um caso específico foi o do ator Bryan Cranston, que denunciou publicamente o uso de sua imagem em vídeos fabricados para fins promocionais sem seu consentimento, o que obrigou a empresa a rever seus filtros.
Além das celebridades, o risco está nos milhões de usuários anônimos que não possuem uma rede legal ou de mídia para defender sua identidade.
Sora transforma a realidade em uma matéria maleável, onde a linha entre o verdadeiro e o falso se torna borrada, manipulável e, o mais perturbador, atraente.
A verdade como um jogo de espelhos
O perigo de Sora reside não apenas na criação de conteúdo falso, mas na erosão sistemática da confiança.
O chamado “dividendo do mentiroso” descreve com precisão esse novo cenário: se tudo pode ser fabricado, então até o verdadeiro pode ser descartado como ficção.
Essa noção, desenvolvida pelos pesquisadores Chesney e Citron em seu artigo “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security”, revela um paradoxo perturbador: a tecnologia que permite que você veja mais também permite que você duvide de tudo.
Os vídeos gerados com Sora circulam desenfreados nas redes sociais, são editados, recontextualizados, tornam-se memes, evidências de crimes inexistentes, campanhas de ódio ou ferramentas de manipulação política.
Durante as recentes eleições municipais nos Estados Unidos, foram detectados pelo menos vinte casos em que deepfakes criados com Sora foram usados para simular declarações falsas de candidatos, de acordo com um relatório da Comissão Eleitoral Federal.
Embora as plataformas tenham tentado bloquear esse conteúdo, muitos se tornaram virais antes de serem removidos.
O mais preocupante é que os algoritmos de recomendação das redes sociais promovem esse tipo de vídeo por causa de sua capacidade de retenção.
Eles são visualmente impressionantes, emocionalmente envolventes, fáceis de consumir e difíceis de verificar. Nesse contexto, a mentira não precisa ser perfeita, só precisa ser mais convincente do que a verdade.
Um futuro sem testemunhas confiáveis
As implicações legais e éticas de Sora estão apenas começando a ser discutidas. A OpenAI afirma ter incorporado marcas d’água invisíveis, metadados codificados e restrições para impedir o uso de sua plataforma para fins políticos, sexuais ou violentos.
No entanto, vários relatos da mídia concordam que essas medidas são facilmente vulneráveis ou, na melhor das hipóteses, insuficientes.
A regulação, como costuma acontecer no campo tecnológico, corre atrás da vertigem da inovação.
Nos Estados Unidos e na Europa, os legisladores estão debatendo projetos de lei para exigir rótulos claros em conteúdo sintético, forçar as plataformas a identificar vídeos gerados por IA ou sancionar aqueles que usam essas ferramentas para se passar por identidades.
Mas essas propostas estão longe de se tornar leis eficazes e, enquanto isso, a proliferação de conteúdo falso não para.
Casos como o de Martin Luther King Jr., cuja imagem foi usada em um vídeo apócrifo para promover ideias contrárias ao seu legado, ilustram a extensão do problema.
Embora a OpenAI tenha removido o conteúdo e oferecido um pedido público de desculpas, o dano simbólico já estava feito.
As plataformas não apenas reproduzem imagens: elas reproduzem sentidos, emoções, decisões. E quando essas imagens são falsas, também são as consequências que elas desencadeiam.
Na América Latina, onde a supervisão institucional é mais fraca e a polarização da informação mais aguda, o Sora pode ser uma ferramenta perigosa nas mãos de atores políticos ou grupos extremistas.
No Brasil, por exemplo, foram detectados vídeos falsos mostrando líderes indígenas apoiando propostas do governo que eles realmente rejeitaram.
Esses clipes circularam amplamente no WhatsApp e no Telegram, influenciando os principais debates legislativos.
Em conclusão, Sora representa uma nova etapa na relação entre imagem, tecnologia e verdade. Não é apenas uma ferramenta para criar conteúdo.
É um dispositivo que reconfigura os próprios fundamentos da comunicação digital. Ao democratizar a produção de deepfakes, transforma a suspeita em norma, a montagem em espetáculo e a dúvida em estratégia.
Diante desse cenário, a sociedade precisa de mais do que apenas regulamentações. Precisa de uma nova alfabetização visual, uma ética do consumo digital e, acima de tudo, um compromisso renovado com a verdade.
Referências
Chesney, R., & Citron, D. K. (2019). Deep Fakes: um desafio iminente para privacidade, democracia e segurança nacional. Revisão da Lei da Califórnia, 107(6), 1753–1820.
Farid, H. (2021). Forense digital em um mundo pós-verdade. Imprensa da Universidade da Califórnia.
Paris, B. (2020). Deepfakes e a crise epistêmica do visual. Mídia e Comunicação, 8(3), 13–24.



