Um canguru de apoio emocional é impedido de entrar no avião com a dona: parece o começo de uma piada ou de uma esquete de um programa de comédia, mas aconteceu. É claro que não de verdade. O vídeo que tem viralizado nas redes sociais não passa de mais uma produção cada vez mais realista feita com inteligência artificial (IA).
Também conhecidos como deepfakes, esses conteúdos falsificados substituem o rosto ou a voz de uma pessoa pela de outra em vídeos ou gravações, criando a ilusão de que alguém disse ou fez algo que jamais ocorreu.
A produção dos deepfakes utiliza técnicas avançadas, como as Redes Adversariais Generativas (GANs), que envolvem dois sistemas de inteligência artificial — o gerador, responsável por criar as imagens falsas, e o discriminador, que avalia sua autenticidade. Esses sistemas trabalham em conjunto, aprimorando continuamente a qualidade das falsificações ao aprender com vastos bancos de dados de imagens, vídeos e áudios reais.
https://www.tiktok.com/@yagirlgabby_/video/7509214607869840683?q=kangaroo%20airport&t=1748510945685
Perigo constante
Estudos recentes e discussões acadêmicas destacam como os perigos desses vídeos têm aumentado nos últimos anos.
Na University of Maryland, durante o TechFest 2025, especialistas ressaltaram que deepfakes conseguem replicar vozes e imagens com poucos dados, facilitando fraudes financeiras, prejuízos à reputação e desafios legais.
A professora Minoo Modaresnezhad enfatizou que “os estudantes aprenderam sobre os desafios éticos, vieses e preocupações com privacidade ligados à IA e segurança cibernética, reconhecendo que a tecnologia sozinha não é suficiente para proteger contra esses riscos.”
O impacto dessas tecnologias já é visível.
Professores da West Virginia University, Laurel Cook e Amy Cyphert, em um artigo publicado no site da universidade, destacam que conteúdos gerados por IA influenciam eventos políticos, citando robocalls usando a voz do presidente Joe Biden para enganar eleitores.
“[Deepfakes] são muito preocupantes porque tendemos a confiar em vídeo e som como provas suficientes para acreditar no que vemos e ouvimos”, diz Cook.
Ainda segundo Cook, “[em deepfakes] tendemos a confiar em vídeo e som como provas suficientes para acreditar que estamos vendo ou ouvindo algo real", o que deixou de ser verdade com a evolução das IAs.
"As abordagens comuns para atrair engajamento incluem o uso de apelos emocionais, especialmente aqueles que incitam a raiva, dividindo o público e sendo exagerados, como o uso proposital de pronúncias incorretas. Além disso, esse tipo de conteúdo pode incluir o roubo ou distorção de informações disponíveis publicamente. Essas táticas costumam ser combinadas com conteúdos deepfake projetados para provocar uma resposta imediata, geralmente na forma de boca a boca, que os mecanismos de busca e algoritmos das redes sociais recompensam amplamente. Esse resultado também pode afetar negativamente o retorno financeiro daqueles que publicam conteúdo original. Quando essas táticas são usadas, o consumo saudável desse tipo de conteúdo deve incluir checagem dos fatos e/ou triangulação de fontes", explicou.
Até mesmo o Departamento de Segurança Interna dos EUA já se posicionou sobre os vídeos feitos por IA.
O departamento aponta que deepfakes são usados em operações maliciosas, pornografia não consensual e ataques de engenharia social.
Em documento divulgado pela instituição americana, Dr. Matthew Wright, professor do Rochester Institute of Technology, alerta que “deepfakes são mais visualmente impactantes, precisos e em maior resolução” do que os antigos “cheapfakes,” tornando-os mais difíceis de detectar — e ainda mais perigosos.
“É a diferença entre uma calculadora e um computador; o computador é exponencialmente mais poderoso e capaz de fazer todas as coisas; mais potente para o que você pode fazer; mais visualmente impactante, preciso e em maior resolução; tudo que você pode fazer com ‘cheap fakes’ pode ser feito com deepfakes, porém de forma mais convincente", afirmou Wright. “Enfrentamos um outro problema que é, à medida que as pessoas se tornam mais conscientes da tecnologia, isso se torna uma oportunidade para o que chamamos de ‘dividendo dos mentirosos’, em que alguém pode realmente dizer algo que não deveria ou fazer algo que não deveria ser gravado, e então dizer: ‘Não, isso não é real, isso é falso'", disse.
No relatório do World Economic Forum de 2025, são destacados dois grandes riscos das deepfakes: assédio — como pornografia não consensual e chantagem — e golpes de engenharia social, como clonagem de voz para fraudar pessoas e empresas.
Um caso emblemático envolveu um funcionário financeiro em Hong Kong que pagou US$ 25 milhões após uma chamada no Zoom com participantes deepfakes.
A visão de Bill Gates
O fundador da Microsoft, Bill Gates, reconhece os riscos da tecnologia, mas vê possibilidades de controle.
“Deepfakes e a desinformação gerada por IA podem minar eleições e a democracia. A ideia de usar tecnologia para espalhar mentiras não é nova… Estamos no estágio inicial de outra mudança profunda, a Era da IA", disse ele.
Além disso, Gates já foi alvo de vídeos deepfake, o que exemplifica os perigos dessa tecnologia. Um caso notório foi um vídeo viral em que ele aparecia sendo interrogado sobre temas polêmicos, mas, na verdade, sua imagem e voz foram manipuladas por IA para criar uma entrevista falsa.
Gates destaca ainda que, apesar dos riscos reais apresentados pela IA e pelos deepfakes, esses desafios podem ser gerenciados por meio de supervisão adequada, tecnologias de detecção e uso responsável da inteligência artificial.
Para o bilionário, a situação é semelhante às inovações anteriores, como os automóveis, que exigiram leis e padrões de segurança.
Como identificar vídeos gerados por IA
Como identificar fotos geradas por IA
Com a popularização de ferramentas como Midjourney, DALL-E e Stable Diffusion, identificar imagens falsas se tornou mais difícil — mas não impossível. Existem técnicas e ferramentas que ajudam a reconhecer padrões artificiais:
-
Atenção aos detalhes visuais
Use o zoom para procurar por distorções. IA frequentemente comete erros em mãos, olhos, dentes e simetrias . Texturas estranhas, acessórios assimétricos e sombras incoerentes também são pistas.
-
Marcas d’água e artefatos ocultos
Algumas imagens carregam marcas discretas deixadas pelos próprios modelos geradores. Embora possam ser removidas, sua presença é um indício de origem sintética.
-
Busca reversa no Google
Ferramentas como Google Imagens ajudam a identificar a origem e o contexto de uma foto. Se ela só aparece em perfis anônimos ou montagens, o alerta deve ser ligado .
-
Detecção automatizada
Plataformas como AI or Not, Deepware Scanner e Forensically permitem verificar metadados, analisar padrões de compressão e detectar manipulações.
-
Verificação contextual
Se a imagem estiver atrelada a um evento, vale procurar por registros em veículos jornalísticos confiáveis. A ausência de cobertura é, muitas vezes, sinal de fraude.
Como identificar vídeos feitos por inteligência artificial (IA)
-
Inconsistências visuais
-
Fique atento a objetos ou pessoas que aparecem e desaparecem de forma inesperada.
-
Note mudanças estranhas nas formas, bordas borradas ou falhas nos contornos.
-
Observe sombras e iluminação que não combinam ou são inconsistentes ao longo do vídeo.
-
Movimentos não naturais
-
Movimentos bruscos, mecânicos ou descoordenados, principalmente em gestos, piscadas e expressões faciais, são sinais de manipulação.
-
Piscadas muito raras ou em excesso e expressões que não condizem com o contexto podem indicar deepfake.
-
Sincronia labial
-
Textura da pele e detalhes faciais
-
Procure por brilhos incomuns na pele ou ausência de detalhes naturais, como rugas, poros e manchas.
-
Desníveis de cor entre o rosto e outras partes do corpo também podem indicar edição artificial.
-
Qualidade do áudio
-
Expressões e emoções desconexas
-
Observe se as expressões faciais estão alinhadas com o conteúdo falado.
-
Por exemplo, uma pessoa aparentando felicidade ao dar uma notícia triste pode ser um sinal de manipulação.
-
Verificação da fonte e contexto
Ferramentas que ajudam na identificação de vídeos feitos por IA
-
Microsoft Video Authenticator (em desenvolvimento): analisa vídeos para detectar manipulações específicas feitas por IA.
-
Originality.AI, GPTZero, Copyleaks AI Content Detector: embora mais focadas em textos, algumas dessas ferramentas também oferecem recursos para identificar conteúdos gerados artificialmente.