Inteligência Artificial

Canguru de apoio emocional no aeroporto: vídeo feito por IA viraliza nas redes sociais

Também conhecidos como deepfakes, conteúdos falsificados criam a ilusão de que alguém disse ou fez algo que jamais ocorreu — como levar um canguru para o aeroporto

'Canguru de apoio emocional': vídeo feito por IA viralizou nas redes sociais (TikTok/Reprodução)

'Canguru de apoio emocional': vídeo feito por IA viralizou nas redes sociais (TikTok/Reprodução)

Publicado em 29 de maio de 2025 às 07h13.

Tudo sobreInteligência artificial
Saiba mais

Um canguru de apoio emocional é impedido de entrar no avião com a dona: parece o começo de uma piada ou de uma esquete de um programa de comédia, mas aconteceu. É claro que não de verdade. O vídeo que tem viralizado nas redes sociais não passa de mais uma produção cada vez mais realista feita com inteligência artificial (IA).

Também conhecidos como deepfakes, esses conteúdos falsificados substituem o rosto ou a voz de uma pessoa pela de outra em vídeos ou gravações, criando a ilusão de que alguém disse ou fez algo que jamais ocorreu.

A produção dos deepfakes utiliza técnicas avançadas, como as Redes Adversariais Generativas (GANs), que envolvem dois sistemas de inteligência artificial — o gerador, responsável por criar as imagens falsas, e o discriminador, que avalia sua autenticidade. Esses sistemas trabalham em conjunto, aprimorando continuamente a qualidade das falsificações ao aprender com vastos bancos de dados de imagens, vídeos e áudios reais.

https://www.tiktok.com/@yagirlgabby_/video/7509214607869840683?q=kangaroo%20airport&t=1748510945685

Perigo constante

Estudos recentes e discussões acadêmicas destacam como os perigos desses vídeos têm aumentado nos últimos anos.

Na University of Maryland, durante o TechFest 2025, especialistas ressaltaram que deepfakes conseguem replicar vozes e imagens com poucos dados, facilitando fraudes financeiras, prejuízos à reputação e desafios legais.

A professora Minoo Modaresnezhad enfatizou que “os estudantes aprenderam sobre os desafios éticos, vieses e preocupações com privacidade ligados à IA e segurança cibernética, reconhecendo que a tecnologia sozinha não é suficiente para proteger contra esses riscos.”

O impacto dessas tecnologias já é visível.

Professores da West Virginia University, Laurel Cook e Amy Cyphert, em um artigo publicado no site da universidade, destacam que conteúdos gerados por IA influenciam eventos políticos, citando robocalls usando a voz do presidente Joe Biden para enganar eleitores.

“[Deepfakes] são muito preocupantes porque tendemos a confiar em vídeo e som como provas suficientes para acreditar no que vemos e ouvimos”, diz Cook.

Ainda segundo Cook,  “[em deepfakes] tendemos a confiar em vídeo e som como provas suficientes para acreditar que estamos vendo ou ouvindo algo real", o que deixou de ser verdade com a evolução das IAs.

"As abordagens comuns para atrair engajamento incluem o uso de apelos emocionais, especialmente aqueles que incitam a raiva, dividindo o público e sendo exagerados, como o uso proposital de pronúncias incorretas. Além disso, esse tipo de conteúdo pode incluir o roubo ou distorção de informações disponíveis publicamente. Essas táticas costumam ser combinadas com conteúdos deepfake projetados para provocar uma resposta imediata, geralmente na forma de boca a boca, que os mecanismos de busca e algoritmos das redes sociais recompensam amplamente. Esse resultado também pode afetar negativamente o retorno financeiro daqueles que publicam conteúdo original. Quando essas táticas são usadas, o consumo saudável desse tipo de conteúdo deve incluir checagem dos fatos e/ou triangulação de fontes", explicou.

Até mesmo o Departamento de Segurança Interna dos EUA já se posicionou sobre os vídeos feitos por IA.

O departamento aponta que deepfakes são usados em operações maliciosas, pornografia não consensual e ataques de engenharia social.

Em documento divulgado pela instituição americana, Dr. Matthew Wright, professor do Rochester Institute of Technology, alerta que “deepfakes são mais visualmente impactantes, precisos e em maior resolução” do que os antigos “cheapfakes,” tornando-os mais difíceis de detectar — e ainda mais perigosos.

É a diferença entre uma calculadora e um computador; o computador é exponencialmente mais poderoso e capaz de fazer todas as coisas; mais potente para o que você pode fazer; mais visualmente impactante, preciso e em maior resolução; tudo que você pode fazer com ‘cheap fakes’ pode ser feito com deepfakes, porém de forma mais convincente", afirmou Wright. “Enfrentamos um outro problema que é, à medida que as pessoas se tornam mais conscientes da tecnologia, isso se torna uma oportunidade para o que chamamos de ‘dividendo dos mentirosos’, em que alguém pode realmente dizer algo que não deveria ou fazer algo que não deveria ser gravado, e então dizer: ‘Não, isso não é real, isso é falso'", disse.

No relatório do World Economic Forum de 2025, são destacados dois grandes riscos das deepfakes: assédio — como pornografia não consensual e chantagem — e golpes de engenharia social, como clonagem de voz para fraudar pessoas e empresas.

Um caso emblemático envolveu um funcionário financeiro em Hong Kong que pagou US$ 25 milhões após uma chamada no Zoom com participantes deepfakes.   

A visão de Bill Gates

O fundador da Microsoft, Bill Gates, reconhece os riscos da tecnologia, mas vê possibilidades de controle.

“Deepfakes e a desinformação gerada por IA podem minar eleições e a democracia. A ideia de usar tecnologia para espalhar mentiras não é nova… Estamos no estágio inicial de outra mudança profunda, a Era da IA", disse ele.

Além disso, Gates já foi alvo de vídeos deepfake, o que exemplifica os perigos dessa tecnologia. Um caso notório foi um vídeo viral em que ele aparecia sendo interrogado sobre temas polêmicos, mas, na verdade, sua imagem e voz foram manipuladas por IA para criar uma entrevista falsa.

Gates destaca ainda que, apesar dos riscos reais apresentados pela IA e pelos deepfakes, esses desafios podem ser gerenciados por meio de supervisão adequada, tecnologias de detecção e uso responsável da inteligência artificial.

Para o bilionário, a situação é semelhante às inovações anteriores, como os automóveis, que exigiram leis e padrões de segurança.

Como identificar vídeos gerados por IA

Como identificar fotos geradas por IA

Com a popularização de ferramentas como Midjourney, DALL-E e Stable Diffusion, identificar imagens falsas se tornou mais difícil — mas não impossível. Existem técnicas e ferramentas que ajudam a reconhecer padrões artificiais:

  1. Atenção aos detalhes visuais
    Use o zoom para procurar por distorções. IA frequentemente comete erros em mãos, olhos, dentes e simetrias . Texturas estranhas, acessórios assimétricos e sombras incoerentes também são pistas.

  2. Marcas d’água e artefatos ocultos
    Algumas imagens carregam marcas discretas deixadas pelos próprios modelos geradores. Embora possam ser removidas, sua presença é um indício de origem sintética.

  3. Busca reversa no Google
    Ferramentas como Google Imagens ajudam a identificar a origem e o contexto de uma foto. Se ela só aparece em perfis anônimos ou montagens, o alerta deve ser ligado .

  4. Detecção automatizada
    Plataformas como AI or Not, Deepware Scanner e Forensically permitem verificar metadados, analisar padrões de compressão e detectar manipulações.

  5. Verificação contextual
    Se a imagem estiver atrelada a um evento, vale procurar por registros em veículos jornalísticos confiáveis. A ausência de cobertura é, muitas vezes, sinal de fraude.

Como identificar vídeos feitos por inteligência artificial (IA)

  1. Inconsistências visuais

    • Fique atento a objetos ou pessoas que aparecem e desaparecem de forma inesperada.

    • Note mudanças estranhas nas formas, bordas borradas ou falhas nos contornos.

    • Observe sombras e iluminação que não combinam ou são inconsistentes ao longo do vídeo.

  2. Movimentos não naturais

    • Movimentos bruscos, mecânicos ou descoordenados, principalmente em gestos, piscadas e expressões faciais, são sinais de manipulação.

    • Piscadas muito raras ou em excesso e expressões que não condizem com o contexto podem indicar deepfake.

  3. Sincronia labial

    • Verifique se o movimento dos lábios acompanha corretamente o áudio.

    • A falta de sincronização entre o som e o movimento labial é um dos indícios mais claros de vídeo manipulado.

  4. Textura da pele e detalhes faciais

    • Procure por brilhos incomuns na pele ou ausência de detalhes naturais, como rugas, poros e manchas.

    • Desníveis de cor entre o rosto e outras partes do corpo também podem indicar edição artificial.

  5. Qualidade do áudio

    • Ruídos de fundo excessivos, cortes abruptos ou variações estranhas na voz podem ser pistas de áudio gerado, ou editado por IA.

  6. Expressões e emoções desconexas

    • Observe se as expressões faciais estão alinhadas com o conteúdo falado.

    • Por exemplo, uma pessoa aparentando felicidade ao dar uma notícia triste pode ser um sinal de manipulação.

  7. Verificação da fonte e contexto

    • Sempre confirme se o vídeo foi publicado por fontes confiáveis e oficiais.

    • Busque validação em veículos de comunicação reconhecidos para evitar cair em armadilhas de conteúdos falsos.

Ferramentas que ajudam na identificação de vídeos feitos por IA

  • Microsoft Video Authenticator (em desenvolvimento): analisa vídeos para detectar manipulações específicas feitas por IA.

  • Originality.AI, GPTZero, Copyleaks AI Content Detector: embora mais focadas em textos, algumas dessas ferramentas também oferecem recursos para identificar conteúdos gerados artificialmente.

Acompanhe tudo sobre:Inteligência artificialRedes sociaisTikTokAnimaisAeroportos

Mais de Inteligência Artificial

New York Times licencia conteúdo para uso em IA da Amazon

Impulsionada pela demanda por IA, Foxconn projeta receita recorde em 2025: US$ 234 bilhões

Para facilitar edição, Google Photos amplia uso de inteligência artificial e lança novo visual

O mercado chinês se tornou um elefante na sala no balanço da Nvidia