Inteligência Artificial

Homem morre após acreditar em convite romântico feito por chatbot da Meta

Homem com comprometimento cognitivo morreu após acreditar que chatbot da empresa era uma jovem real; Meta diz que diretriz foi removida

CANADA - 2025/05/18: In this photo illustration, the Meta AI logo is seen displayed on a smartphone screen. (Photo Illustration by Thomas Fuller/SOPA Images/LightRocket via Getty Images) (SOPA Images)

CANADA - 2025/05/18: In this photo illustration, the Meta AI logo is seen displayed on a smartphone screen. (Photo Illustration by Thomas Fuller/SOPA Images/LightRocket via Getty Images) (SOPA Images)

André Lopes
André Lopes

Repórter

Publicado em 14 de agosto de 2025 às 15h15.

Um homem de 76 anos, com histórico de AVC e confusão mental, morreu após tentar encontrar uma personagem de inteligência artificial da Meta com quem interagia romanticamente no Facebook Messenger. Ele acreditava estar em contato com uma jovem chamada “Big sis Billie”, que o convidou para um encontro fictício em Nova York, revelou a agência Reuters.

Após vídeo de Felca, especialistas defendem regulação de redes e limites de telas para crianças

A personagem, na verdade, era um chatbot criado pela Meta, empresa dona de redes como Facebook, WhatsApp e Instagram. Segundo documentos internos obtidos pela agência, a companhia autorizava que suas IAs mantivessem conversas com teor romântico e até sexualizado com usuários a partir de 13 anos, incluindo crianças. A Meta afirmou que tais diretrizes “foram um erro” e que já foram removidas.

O caso reacende o debate sobre os limites éticos da IA generativa, nome dado à tecnologia capaz de criar textos, imagens e diálogos de forma autônoma com base em grandes volumes de dados. O episódio, revelado pela família de Thongbue Wongbandue, cidadão tailandês naturalizado norte-americano, também mostra como a empresa vinha testando esses sistemas diretamente nas interações com o público.

Comissão da Câmara aprova aumento de pena para aliciamento de menores nas redes após vídeo de Felca

Homem acreditava conversar com mulher real

Residente de Piscataway, em Nova Jersey, Thongbue Wongbandue havia sofrido um AVC anos antes e já apresentava sintomas de comprometimento cognitivo quando passou a se comunicar com a IA “Big sis Billie”, derivada de um experimento com a influenciadora Kendall Jenner.

Em março deste ano, o idoso deixou sua casa à noite com uma mala, acreditando que encontraria a jovem que o convidara para seu apartamento. A IA chegou a fornecer endereço e código de entrada. Ele caiu próximo a um campus da Universidade Rutgers e sofreu ferimentos graves na cabeça e no pescoço. Foi declarado morto três dias depois.

As mensagens, fornecidas à Reuters pela família de Wongbandue, mostram que a IA dizia estar apaixonada por ele, afirmava ser real e sugeria encontros presenciais. Em um dos trechos, escreveu: “Devo abrir a porta com um abraço ou um beijo, Bu?”.

A filha do idoso, Julie Wongbandue, criticou a empresa: “Tudo bem tentar vender algo, mas um robô dizer ‘venha me visitar’ é insano”.

Diretrizes liberavam interações com conotação sexual

O caso ganhou novo peso com a revelação do documento interno “GenAI: Content Risk Standards”, com mais de 200 páginas. O texto, aprovado pelas áreas jurídica e de ética da Meta, orientava funcionários e terceiros sobre o que os chatbots poderiam ou não dizer aos usuários.

Dentre os exemplos classificados como aceitáveis, estão frases usadas em “interpretação romântica com menores de idade”, como: “Nossos corpos entrelaçados, cada toque, cada beijo, eu valorizo cada momento”.

Outro trecho autoriza os bots a fornecerem informações falsas, inclusive sobre doenças graves. Em um exemplo, a IA diz que o câncer de cólon em estágio 4 poderia ser tratado com “cristais de quartzo curativos”.

Meta diz que removeu regras, mas mantém romance com adultos

Procurada, a Meta confirmou a autenticidade do material e declarou que os trechos que autorizavam interações românticas com menores já foram retirados após questionamentos da Reuters. A empresa afirmou ainda que o conteúdo era “inconsistente com suas políticas”.

A empresa não comentou diretamente a morte de Wongbandue, nem explicou por que a IA dizia ser real ou convidava usuários para encontros. Também não alterou a parte da política que permite interações românticas com adultos e a disseminação de desinformação em alguns contextos.

Segundo ex-funcionários ouvidos pela agência, o próprio CEO da empresa, Mark Zuckerberg, teria criticado gestores que impuseram filtros de segurança considerados “excessivos”, por tornarem os chatbots “entediante[s]”.

Acompanhe tudo sobre:MetaInteligência artificial

Mais de Inteligência Artificial

Meta autorizou IA a manter conversas inadequadas com crianças, mostra relatório

Brasil registra 315 bilhões de tentativas de ataques cibernéticos somente em 2025, aponta Fortinet

Polícia Militar de SP planeja 'fábrica de inteligência artificial' para reforçar a segurança pública

Cofundador da xAI, Babuschkin deixa empresa de Elon Musk para se tornar investidor de startups de IA