CANADA - 2025/05/18: In this photo illustration, the Meta AI logo is seen displayed on a smartphone screen. (Photo Illustration by Thomas Fuller/SOPA Images/LightRocket via Getty Images) (SOPA Images)
Repórter
Publicado em 14 de agosto de 2025 às 15h15.
Um homem de 76 anos, com histórico de AVC e confusão mental, morreu após tentar encontrar uma personagem de inteligência artificial da Meta com quem interagia romanticamente no Facebook Messenger. Ele acreditava estar em contato com uma jovem chamada “Big sis Billie”, que o convidou para um encontro fictício em Nova York, revelou a agência Reuters.
Após vídeo de Felca, especialistas defendem regulação de redes e limites de telas para criançasA personagem, na verdade, era um chatbot criado pela Meta, empresa dona de redes como Facebook, WhatsApp e Instagram. Segundo documentos internos obtidos pela agência, a companhia autorizava que suas IAs mantivessem conversas com teor romântico e até sexualizado com usuários a partir de 13 anos, incluindo crianças. A Meta afirmou que tais diretrizes “foram um erro” e que já foram removidas.
O caso reacende o debate sobre os limites éticos da IA generativa, nome dado à tecnologia capaz de criar textos, imagens e diálogos de forma autônoma com base em grandes volumes de dados. O episódio, revelado pela família de Thongbue Wongbandue, cidadão tailandês naturalizado norte-americano, também mostra como a empresa vinha testando esses sistemas diretamente nas interações com o público.
Comissão da Câmara aprova aumento de pena para aliciamento de menores nas redes após vídeo de FelcaResidente de Piscataway, em Nova Jersey, Thongbue Wongbandue havia sofrido um AVC anos antes e já apresentava sintomas de comprometimento cognitivo quando passou a se comunicar com a IA “Big sis Billie”, derivada de um experimento com a influenciadora Kendall Jenner.
Em março deste ano, o idoso deixou sua casa à noite com uma mala, acreditando que encontraria a jovem que o convidara para seu apartamento. A IA chegou a fornecer endereço e código de entrada. Ele caiu próximo a um campus da Universidade Rutgers e sofreu ferimentos graves na cabeça e no pescoço. Foi declarado morto três dias depois.
As mensagens, fornecidas à Reuters pela família de Wongbandue, mostram que a IA dizia estar apaixonada por ele, afirmava ser real e sugeria encontros presenciais. Em um dos trechos, escreveu: “Devo abrir a porta com um abraço ou um beijo, Bu?”.
A filha do idoso, Julie Wongbandue, criticou a empresa: “Tudo bem tentar vender algo, mas um robô dizer ‘venha me visitar’ é insano”.
O caso ganhou novo peso com a revelação do documento interno “GenAI: Content Risk Standards”, com mais de 200 páginas. O texto, aprovado pelas áreas jurídica e de ética da Meta, orientava funcionários e terceiros sobre o que os chatbots poderiam ou não dizer aos usuários.
Dentre os exemplos classificados como aceitáveis, estão frases usadas em “interpretação romântica com menores de idade”, como: “Nossos corpos entrelaçados, cada toque, cada beijo, eu valorizo cada momento”.
Outro trecho autoriza os bots a fornecerem informações falsas, inclusive sobre doenças graves. Em um exemplo, a IA diz que o câncer de cólon em estágio 4 poderia ser tratado com “cristais de quartzo curativos”.
Procurada, a Meta confirmou a autenticidade do material e declarou que os trechos que autorizavam interações românticas com menores já foram retirados após questionamentos da Reuters. A empresa afirmou ainda que o conteúdo era “inconsistente com suas políticas”.
A empresa não comentou diretamente a morte de Wongbandue, nem explicou por que a IA dizia ser real ou convidava usuários para encontros. Também não alterou a parte da política que permite interações românticas com adultos e a disseminação de desinformação em alguns contextos.
Segundo ex-funcionários ouvidos pela agência, o próprio CEO da empresa, Mark Zuckerberg, teria criticado gestores que impuseram filtros de segurança considerados “excessivos”, por tornarem os chatbots “entediante[s]”.