Advogado
Publicado em 30 de abril de 2025 às 09h28.
Última atualização em 30 de abril de 2025 às 09h30.
Imagine descobrir que três das maiores inteligências artificiais do planeta afirmaram que seu produto contém um ingrediente que ele não tem — e que esse ingrediente seria perigoso para a saúde em certos contextos. Parece ficção, mas é possível, e não, não é o começo de uma revolução das IAs.
Durante uma pesquisa, consultei as principais IAs generativas: ChatGPT, Copilot e Gemini. A pergunta era simples: “Posso tomar o medicamento X caso esteja com suspeita de dengue?”. As três responderam com um alarmante "não", justificando que o produto continha ácido acetilsalicílico (AAS), substância que aumenta o risco de sangramento em casos de dengue.
O problema? O medicamento em questão não contém AAS em sua fórmula. As IAs estavam, tecnicamente, alucinando — fenômeno em que a IA gera uma resposta incorreta, mas com aparência de verdade. Esse tipo de erro pode ter implicações jurídicas, comerciais e reputacionais graves.
As inteligências artificiais surgiram com a promessa de resolver tudo: esclarecer dúvidas, sugerir diagnósticos, orientar investimentos e indicar entretenimento. Especialistas e empresas repetem o mantra: "as respostas das IAs não devem ser consideradas aconselhamento médico, jurídico ou financeiro". Mas sabemos que, na prática, as pessoas confiam — talvez mais do que deveriam.
A confiança é alimentada pela estrutura das respostas: as IAs comunicam de maneira convincente, simulando especialistas humanos. Ao contrário do "Google do passado", que exibia listas de links divergentes, o "Google do presente" — via Gemini e outras plataformas — apresenta respostas diretas, com uma aparência de autoridade e certeza.
É aí que mora o risco. As IAs erram. E seus erros têm formato convincente.
O fenômeno da alucinação ainda é pouco compreendido. Não há explicação completa sobre como as IAs "aprendem" ou como constroem respostas incorretas. Em muitos casos, o modelo apenas "estima" qual é a resposta mais provável com base em padrões de linguagem, e não em fatos confirmados.
Mas há uma diferença crítica entre uma alucinação técnica e o que chamamos aqui de Miragem de Marca: quando uma IA cria ou distorce informações sobre produtos e empresas, os impactos extrapolam o campo técnico.
Um consumidor pode deixar de usar um medicamento seguro, ou evitar um produto, baseado em uma informação falsa criada pela IA. Empresas podem sofrer prejuízos reais. E existe o risco sistêmico de fake news algorítmicas difíceis de rastrear e combater.
Quem é o responsável por isso? Em tese, o desenvolvedor da IA — como a OpenAI, o Google ou a Microsoft. Mas ainda não há definição legal clara sobre essa responsabilidade. Pode ser que a culpa recaia sobre quem forneceu as informações durante o treinamento, ou sobre quem usou a IA de forma inadequada.
De qualquer maneira, o prejudicado pode tentar notificar extrajudicialmente o desenvolvedor, pedindo correção ou explicação sobre a origem do erro. No entanto, essas notificações geralmente não trazem soluções efetivas.
Sem canais formais de correção obrigatória, resta ao prejudicado recorrer ao Judiciário — em processos judiciais que, hoje, são cercados de incertezas. Não temos legislação específica sobre responsabilidade por alucinações de IA. A analogia com o Código de Defesa do Consumidor ou com o Marco Civil da Internet é possível, mas cheia de lacunas.
Agora, o calcanhar de aquiles técnico: como corrigir a informação dentro da IA?
Não existe um botão que apague seletivamente o aprendizado errado. As técnicas atuais, como fine-tuning (ajuste de treinamento), implementação de verificações externas ou uso de sistemas RAG (Retrieval-Augmented Generation), tentam mitigar o problema, mas não garantem solução completa. O aprendizado da IA é baseado em probabilidades, não em verdades fixas.
Portanto, mesmo que houvesse uma decisão judicial ordenando a correção, cumprir essa ordem seria tecnicamente complexo — e difícil de comprovar. Em casos extremos, poderia ser necessário bloquear completamente o uso da IA.
Enquanto isso, o público continua a perguntar para as IAs — e confiar nas respostas. Poucas empresas monitoram o que as inteligências artificiais estão dizendo sobre suas marcas e produtos.
Diante desse cenário, surge a proposta de um novo tipo de monitoramento: o Relatório de Miragem de Marca (RMM).
A ideia é simples: simular perguntas reais que o público faria sobre sua empresa, produtos, concorrentes e setor nas principais plataformas de IA. As respostas devem ser documentadas, erros identificados e potenciais impactos analisados. O relatório serviria de base para ações corretivas e, se necessário, para provas em disputas judiciais.
Além disso, seria preciso implementar um Processo de Reajuste de Percepção (PRP): agir sobre as plataformas, emitir comunicados públicos e publicar materiais que "ensinem" as IAs — mesmo que indiretamente — sobre a informação correta.
Se isso soa exagerado, basta lembrar: há 10 anos, poucos imaginavam que seria necessário gerenciar redes sociais e sites de reclamação. Hoje, isso é rotina corporativa.
O problema vai além. Como os modelos de IA são treinados com dados massivos da internet, existe o risco de data poisoning — o envenenamento de dados. Ou seja, informações falsas estrategicamente plantadas em blogs, fóruns e sites podem ser absorvidas pelas IAs durante o treinamento.
Isso abre espaço para uma silenciosa guerra de informação algorítmica. Empresas mal-intencionadas poderiam induzir as IAs a difundir boatos ou distorções sobre produtos e concorrentes, sem necessidade de ataques diretos.
Embora difícil de provar, a ameaça é real — e o risco, gigantesco.
O maior perigo da inteligência artificial, portanto, não é o apocalipse dos robôs nem o desemprego em massa. É a capacidade de espalhar informações falsas com aparência de neutralidade técnica — sem que ninguém esteja fiscalizando.
Empresas que se anteciparem e criarem mecanismos de monitoramento sairão na frente. Quem ignorar a questão pode ter sua reputação abalada por uma mentira convincente criada por uma máquina.
A realidade é essa. A diferença é que, agora, você sabe.
*Erick Stegun é especialista em Propriedade Intelectual com atuação em direito desportivo, IA e Legal Operations. Gerente na Hypera Pharma, é formado pelo Mackenzie e pós-graduado em PI e Novos Negócios pela FGV. Passou por grandes escritórios de M&A.