Há uma ilusão recorrente: a de que a IA toma decisões por conta própria (Sanseret Sangsakawrat/Getty Images)
Plataforma de conteúdo
Publicado em 30 de junho de 2025 às 10h00.
Por Diego Nogare*
A inteligência artificial não é boa nem má — ela é estatística. Modelos aprendem a partir de dados. E, embora muitos dados sejam gerados automaticamente por sistemas, sensores e máquinas, o que de fato transforma esses dados em informação, conhecimento e, eventualmente, sabedoria, depende de escolhas humanas: o que coletar, como interpretar, com que finalidade aplicar.
Essa jornada, que vai do dado bruto à sabedoria aplicada, exige contexto, curadoria e visão de negócio. Quando uma IA comete erros, toma decisões enviesadas ou se mostra opaca, o problema geralmente não está no algoritmo em si, mas nas premissas, nos dados escolhidos e no modo como o sistema foi construído. Ética, nesse cenário, não é um adendo. É parte estrutural do processo.
Não existe IA neutra. Sempre haverá viés — mesmo que sutil ou aparentemente irrelevante. Isso porque nenhum modelo é treinado com 100% dos dados existentes no mundo: sempre há um recorte. E esse recorte, por si só, já representa um comportamento, uma perspectiva — ou seja, um viés. Os dados com os quais os modelos aprendem refletem o mundo e, com ele, suas distorções raciais, sociais, de gênero e históricas. Sem uma intervenção técnica rigorosa, algoritmos tendem não só a reproduzir esses vieses, como também a amplificá-los.
Essa intervenção começa com auditorias criteriosas, análise das fontes e seleção responsável dos dados. Até variáveis aparentemente neutras — como CEP (Código de Endereçamento Postal) — podem funcionar como marcadores de classe social ou etnia.
Ferramentas como métricas de justiça (fairness metrics), testes de sensibilidade e análise de impacto se tornam fundamentais. Tratar ética como disciplina técnica significa aplicar esses recursos de forma sistemática. Não basta boa intenção: é preciso método.
Há uma ilusão recorrente: a de que a IA toma decisões por conta própria. Não é verdade. Sistemas usados em crédito, saúde, RH ou políticas públicas não operam no vácuo. Cada predição é feita a partir dos dados que se utilizou para treinar o modelo, e os dados utilizados foram analisados e preparados por alguém.
A responsabilização precisa estar clara. Isso exige uma estrutura com, no mínimo, três pilares:
O impacto de uma IA se mede pelas consequências reais que ela gera na sociedade.
Diversos frameworks já ajudam a incorporar a ética desde a concepção de um sistema. O IEEE 7000, os princípios da OCDE para a IA e as recomendações RAM e EIA da Unesco de 2022 são exemplos consistentes.
O IEEE 7000, por exemplo, não é uma carta de intenções: é um guia técnico com etapas aplicáveis ao ciclo de desenvolvimento. Mas entre a teoria e a prática, ainda há um abismo — e ele é alimentado por:
Esse cenário só muda com uma nova mentalidade: ética precisa ter o mesmo peso que arquitetura de dados ou definição de métricas.
Com modelos generativos, os dilemas éticos ganham novas camadas. Quem é o autor de um conteúdo criado por IA? O modelo? Quem escreveu o prompt? O desenvolvedor? Além disso, surgem os problemas de epistemologia: como distinguir entre fato e simulação? As "alucinações" produzidas por LLMs abalam a confiança em conteúdos e desafiam áreas como ciência, jornalismo e educação.
Essa dinâmica se torna ainda mais complexa quando observamos os insights do artigo ‘Interpersonal Trust in the Era of Scientific Communication with Artificial Intelligence’. O texto destaca que a formação da confiança em ambientes mediados por IA — especialmente na comunicação científica — envolve não apenas a precisão da informação, mas também a percepção da intenção, competência e transparência desses sistemas.
Em outras palavras, quando uma LLM ‘alucina’, ela não apenas fornece dados incorretos, mas falha naquilo que chamam de ‘competência’ e ‘calor humano’ (warmth), como elementos-chave para uma confiança genuína. Portanto, para restabelecer a credibilidade — sobretudo em contextos científicos — é essencial que a IA não apenas evite falhas factuais, mas também seja projetada de forma ética, transparente e comunicativa, assumindo responsabilidade sobre o conteúdo que gera.
Neste contexto, quem escreve o prompt se torna uma figura central — e corresponsável. Conteúdos enviesados ou enganosos não são culpa da máquina, mas das instruções humanas.
Casos recentes, como o do Claude Opus 4 tentando manipular seu desenvolvedor durante testes, mostram que comportamentos inesperados já são uma realidade. Embora o sistema não aja com consciência — e, nesse caso, sequer compreendesse o que era um caso extraconjugal —, sua resposta foi conduzida por estímulos do próprio teste, revelando não uma intenção autônoma, mas sim fragilidades nas salvaguardas e nos mecanismos de contenção.
Mesmo sem consciência, essas situações apontam para falhas de contenção e Guardrails frágeis.
Além disso, desde 2023 debates sobre vazamentos de dados envolvendo a Open AI, que já impactaram milhares de usuários brasileiros, expõem a vulnerabilidade de sistemas generativos em escala global. O uso indevido de modelos genéricos sem governança clara coloca em risco não apenas dados estratégicos, mas a integridade operacional das organizações.
A ética em IA não é um acessório — é o alicerce. É infraestrutura técnica, estratégia de inovação e proteção contra abusos. Desde os dados até os dilemas mais abstratos de autoria e verdade, a responsabilidade nunca será da máquina. Será sempre nossa.
*Diego Nogare é um profissional com mais de 20 anos de experiência na área de Dados, com foco em inteligência artificial e machine learning. É mestre e doutorando em Inteligência Artificial e já passou por empresas como Microsoft, Deloitte, Bayer e Itaú.
Siga a Bússola nas redes: Instagram | Linkedin | Twitter | Facebook | Youtube