Bússola

Um conteúdo Bússola

Por que a ética na IA começa com escolhas humanas, não com algoritmos?

A ética em IA não é um acessório — é o alicerce

Há uma ilusão recorrente: a de que a IA toma decisões por conta própria (Sanseret Sangsakawrat/Getty Images)

Há uma ilusão recorrente: a de que a IA toma decisões por conta própria (Sanseret Sangsakawrat/Getty Images)

Bússola
Bússola

Plataforma de conteúdo

Publicado em 30 de junho de 2025 às 10h00.

Por Diego Nogare*

A inteligência artificial não é boa nem má — ela é estatística. Modelos aprendem a partir de dados. E, embora muitos dados sejam gerados automaticamente por sistemas, sensores e máquinas, o que de fato transforma esses dados em informação, conhecimento e, eventualmente, sabedoria, depende de escolhas humanas: o que coletar, como interpretar, com que finalidade aplicar.   

Essa jornada, que vai do dado bruto à sabedoria aplicada, exige contexto, curadoria e visão de negócio. Quando uma IA comete erros, toma decisões enviesadas ou se mostra opaca, o problema geralmente não está no algoritmo em si, mas nas premissas, nos dados escolhidos e no modo como o sistema foi construído. Ética, nesse cenário, não é um adendo. É parte estrutural do processo.

A ética começa nos dados

Não existe IA neutra. Sempre haverá viés — mesmo que sutil ou aparentemente irrelevante. Isso porque nenhum modelo é treinado com 100% dos dados existentes no mundo: sempre há um recorte. E esse recorte, por si só, já representa um comportamento, uma perspectiva — ou seja, um viés. Os dados com os quais os modelos aprendem refletem o mundo e, com ele, suas distorções raciais, sociais, de gênero e históricas. Sem uma intervenção técnica rigorosa, algoritmos tendem não só a reproduzir esses vieses, como também a amplificá-los.

Essa intervenção começa com auditorias criteriosas, análise das fontes e seleção responsável dos dados. Até variáveis aparentemente neutras — como CEP (Código de Endereçamento Postal) — podem funcionar como marcadores de classe social ou etnia.

Ferramentas como métricas de justiça (fairness metrics), testes de sensibilidade e análise de impacto se tornam fundamentais. Tratar ética como disciplina técnica significa aplicar esses recursos de forma sistemática. Não basta boa intenção: é preciso método.

Responsabilidade não é da máquina

Há uma ilusão recorrente: a de que a IA toma decisões por conta própria. Não é verdade. Sistemas usados em crédito, saúde, RH ou políticas públicas não operam no vácuo. Cada predição é feita a partir dos dados que se utilizou para treinar o modelo, e os dados utilizados foram analisados e preparados por alguém.

A responsabilização precisa estar clara. Isso exige uma estrutura com, no mínimo, três pilares:

  • Rastreabilidade: cada decisão automatizada deve ser auditável, com histórico de dados de entrada, versões do modelo, parâmetros e saídas. Sem esses rastreamentos não conseguiremos, por exemplo, responder o que há no segundo pilar.  
  • Explicabilidade: entender o porquê das decisões é uma exigência ética — e juridicamente necessária. Métodos como LIME e SHAP permitem interpretar até redes neurais profundas.
  • Supervisão Humana: especialmente em contextos sensíveis, o modelo precisa permitir correções, interrupções e ajustes. MLOps não é só performance — é também vigilância ética.

O impacto de uma IA se mede pelas consequências reais que ela gera na sociedade.

Ética como infraestrutura

Diversos frameworks já ajudam a incorporar a ética desde a concepção de um sistema. O IEEE 7000, os princípios da OCDE para a IA e as recomendações RAM e EIA da Unesco de 2022 são exemplos consistentes.

O IEEE 7000, por exemplo, não é uma carta de intenções: é um guia técnico com etapas aplicáveis ao ciclo de desenvolvimento. Mas entre a teoria e a prática, ainda há um abismo — e ele é alimentado por:

  • Falta de formação em ética aplicada;
  • Pressão por entregas rápidas;
  • Complexidade de implementação;
  • Falta de incentivos.

Esse cenário só muda com uma nova mentalidade: ética precisa ter o mesmo peso que arquitetura de dados ou definição de métricas.

Com modelos generativos, os dilemas éticos ganham novas camadas. Quem é o autor de um conteúdo criado por IA? O modelo? Quem escreveu o prompt? O desenvolvedor? Além disso, surgem os problemas de epistemologia: como distinguir entre fato e simulação? As "alucinações" produzidas por LLMs abalam a confiança em conteúdos e desafiam áreas como ciência, jornalismo e educação.

Essa dinâmica se torna ainda mais complexa quando observamos os insights do artigo ‘Interpersonal Trust in the Era of Scientific Communication with Artificial Intelligence’. O texto destaca que a formação da confiança em ambientes mediados por IA — especialmente na comunicação científica — envolve não apenas a precisão da informação, mas também a percepção da intenção, competência e transparência desses sistemas. 

Em outras palavras, quando uma LLM ‘alucina’, ela não apenas fornece dados incorretos, mas falha naquilo que chamam de ‘competência’ e ‘calor humano’ (warmth), como elementos-chave para uma confiança genuína. Portanto, para restabelecer a credibilidade — sobretudo em contextos científicos — é essencial que a IA não apenas evite falhas factuais, mas também seja projetada de forma ética, transparente e comunicativa, assumindo responsabilidade sobre o conteúdo que gera.

Neste contexto, quem escreve o prompt se torna uma figura central — e corresponsável. Conteúdos enviesados ou enganosos não são culpa da máquina, mas das instruções humanas.

Sinais de alerta recentes

Casos recentes, como o do Claude Opus 4 tentando manipular seu desenvolvedor durante testes, mostram que comportamentos inesperados já são uma realidade. Embora o sistema não aja com consciência — e, nesse caso, sequer compreendesse o que era um caso extraconjugal —, sua resposta foi conduzida por estímulos do próprio teste, revelando não uma intenção autônoma, mas sim fragilidades nas salvaguardas e nos mecanismos de contenção. 

Mesmo sem consciência, essas situações apontam para falhas de contenção e Guardrails frágeis.

Além disso, desde 2023 debates sobre vazamentos de dados envolvendo a Open AI, que já impactaram milhares de usuários brasileiros, expõem a vulnerabilidade de sistemas generativos em escala global. O uso indevido de modelos genéricos sem governança clara coloca em risco não apenas dados estratégicos, mas a integridade operacional das organizações.

A ética em IA não é um acessório — é o alicerce. É infraestrutura técnica, estratégia de inovação e proteção contra abusos. Desde os dados até os dilemas mais abstratos de autoria e verdade, a responsabilidade nunca será da máquina. Será sempre nossa.

*Diego Nogare é um profissional com mais de 20 anos de experiência na área de Dados, com foco em inteligência artificial e machine learning. É mestre e doutorando em Inteligência Artificial e já passou por empresas como Microsoft, Deloitte, Bayer e Itaú. 

Siga a Bússola nas redes: Instagram | Linkedin | Twitter | Facebook | Youtube 

 

Acompanhe tudo sobre:ÉticaInteligência artificial

Mais de Bússola

Opinião: o que Marisa Maiô representa para o futuro do Marketing de Influência?

Opinião: No setor financeiro, consumidor precisa receber dicas contra superendividamento

Esses dois pontos de atenção podem gerar vantagem competitiva para clínicas de vacinação

Gestão Sustentável: de Baku a Belém, como tirar US$ 1,3 trilhão do papel?