Carreira

Confiança em tempos de código: para quem a IA trabalha?

Nos bastidores da inovação no SXSW London, líderes da Unilever, Google, Free Free e grandes veículos discutem como intencionalidade, diversidade e ética definem quem realmente escreve o código da confiança

Inteligência Artificial nos negócios (Envato Divulgação)

Inteligência Artificial nos negócios (Envato Divulgação)

Oficina Consultoria
Oficina Consultoria

Autor colaborador

Publicado em 25 de junho de 2025 às 08h00.

Em dois dos painéis mais densos do SXSW London, nomes como Tati Lindenberg (Unilever), Yasmine McDougall Sterea (Free Free), Keyun Ruan (Google), Anna Bateson (The Guardian), Katherine Maher (NPR) e Rebecca Hutson (The News Movement) colocaram em xeque a pergunta que atravessa empresas, mídia e conselhos com ambição de futuro: quem escreve o código da confiança?

A resposta, como ficou claro ao longo das conversas, não está na tecnologia em si, mas em quem a projeta, para quem e com qual intenção.

Como lembrou a cientista da computação e CISO da Google, Keyun Ruan: “A tecnologia não decide como vai impactar a sociedade. Ela é projetada a partir do olhar sobre a sociedade.” Ou seja, não é apenas sobre inovação, é sobre consciência de quem inova.

Yasmine Sterea reforçou esse ponto ao dizer que o maior ativo do ser humano é a criatividade. A frase resume o papel da autenticidade em tempos de automação. Criatividade com propósito virou diferencial competitivo e não apenas ativo simbólico.

Tati Lindenberg, da Unilever, trouxe o ponto da profundidade emocional no design de experiências: “como criar experiências que priorizem a profundidade, e não apenas a dopamina?” A fala articula a tensão entre performance algorítmica e conexões humanas reais. Em vez de perseguir cliques, likes e retenção, é hora de buscar impacto com intencionalidade.

A IA é, ao mesmo tempo, exaustiva e fascinante

Essa frase encapsula o paradoxo da nossa relação com a IA: ela empolga e esgota, ao mesmo tempo. A velocidade da adoção, os dilemas éticos, os vieses embutidos, a mudança nas relações humanas, tudo isso pressiona empresas, regulações e também a nossa sanidade. Exemplo? O fenômeno das parasocial relationships com chatbots, quando humanos projetam vínculos emocionais com IAs. A pergunta que fica: vamos desenhar bots éticos e transparentes ou deixar que os algoritmos mais populares ocupem esse espaço emocional sem curadoria?

Confiança se constrói no processo, não só na entrega. 

Os dois painéis apontaram na mesma direção: transparência é estrutura de governança, não detalhe operacional. A quebra de confiança institucional, alertaram as painelistas, não se deve à audiência. É fruto de décadas de narrativas enviesadas, pouca diversidade e baixa escuta. Hoje, confiança é horizontal, relacional e nasce da coerência entre discurso e ação.

O papel da IA? Dar escala à consciência, não ao viés

A pergunta que pairou no ar foi: estamos usando IA para amplificar boas vozes ou para replicar os mesmos vieses em escala global? A governança da IA começa nos dados, passa pelo design, e exige intenção. Como lembrou Keyun Ruan, "a ausência de determinadas vozes no treinamento dos modelos não é um detalhe técnico é um reflexo das ausências da sociedade."

O futuro da confiança é coletivo

Tecnologia sem consciência é potência sem direção. O que os painéis deixaram claro é que inovação, hoje, exige mais do que eficiência: exige responsabilidade, diversidade e intenção ética no centro da estratégia. Porque no fim, quem escreve o código da confiança não é o sistema. Somos nós.

 

* Ana Paula Zamper é conselheira da Oficina Consultoria, tech expert e diretora do curso de Inteligência Artificial para C-Levels da Exame|Saint Paul. 

Acompanhe tudo sobre:Branded Marketing

Mais de Carreira

Brasil tem 2 milhões de jovens em empregos verdes - mas falta capacitação, aponta Unicef

Três prompts do ChatGPT que desbloqueiam o modo ‘tomador de decisões’ na ferramenta

5 profissões para quem é fã de Ficção Científica e Fantasia

Não tome decisões no escuro: use esses comandos no ChatGPT para simular decisões difíceis