Marketing

John Maeda usa ‘morango do amor’ para explicar inteligência artificial no Rio Innovation Week

Painel do executivo da Microsoft misturou humor e metáforas para mostrar como a IA processa informações e levantou debate com Marcelo Gleiser sobre gerações, ética e educação

John Maeda, da Microsoft, usou o doce brasileiro ‘morango do amor’ para explicar conceitos de inteligência artificial ao público  (Ag. Enquadrar/Divulgação RIW)

John Maeda, da Microsoft, usou o doce brasileiro ‘morango do amor’ para explicar conceitos de inteligência artificial ao público (Ag. Enquadrar/Divulgação RIW)

Juliana Pio
Juliana Pio

Editora-assistente de Marketing e Projetos Especiais

Publicado em 14 de agosto de 2025 às 01h35.

Última atualização em 14 de agosto de 2025 às 01h43.

Tudo sobreRio Innovation
Saiba mais

No painel 'IA na Cozinha: o que John Maeda tem a dizer vai te surpreender', apresentado no Rio Innovation Week nesta quarta-feira, 13, o vice-presidente de engenharia e head de design computacional para inteligência artificial da Microsoft usou utensílios, brincadeiras e comparações inusitadas para falar sobre tecnologia. Entre elas, o doce brasileiro que viralizou recentemente nas redes sociais, o “morango do amor”, serviu para mostrar como diferentes modelos de IA podem interpretar a mesma informação de maneiras distintas e para explicar por que isso acontece.

O palco, montado como uma cozinha improvisada, foi o cenário para uma explicação prática sobre como os modelos de IA processam dados. Maeda convidou uma voluntária da plateia para interagir com dois sistemas diferentes e perguntou quantas letras “Rs” existem em “strawberry” (“morango”, em inglês). Um modelo respondeu “dois R”; o outro, “três”.

A diferença, explicou, está no fato de que a IA não lê letras, mas vetores, ou seja, representações numéricas de palavras ou conceitos. “Quando você diz ‘R’, o computador não vê a letra. Ele vê uma sequência de números, e isso muda conforme o treinamento”, afirmou. Para tornar a ideia mais visual, comparou essas representações a pedaços de macarrão numa receita: cada palavra é um fio longo que se conecta a outros para formar sentido.

A partir dessa metáfora, Maeda explicou o conceito de embeddings — vetores numéricos que representam palavras, frases ou até documentos inteiros. Mostrou as diferenças entre um modelo mais antigo, o Text Embedding ADA 002, e um mais novo, o Text Embedding 3. O primeiro cria vetores maiores e menos precisos; o segundo, vetores menores e mais eficientes, capazes de identificar relações mais próximas entre termos semelhantes, como “Dublin” e “Irlanda”.

Ele exibiu comparações gráficas para mostrar como um modelo pode considerar essas palavras próximas no espaço vetorial, enquanto outro as vê como distantes. “Isso melhora a capacidade da IA de encontrar a resposta mais útil, porque entende melhor as relações entre conceitos”, disse.

Outro termo técnico traduzido para o público foi o RAG (Retrieval Augmented Generation), uma técnica usada para tornar as respostas mais precisas. Segundo Maeda, o processo é como preparar uma receita escolhendo apenas os melhores ingredientes: a IA “fatia” documentos em partes menores, seleciona os trechos mais relevantes para a pergunta e os insere no contexto da resposta. “É assim que você evita desperdício e melhora o sabor final”, comparou.

Para mostrar como o treinamento molda previsões, Maeda usou o exemplo de um jogo de dados. Ele pediu à plateia para apostar qual número sairia no próximo lançamento. Alguns escolheram números impossíveis no dado comum, como 7 ou 9, e outros, possíveis. A lição, segundo ele, é que tanto humanos quanto modelos de IA fazem “apostas” com base no que já viram e aprenderam.

Em seguida, citou listas de nomes comuns no Brasil e nos Estados Unidos para mostrar como padrões culturais e históricos influenciam previsões. “Se você nasceu nos anos 1960 nos EUA, ‘John’ era um dos nomes mais comuns. No Brasil, ‘José’ e ‘Maria’ estão no topo há décadas”, disse. A lógica, afirmou, é a mesma que um modelo usa para prever palavras: identificar o que é mais provável dentro de um contexto específico.

Maeda intercalou as explicações técnicas com momentos de humor e encenação. O objetivo, segundo ele, é desmistificar a tecnologia. “Quando entendemos como a IA funciona, podemos usá-la de forma mais consciente e crítica”, disse. Ao trazer o público para dentro das metáforas, seja na cozinha, jogando dados ou falando de nomes, buscou mostrar que conceitos aparentemente complexos podem ser compreendidos a partir de experiências cotidianas.

Na parte final do painel, Maeda abordou a evolução dos modelos e o avanço em direção a respostas cada vez mais realistas, a ponto de se tornarem difíceis de diferenciar de conteúdos produzidos por humanos. “Sim, estamos chegando lá. Vai ficar mais difícil distinguir”, afirmou. Ele ponderou, porém, que a importância dessa distinção depende do valor que cada pessoa atribui à autenticidade.

Marcelo Gleiser, físico e astrônomo brasileiro, conversou com John Maeda no Rio Innovation Week sobre ética, educação e impactos culturais da inteligência artificial

Diálogo sobre ética e futuro da IA

Após a apresentação, Maeda conversou com o físico e astrônomo brasileiro Marcelo Gleiser sobre os impactos da inteligência artificial. O bate-papo partiu de uma preocupação comum: como a sociedade vai lidar com uma tecnologia capaz de produzir conteúdos cada vez mais realistas, a ponto de se confundirem com a produção humana.

Maeda disse acreditar que a distinção entre o real e o gerado por IA tende a se tornar cada vez mais difícil. Para ele, a questão central não é apenas identificar a origem, mas decidir o quanto a autenticidade importa em cada contexto. “É uma questão de valor. O que você considera relevante saber se foi feito por uma pessoa ou por uma máquina?”, provocou.

Gleiser destacou o papel da educação na formação de cidadãos capazes de interpretar criticamente esse conteúdo. Maeda concordou e contou que, como professor, já viu tendências preocupantes no uso de IA por estudantes. “No ambiente acadêmico, chatbots podem ajudar, mas também podem criar passividade. É preciso que o estudante use a tecnologia para pensar, não para evitar pensar”, afirmou.

O executivo citou exemplos de transformações tecnológicas passadas que mudaram hábitos e profissões. Lembrou a história de uma estrutura construída nos Estados Unidos no século 19 para abrigar um centro de compra e venda de cavalos — empreendimento obsoleto poucos anos depois, com a chegada dos automóveis. “Toda inovação gera uma força de destruição criativa. Hoje não são cavalos, mas conhecimento e formas de trabalhar que podem ser substituídos”, disse.

Outro ponto discutido foi o impacto geracional. Maeda observou que os mais jovens tendem a experimentar a IA com mais naturalidade e criatividade, enquanto gerações mais velhas priorizam confiança e estabilidade. Para ilustrar, citou uma moda recente em Copenhague: jovens pagando caro por câmeras digitais antigas, mesmo com qualidade de imagem inferior aos smartphones, pela estética e pelo valor cultural. “É uma escolha que não é sobre eficiência, mas sobre significado”, comentou.

O diálogo também abordou riscos de homogeneização cultural. Gleiser alertou que, se não houver diversidade de dados e perspectivas no treinamento dos modelos, as respostas tendem a refletir visões limitadas. Maeda acrescentou que isso reforça a necessidade de “mentalidade construtiva” para usar a IA como ferramenta de criação e não apenas de reprodução.

Ao fim, ambos concordaram que o avanço da IA exige combinar conhecimento técnico com reflexão ética. “Não é só sobre o que a tecnologia pode fazer, mas sobre o que queremos que ela faça por nós”, resumiu Maeda.

Acompanhe tudo sobre:Rio InnovationInteligência artificial

Mais de Marketing

Exclusivo: com TikTok Shop, Boca Rosa e outros creators vendem 2x mais que no e-commerce tradicional

Como as indústrias de bebidas e alimentos estão se conectando com a geração Z

Por que a ascensão da React Economy está sufocando o jornalismo?

Esse é o melhor caminho para quem quer trabalhar com marketing digital e não sabe por onde começar