John Maeda, da Microsoft, usou o doce brasileiro ‘morango do amor’ para explicar conceitos de inteligência artificial ao público (Ag. Enquadrar/Divulgação RIW)
Editora-assistente de Marketing e Projetos Especiais
Publicado em 14 de agosto de 2025 às 01h35.
Última atualização em 14 de agosto de 2025 às 01h43.
No painel 'IA na Cozinha: o que John Maeda tem a dizer vai te surpreender', apresentado no Rio Innovation Week nesta quarta-feira, 13, o vice-presidente de engenharia e head de design computacional para inteligência artificial da Microsoft usou utensílios, brincadeiras e comparações inusitadas para falar sobre tecnologia. Entre elas, o doce brasileiro que viralizou recentemente nas redes sociais, o “morango do amor”, serviu para mostrar como diferentes modelos de IA podem interpretar a mesma informação de maneiras distintas e para explicar por que isso acontece.
O palco, montado como uma cozinha improvisada, foi o cenário para uma explicação prática sobre como os modelos de IA processam dados. Maeda convidou uma voluntária da plateia para interagir com dois sistemas diferentes e perguntou quantas letras “Rs” existem em “strawberry” (“morango”, em inglês). Um modelo respondeu “dois R”; o outro, “três”.
A diferença, explicou, está no fato de que a IA não lê letras, mas vetores, ou seja, representações numéricas de palavras ou conceitos. “Quando você diz ‘R’, o computador não vê a letra. Ele vê uma sequência de números, e isso muda conforme o treinamento”, afirmou. Para tornar a ideia mais visual, comparou essas representações a pedaços de macarrão numa receita: cada palavra é um fio longo que se conecta a outros para formar sentido.
A partir dessa metáfora, Maeda explicou o conceito de embeddings — vetores numéricos que representam palavras, frases ou até documentos inteiros. Mostrou as diferenças entre um modelo mais antigo, o Text Embedding ADA 002, e um mais novo, o Text Embedding 3. O primeiro cria vetores maiores e menos precisos; o segundo, vetores menores e mais eficientes, capazes de identificar relações mais próximas entre termos semelhantes, como “Dublin” e “Irlanda”.
Ele exibiu comparações gráficas para mostrar como um modelo pode considerar essas palavras próximas no espaço vetorial, enquanto outro as vê como distantes. “Isso melhora a capacidade da IA de encontrar a resposta mais útil, porque entende melhor as relações entre conceitos”, disse.
Outro termo técnico traduzido para o público foi o RAG (Retrieval Augmented Generation), uma técnica usada para tornar as respostas mais precisas. Segundo Maeda, o processo é como preparar uma receita escolhendo apenas os melhores ingredientes: a IA “fatia” documentos em partes menores, seleciona os trechos mais relevantes para a pergunta e os insere no contexto da resposta. “É assim que você evita desperdício e melhora o sabor final”, comparou.
Para mostrar como o treinamento molda previsões, Maeda usou o exemplo de um jogo de dados. Ele pediu à plateia para apostar qual número sairia no próximo lançamento. Alguns escolheram números impossíveis no dado comum, como 7 ou 9, e outros, possíveis. A lição, segundo ele, é que tanto humanos quanto modelos de IA fazem “apostas” com base no que já viram e aprenderam.
Em seguida, citou listas de nomes comuns no Brasil e nos Estados Unidos para mostrar como padrões culturais e históricos influenciam previsões. “Se você nasceu nos anos 1960 nos EUA, ‘John’ era um dos nomes mais comuns. No Brasil, ‘José’ e ‘Maria’ estão no topo há décadas”, disse. A lógica, afirmou, é a mesma que um modelo usa para prever palavras: identificar o que é mais provável dentro de um contexto específico.
Maeda intercalou as explicações técnicas com momentos de humor e encenação. O objetivo, segundo ele, é desmistificar a tecnologia. “Quando entendemos como a IA funciona, podemos usá-la de forma mais consciente e crítica”, disse. Ao trazer o público para dentro das metáforas, seja na cozinha, jogando dados ou falando de nomes, buscou mostrar que conceitos aparentemente complexos podem ser compreendidos a partir de experiências cotidianas.
Na parte final do painel, Maeda abordou a evolução dos modelos e o avanço em direção a respostas cada vez mais realistas, a ponto de se tornarem difíceis de diferenciar de conteúdos produzidos por humanos. “Sim, estamos chegando lá. Vai ficar mais difícil distinguir”, afirmou. Ele ponderou, porém, que a importância dessa distinção depende do valor que cada pessoa atribui à autenticidade.
Marcelo Gleiser, físico e astrônomo brasileiro, conversou com John Maeda no Rio Innovation Week sobre ética, educação e impactos culturais da inteligência artificial
Após a apresentação, Maeda conversou com o físico e astrônomo brasileiro Marcelo Gleiser sobre os impactos da inteligência artificial. O bate-papo partiu de uma preocupação comum: como a sociedade vai lidar com uma tecnologia capaz de produzir conteúdos cada vez mais realistas, a ponto de se confundirem com a produção humana.
Maeda disse acreditar que a distinção entre o real e o gerado por IA tende a se tornar cada vez mais difícil. Para ele, a questão central não é apenas identificar a origem, mas decidir o quanto a autenticidade importa em cada contexto. “É uma questão de valor. O que você considera relevante saber se foi feito por uma pessoa ou por uma máquina?”, provocou.
Gleiser destacou o papel da educação na formação de cidadãos capazes de interpretar criticamente esse conteúdo. Maeda concordou e contou que, como professor, já viu tendências preocupantes no uso de IA por estudantes. “No ambiente acadêmico, chatbots podem ajudar, mas também podem criar passividade. É preciso que o estudante use a tecnologia para pensar, não para evitar pensar”, afirmou.
O executivo citou exemplos de transformações tecnológicas passadas que mudaram hábitos e profissões. Lembrou a história de uma estrutura construída nos Estados Unidos no século 19 para abrigar um centro de compra e venda de cavalos — empreendimento obsoleto poucos anos depois, com a chegada dos automóveis. “Toda inovação gera uma força de destruição criativa. Hoje não são cavalos, mas conhecimento e formas de trabalhar que podem ser substituídos”, disse.
Outro ponto discutido foi o impacto geracional. Maeda observou que os mais jovens tendem a experimentar a IA com mais naturalidade e criatividade, enquanto gerações mais velhas priorizam confiança e estabilidade. Para ilustrar, citou uma moda recente em Copenhague: jovens pagando caro por câmeras digitais antigas, mesmo com qualidade de imagem inferior aos smartphones, pela estética e pelo valor cultural. “É uma escolha que não é sobre eficiência, mas sobre significado”, comentou.
O diálogo também abordou riscos de homogeneização cultural. Gleiser alertou que, se não houver diversidade de dados e perspectivas no treinamento dos modelos, as respostas tendem a refletir visões limitadas. Maeda acrescentou que isso reforça a necessidade de “mentalidade construtiva” para usar a IA como ferramenta de criação e não apenas de reprodução.
Ao fim, ambos concordaram que o avanço da IA exige combinar conhecimento técnico com reflexão ética. “Não é só sobre o que a tecnologia pode fazer, mas sobre o que queremos que ela faça por nós”, resumiu Maeda.