Revista Exame

Uma IA mais humana

Engenheiro e matemático formado pelo MIT, Sal Khan comanda a Khan Academy, plataforma educacional com mais de 150 milhões de usuários. À EXAME, ele mostra sua visão de sala de aula para o futuro: ambiciosa, mas profundamente centrada no humano

Sal Khan: engenheiro e matemático formado pelo MIT, comanda a Khan Academy (Dai Sugano/MediaNews Group/The Mercury News/Getty Images)

Sal Khan: engenheiro e matemático formado pelo MIT, comanda a Khan Academy (Dai Sugano/MediaNews Group/The Mercury News/Getty Images)

Natalia Viri
Natalia Viri

Editora do EXAME IN

Publicado em 26 de junho de 2025 às 06h00.

Última atualização em 27 de junho de 2025 às 09h43.

Poucas pessoas no mundo estão tão bem posicionadas para discutir o futuro da educação e da inteligência artificial quanto Sal Khan. Engenheiro e matemático formado pelo MIT, Khan fundou em 2008 a Khan Academy, uma plataforma sem fins lucrativos que, de lá para cá, democratizou o acesso ao ensino, atingindo mais de 150 milhões de usuários no mundo, ao oferecer aulas gratuitas de matemática, ciências e dezenas de outras disciplinas.

Ao longo das últimas duas décadas, Khan se tornou uma das vozes mais influentes no debate global sobre educação, especialmente na interseção entre tecnologia e redução de desigualdades. Um dos primeiros a ter acesso ao modelo de IA generativa do GPT-4, ainda no fim de 2022, ele integrou a tecnologia à criação do Khanmigo — o tutor virtual da Khan Academy que já funciona como um experimento real de personalização em larga escala no ensino.

No livro Brave New Words: How AI Will Revolutionize Education (and Why That’s a Good Thing), lançado no começo do ano passado, ele afirma que a inteligência artificial tem potencial para transformar o aprendizado, fortalecer o papel dos professores e reduzir o fosso educacional que separa os mais ricos dos mais pobres.

Khan esteve em São Paulo este mês a convite da Arco Educação. Em entrevista exclusiva à EXAME, ele mostra sua visão de sala de aula para o futuro: ambiciosa, mas profundamente centrada no humano: “A IA não vai substituir professores”, afirma. “Vai ampliar sua humanidade.”

Um medo comum em relação à IA é que podemos acabar perdendo aspectos essenciais da interação humana. Você acha que a educação tradicional é que trata os alunos como robôs, como se eles tivessem necessidades muito padronizadas?

Não acho que seja culpa de ninguém, mas, sim. Durante a maior parte da história da humanidade, a melhor forma de aprendizado era trabalhando com outras pessoas. Na sua tribo, talvez um primo mais velho lhe ensinasse a usar um arco e flecha. Se você fosse da nobreza, teria um tutor que o ensinaria a ler e escrever, ajustando-se ao seu ritmo. Mas foi só há 200 ou 300 anos que surgiu a educação pública, em paralelo com o início da Revolução Industrial, quando aprendemos a produzir em massa, padronizando em linhas de montagem. Tentamos aplicar o mesmo modelo às escolas. Muita coisa positiva aconteceu. As taxas de alfabetização passaram de 20% para 80%, até 100% em muitas partes do mundo. Mas o modelo que temos hoje ainda tem como base esse sistema de séculos atrás. Até o toque do sino a cada hora vem das rotinas das fábricas. Quando as pessoas estão numa sala sem poder falar ou se mover, isso é desumanizante. Os educadores sempre souberam que, idealmente, os alunos deveriam aprender de forma prática e interativa. Mas, se você é um professor com 30 alunos, é difícil sem nenhum tipo de apoio. Minha esperança é que agora possamos oferecer esse apoio escalável e permitir aos professores criar ambientes mais humanos.

Sam Altman, da OpenAI: Khan foi um dos primeiros a ter acesso, ainda em modo teste, ao GPT-4 (Justin Sullivan/Getty Images)

Uma tese central do seu livro é que a IA não substituirá os professores. O que você diria àqueles que têm medo de ser trocados por algoritmos?

Ninguém negaria se eu dissesse a um professor: “Você terá três assistentes de ensino que podem ajudar a corrigir provas, escrever relatórios de progresso, desenvolver planos de aula. Você é o chefe: eles trazem rascunhos, e você decide o que usar”. Ensinar é uma profissão solitária, raramente há alguém para trocar ideias. Com esses assistentes, o professor pode dialogar. Os professores não escolheram essa profissão para dar palestras; escolheram para transformar vidas. Alguns institutos afirmam que o ensino é uma das profissões mais seguras, e eu concordo — mas só se os professores abraçarem o lado humano do trabalho. Se o professor só quiser dar aula expositiva ou corrigir provas, é outra história. A IA não vai substituir os professores, ela vai ampliar sua humanidade.

A Khan Academy tem bastante atuação em comunidades mais vulneráveis, inclusive no Brasil. Qual impacto você tem enxergado?

A tecnologia pode garantir que cada aluno receba o que precisa com ferramentas personalizadas. Se imaginarmos a distribuição dos alunos, o meio funciona para a maioria, porque os professores tendem a focar ali. Mas os que estão muito à frente ou muito atrás acabam entediados ou perdidos. A maior dificuldade é encontrar espaço na grade curricular. No Brasil e em outros lugares, o acesso à tecnologia ainda é um problema. Estivemos com um superintendente de educação no Rio, e lá algumas escolas públicas com 500 alunos têm só cinco ou dez computadores. Sou obviamente tendencioso, mas acredito que escolas e professores são essenciais. Mesmo assim, a melhor forma de potencializá-los é investir um pouco em tecnologia.

Você sustenta que crianças e adolescentes aprendam a entender e a usar IA desde cedo. Como seria um currículo básico de letramento em IA?

Estou escrevendo um novo livro exatamente sobre isto: o que os professores precisam saber e ensinar. Primeiro, não é preciso se tornar pesquisador de IA, mas ter noções básicas do que ela é, seus tipos e o que são modelos generativos. Também é importante entender seus pontos fortes e fracos. Estamos acostumados a computadores sempre estarem certos, mas a IA é mais parecida com os humanos: é capaz de raciocinar, mas às vezes erra. Os alunos precisam desenvolver ceticismo. A IA é um bom ponto de partida para aprender algo, mas você deve verificar, como faria com qualquer outra fonte. Outra habilidade é saber fazer perguntas de acompanhamento. As pessoas não estão acostumadas a perguntar bem, nem com o Google. Mas com a IA você pode dizer: “E neste outro cenário? E se fosse assim?” Isso permite aprofundar muito mais. Prompting também é importante — aprender a guiar a IA para o que você quer que ela seja.

Em seu livro você também menciona riscos: viés, privacidade, dependência excessiva. E existe um desequilíbrio econômico entre as big techs e o setor de educação. Os educadores estão preparados para avaliar as soluções de IA com senso crítico?

Todo dia surgem dez novas startups oferecendo soluções de IA. Meu conselho é trabalhar com organizações confiáveis. Organizações sem fins lucrativos, como a Khan Academy, são importantes: não vendemos dados, priorizamos a privacidade e a segurança, e somos construídos para a estabilidade. Toda ferramenta deveria ter transparência e supervisão independente. Não acho que isso precise vir só dos governos, porque a tecnologia evolui muito rápido, e os governos podem ter dificuldade para acompanhar. Mas todo distrito escolar deve garantir que qualquer ferramenta usada cumpra certos padrões: segurança de dados, proibição de uso comercial dos dados dos alunos, alertas caso os estudantes usem a IA de forma indevida, e verificação independente de que o feedback pedagógico seja sólido. Por exemplo, usamos revisores humanos para corrigir as redações dos alunos e verificar se o feedback da IA corresponde ao que um avaliador treinado diria, porque às vezes a IA pode fingir competência. Você pode pedir um plano de aula e ela gera algo que parece bom, mas que não está alinhado com os objetivos reais de aprendizado. Também é preciso questionar os fornecedores: “Como vocês sabem que não há viés na sua IA? Como sabem que o feedback dela é bom?” É aí que professores, pais e educadores precisam continuar envolvidos.

Uma das principais críticas que você recebeu foi que seu livro era otimista demais. Um ano depois, com o GPT-4 e afins amplamente usados, você está mais animado ou assustado?

Ambos, na mesma proporção. Quando vi o GPT-4 pela primeira vez, pensei: “Isso vai mudar tudo”. Mas também fiquei assustado: com fraudes, vigilância, deep­fakes, desinformação e drones assassinos. É assustador. Ao mesmo tempo, estou animado. Podemos curar em apenas dez anos doenças que achávamos que levariam 100. Entenderemos melhor o cérebro humano, algo que imaginávamos demorar 500 anos. Carros autônomos vão ajudar idosos e crianças. Educação, ciência, matemática — há muito com o que se entusiasmar. Mas não temos escolha senão sermos otimistas. Se formos paralisados pelo medo, deixaremos o futuro nas mãos dos maus atores, que vão fazer e já estão fazendo uso da tecnologia. Precisamos ser inteligentes, nos protegermos contra riscos reais e focar as possibilidades positivas: curar doenças, educar pessoas, criar novas formas de arte, explorar o cosmos. Este é um dos momentos decisivos da história humana, como o fogo, as ferramentas, a agricultura, a escrita, a imprensa, a industrialização — mas ainda maior.


Acompanhe tudo sobre:1276

Mais de Revista Exame

Estagnado há 4 décadas, Japão vê novo obstáculo com tarifas de Trump

Um bilhão para casar: o mundo do bilionário casamento indiano

Einstein reduz 60% das emissões com energia eólica e engaja 3 mil fornecedores em ESG

Avião e feijão: Brasil e Índia podem aumentar parcerias em defesa e no agro, diz embaixador