Harari vislumbra um cenário em que a IAs vão tomar conta do setor financeiro: “Um dia vai haver um crash e nenhum humano da Terra será capaz de dizer o que raios está acontecendo” (Jakubaszek/Getty Images)
Editora do EXAME IN
Publicado em 19 de agosto de 2025 às 10h11.
Última atualização em 19 de agosto de 2025 às 10h59.
“A burocracia precisa de um bom branding”, disse o historiador Yuval Harari, numa conclusão um tanto quanto inusitada para um questionamento sobre como o mundo, hoje em vertigem, pode recobrar a confiança nas instituições.
Autor dos best-sellers Sapiens, Homo Deus e 21 Lições para o Século 21, Harari esteve em São Paulo neste fim de semana para uma palestra na premiere do SP2B, megafestival de negócios, criatividade e inovação que terá início oficial no próximo ano.
Em paralelo, participou de uma roda de conversa com um pequeno grupo de CEOs, CMOs e executivos de marketing e que o INSIGHT cobriu com exclusividade.
SAIBA ANTES: Receba as notícias do INSIGHT no seu Whatsapp
“Instituições são sistemas enormes e burocráticos que não conseguimos conhecer. Construir confiança nas instituições é construir confiança na burocracia”, afirmou, aproveitando a plateia de marqueteiros para instigá-los para contribuir com o que provavelmente seria o maior rebranding da história: “Precisamos de artistas que contem boas histórias sobre burocracia.”
“É muito fácil produzir um programa de TV sobre os horrores burocráticos. É muito mais difícil construir uma boa história sobre como o sistema burocrático de um hospital salva milhares de pessoas todos os dias”, afirmou.
O argumento é um tanto utópico, mas oferece uma alternativa para o caminho de colapso da civilização que Harari vem apontando, especialmente com a ascensão desenfreada da inteligência artificial.
A tese central do trabalho do historiador é que foi a capacidade de criar histórias e de construir confiança mútua para colaboração em larga escala que diferenciou o homo sapiens dos demais animais.
Agora, em meio à erosão do multilateralismo em paralelo com o avanço tecnológico, ele alerta que estamos terceirizando o que temos de mais humano, ao transferir a confiança e capacidade de criar narrativas das pessoas para os algoritmos.
É um cenário que pode levar a sociedades dominadas por IAs, capazes de criar moedas e até novas religiões, num mundo tão complexo que seria incompreensível para os seres humanos – e, em última instância, poderia levar à extinção.
Na conversa deste domingo, Harari trouxe insights relevantes sobre progresso, tecnologia e especialmente a reconstrução da confiança, propondo tanto um olhar sistêmico, quanto individual para nos livrar dos piores cenários.
Um dos pontos mais notórios de Sapiens é que o dinheiro é a maior história já contada: só vale alguma coisa porque todo mundo acredita nele. E é nesse sentido que Harari defende que o sistema financeiro e os bancos estão entre os mais ameaçados pelo avanço da IA.
“O que um fazendeiro produz? Pode ser, por exemplo, maçãs. Um carpinteiro produz móveis. E os bancos? Eles produzem confiança. Confiança entre estranhos, de que eu posso aplicar minhas economias aqui e mandar para o outro lado do mundo”, afirmou.
A ascensão das criptomoedas, como o bitcoin, seria uma das mostras mais concretas de como as pessoas estão deixando de acreditar em instituições humanas para confiar nos algoritmos.
“Eles confiam mais no algoritmo exatamente porque ele não é humano. O pensamento é: os humanos vão nos enganar, nos manipular, mas os algoritmos não. Se você quer entender a revolução da IA, o melhor lugar para olhar é o sistema financeiro.”
Harari recorreu ao sistema financeiro para ilustrar sua tese de como o mundo dominado por IAs em algum momento vai ficar simplesmente complexo demais.
“Hoje já estamos no momento da história em que a vasta maioria dos humanos no planeta Terra, vamos dizer 99%, não entendem como o sistema financeiro funciona”, afirmou.
Ele relembrou da crise financeira de 2008, em que derivativos criados no mercado imobiliário americano acabaram levando à quebradeira geral em grande parte porque ninguém entendia direito o que estava comprando.
“Em cinco ou dez anos, o número de pessoas que entendem o sistema financeiro será um total de zero. Porque as IAs vão inventar novos instrumentos financeiros ainda mais complexos, milhões de IAs vão interagir entre si e vão muito além do que o cérebro humano é capaz de processar”, vaticinou.
“Um dia vai haver um crash e nenhum humano da Terra será capaz de dizer o que raios está acontecendo”.
E qual o pior cenário para a humanidade até o fim do século? O mais óbvio é a extinção da espécie.
“Não vou te dizer que é muito provável, mas é possível. Foi possível por décadas, desde a criação das armas nucleares. Mas agora está se tornando mais e mais possível, porque antes só tínhamos uma maneira de nos destruirmos, agora você tem um cardápio: escolha a sua forma.”
Para ele, estamos num momento pivotal. “Até o fim do século, vai haver bilhões e bilhões de agentes de IA que vão agir independentemente de nós, sociedades de agentes da IA em todo lugar. Em governos, em finanças, no exército. Que relações vão haver entre IAs e humanos? Depende da nossa posição nos próximos anos.”
Para escapar do pior cenário, Harari volta ao argumento da confiança. “Se desenvolvermos a IA junto nesse cenário de apenas competição entre companhias e competição entre países rivais, isso garante o pior cenário.”
“Viajando o mundo e falando com os líderes da revolução de IA, eles todos dizem a mesma coisa: estamos conscientes do risco. E temos pessoas como Sam Altman e Elon Musk dizendo publicamente: isso pode levar à extinção da humanidade. Então por que vocês estão correndo para desenvolvê-la? Desacelere, vamos achar um jeito seguro.
E todos eles dizem a mesma coisa: eles gostariam de desacelerar. Mas eles têm competidores: se nós desacelerarmos, e outros países não desacelerarem, eles ganham a corrida. Eles vão mandar no mundo. E eles são os maus e nós somos os bons. E você fala com o competidor e eles dizem a mesma coisa. Isso garante o pior cenário.
A IA precisa ser desenvolvida de uma forma mais cooperativa. É claro que existe competição entre países e companhias, mas também há linhas vermelhas. Se eles forem desenvolvidos de uma forma mais colaborativa, então acredito que que vai ser para o bem.”
Evidentemente ele não está muito otimista: “Num mundo como é hoje, com os líderes políticos quase que intencionalmente construindo paredes entre pessoas e países em vez de tentar fomentar confiança e cooperação, isso é extremamente perigoso.”
Para uma situação que parece sufocante porque é sistêmica, o historiador – que flerta muito com a filosofia e é praticamente de meditação – oferece uma perspectiva de contribuição individual.
Segundo ele, na última década, vimos a ascensão de políticos que espalham desconfiança, em grande parte porque muitas pessoas acreditam que a manipulação e a traição são inerentes do ser humano e que o mundo é um jogo de poder.
É um engano. “Comece a olhar para você: estou interessado só em poder? Não, há muitas situações em que eu realmente quero saber a verdade, que eu genuinamente me importo com as pessoas e não só porque isso me traz mais poder. Isso é a vasta maioria das pessoas do mundo, você não é tão especial assim.”
Num mundo dividido e tomado de ódio, ele propôs também um exercício pessoal: “Normalmente há várias maneiras de interpretar o que alguém disse para você – seja em redes, seja pessoalmente – e infelizmente cada vez mais as pessoas vão para a pior interpretação possível. Tente ir para o caminho mais positivo, até que você tenha evidências adicionais de que a pessoa realmente quis dizer a pior coisa.”
“É apenas um exemplo de como podemos começar a mudar a atmosfera apenas com as nossas mentes.”
Dentro desse cenário preocupante, esta repórter não pode deixar de fazer uma pergunta simples: como Harari lida hoje em dia com as ferramentas disponíveis de inteligência artificial?
Um dos riscos antecipados em seus livros e que hoje aparece de maneira cada vez mais palpável no dia a dia é o da perda da autonomia cognitiva, no sentido de que podemos terceirizar cada vez mais a capacidade de pensar para as IAs.
“Tento usar e não ser usada por ela. Ou seja, uso especialmente em áreas em que eu entendo bem. Quando estou fazendo uma pesquisa histórica, por exemplo, eu vou pedir ao ChatGPT para me dar um resumo ou achar detalhes sobre uma guerra, ou esse desenvolvimento na história, porque eu sinto confiança de que se ele se enganar ou me dar uma resposta muito enviesada, eu serei capaz de entender – talvez.”
“Num campo em que eu não entendo nada ou muito pouco, eu serei muito, muito cuidadoso em confiar apenas na IA. Porque lá eu estou completamente rendido.”