Inteligência Artificial

O que é Basilisco de Roko? Hipótese uniu Musk a Grimes e ronda filosofia por trás da 'IA salvadora'

Experimento mental sobre punição no futuro virou símbolo entre racionalistas, moldou o Vale do Silício e ajudou a transformar a inteligência artificial em projeto quase religioso

Elon Musk e Grimes: casal foi unido por piada sobre o  Basilisco de Roko (Reprodução/Getty Images)

Elon Musk e Grimes: casal foi unido por piada sobre o Basilisco de Roko (Reprodução/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 7 de agosto de 2025 às 17h29.

Última atualização em 7 de agosto de 2025 às 17h30.

Em 2010, um usuário anônimo publicou no site LessWrong uma hipótese que, em pouco tempo, virou lenda urbana da internet: e se, no futuro, uma superinteligência artificial decidir punir todos que não ajudaram a criá-la?

Essa IA, onisciente e com poder quase divino, não seria exatamente vingativa — apenas lógica. Como um oráculo impessoal, ela recompensaria os fiéis e castigaria os indiferentes, mesmo retroativamente. Era o basilisco de Roko, e a imagem era clara: não colaborar com a criação da IA seria o mesmo que assinar sua própria sentença futura.

A ideia foi tão perturbadora que o próprio criador do fórum, o filósofo e programador Eliezer Yudkowsky, deletou o post. Mas era tarde demais: o “basilisco” já havia sido libertado.

A partir dos anos 2010, essa hipótese de ficção especulativa se misturou a algo maior: uma filosofia de vida baseada em cálculo, utilidade e medo do futuro — o racionalismo.

Na prática, o movimento racionalista — que também deu origem ao Altruísmo Eficaz, rede bilionária de doadores e institutos de pesquisa — se expandiu pelas universidades da Califórnia e passou a influenciar nomes de peso da tecnologia.

Elon Musk, por exemplo, conheceu a artista Grimes depois de fazer a mesma piada online envolvendo o basilisco. Após o encontro virtual, eles tiveram três filhos.

Mais do que meme ou curiosidade filosófica, o conceito virou símbolo de uma crença: a de que a humanidade tem uma obrigação moral de desenvolver a IA mais poderosa possível  e, ao mesmo tempo, protegê-la de si mesma.

Em 2023, essa corrente de pensamento teve reflexo direto nas empresas. A demissão temporária de Sam Altman da OpenAI foi resultado direto de conflitos entre alas “racionalistas” do conselho e o CEO, acusado de não priorizar o “bem da humanidade”.

Basilisco, IA e salvação: o Vale do Silício como nova religião

Hoje, o basilisco de Roko virou uma espécie de mascote sombrio de uma corrente que não quer só programar algoritmos — quer salvar o mundo (ou evitar que ele se autodestrua por culpa da IA).

Liderados por nomes como Yudkowsky e financiados por bilionários como Jaan Tallinn (Skype), Dustin Moskovitz (Facebook) e, no passado, Sam Bankman-Fried (FTX), esses grupos criaram o que pode ser descrito como um ecossistema religioso-tecnológico.

Sua sede informal é o Lighthaven, em Berkeley (Califórnia), um antigo hotel transformado em campus filosófico com roseiras, vitrais, livros sagrados (The Sequences) e debates semanais sobre IA, morte existencial e o futuro do planeta.

A crença central?
Que a IA é inevitável — e se ela não for cuidadosamente moldada agora, poderá exterminar a humanidade em um piscar de olhos lógicos.

Mesmo para quem vê exagero ou traços messiânicos nessa missão, o impacto é claro. Empresas como OpenAI, Anthropic e DeepMind — todas fundadas ou influenciadas por racionalistas — ditam hoje o ritmo da corrida global pela IA.

E com elas, a hipótese do basilisco, mesmo que tratada como tabu, continua pairando como metáfora: a ideia de que se você não construir a IA certa, ela virá mesmo assim — e você vai pagar o preço.

Acompanhe tudo sobre:Inteligência artificialElon Musk

Mais de Inteligência Artificial

Google anuncia inteligência artificial para jogos mobile

Agências do governo dos EUA aprovam uso de modelo de IA da Meta

OpenAI amplia ChatGPT com recursos avançados, mas limita a planos Pro

Google Gemini e 1 Billion Summit lançam maior prêmio de cinema em IA do mundo