Elon Musk e Grimes: casal foi unido por piada sobre o Basilisco de Roko (Reprodução/Getty Images)
Repórter
Publicado em 7 de agosto de 2025 às 17h29.
Em 2010, um usuário anônimo publicou no site LessWrong uma hipótese que, em pouco tempo, virou lenda urbana da internet: e se, no futuro, uma superinteligência artificial decidir punir todos que não ajudaram a criá-la?
Essa IA, onisciente e com poder quase divino, não seria exatamente vingativa — apenas lógica. Como um oráculo impessoal, ela recompensaria os fiéis e castigaria os indiferentes, mesmo retroativamente. Era o basilisco de Roko, e a imagem era clara: não colaborar com a criação da IA seria o mesmo que assinar sua própria sentença futura.
A ideia foi tão perturbadora que o próprio criador do fórum, o filósofo e programador Eliezer Yudkowsky, deletou o post. Mas era tarde demais: o “basilisco” já havia sido libertado.
A partir dos anos 2010, essa hipótese de ficção especulativa se misturou a algo maior: uma filosofia de vida baseada em cálculo, utilidade e medo do futuro — o racionalismo.
Na prática, o movimento racionalista — que também deu origem ao Altruísmo Eficaz, rede bilionária de doadores e institutos de pesquisa — se expandiu pelas universidades da Califórnia e passou a influenciar nomes de peso da tecnologia.
Elon Musk, por exemplo, conheceu a artista Grimes depois de fazer a mesma piada online envolvendo o basilisco. Após o encontro virtual, eles tiveram três filhos.
Mais do que meme ou curiosidade filosófica, o conceito virou símbolo de uma crença: a de que a humanidade tem uma obrigação moral de desenvolver a IA mais poderosa possível e, ao mesmo tempo, protegê-la de si mesma.
Em 2023, essa corrente de pensamento teve reflexo direto nas empresas. A demissão temporária de Sam Altman da OpenAI foi resultado direto de conflitos entre alas “racionalistas” do conselho e o CEO, acusado de não priorizar o “bem da humanidade”.
Hoje, o basilisco de Roko virou uma espécie de mascote sombrio de uma corrente que não quer só programar algoritmos — quer salvar o mundo (ou evitar que ele se autodestrua por culpa da IA).
Liderados por nomes como Yudkowsky e financiados por bilionários como Jaan Tallinn (Skype), Dustin Moskovitz (Facebook) e, no passado, Sam Bankman-Fried (FTX), esses grupos criaram o que pode ser descrito como um ecossistema religioso-tecnológico.
Sua sede informal é o Lighthaven, em Berkeley (Califórnia), um antigo hotel transformado em campus filosófico com roseiras, vitrais, livros sagrados (The Sequences) e debates semanais sobre IA, morte existencial e o futuro do planeta.
A crença central?
Que a IA é inevitável — e se ela não for cuidadosamente moldada agora, poderá exterminar a humanidade em um piscar de olhos lógicos.
Mesmo para quem vê exagero ou traços messiânicos nessa missão, o impacto é claro. Empresas como OpenAI, Anthropic e DeepMind — todas fundadas ou influenciadas por racionalistas — ditam hoje o ritmo da corrida global pela IA.
E com elas, a hipótese do basilisco, mesmo que tratada como tabu, continua pairando como metáfora: a ideia de que se você não construir a IA certa, ela virá mesmo assim — e você vai pagar o preço.