Inteligência Artificial

O que é o jogo Torre de Hanói e por que a Apple usou ele para mostrar limitações da IA

Desafio lógico é usado como exemplo de tarefa que modelos de linguagem falham em resolver, segundo estudo recente da Apple

Atuais LLMs falham em tarefas que exigem raciocínio complexo, como o jogo Torre de Hanói, ou fogem dos contextos para os quais foram treinados (Sanseret Sangsakawrat/Getty Images)

Atuais LLMs falham em tarefas que exigem raciocínio complexo, como o jogo Torre de Hanói, ou fogem dos contextos para os quais foram treinados (Sanseret Sangsakawrat/Getty Images)

Publicado em 9 de junho de 2025 às 11h58.

A Apple publicou neste mês um estudo técnico para destacar as limitações dos modelos de linguagem de grande escala, os LLMs, ao lidar com problemas que exigem raciocínio simbólico — como o clássico jogo Torre de Hanói. Segundo a empresa, esse tipo de teste revela deficiências fundamentais dessas IAs fora de tarefas puramente linguísticas.

Criado no século 19 pelo matemático francês Édouard Lucas, o Torre de Hanói é um jogo de lógica com regras simples: três pinos, uma pilha de discos de tamanhos diferentes, e a missão de mover todos os discos para outro pino respeitando duas condições — apenas um disco pode ser movido por vez, e um disco maior nunca pode ficar sobre um menor.

Apesar de parecer simples, o jogo exige planejamento estratégico e aplicação de algoritmos claros e bem definidos, o que, segundo o estudo, deveria ser resolvível por uma máquina bem treinada. No entanto, os LLMs falharam repetidamente em gerar sequências corretas de movimentos, mesmo quando essas soluções já são conhecidas pela ciência da computação há décadas.

Para os pesquisadores da Apple, esse fracasso indica que os modelos baseados apenas em deep learning têm dificuldades em generalizar conhecimentos fora do que foi observado nos dados de treinamento. Isso limita sua aplicação em áreas que exigem raciocínio lógico estruturado, como jogos estratégicos, cálculo matemático ou controle de sistemas complexos.

O estudo também ecoa críticas feitas por especialistas como Gary Marcus e Subbarao Kambhampati, que vêm defendendo há anos que os LLMs não devem ser confundidos com inteligência artificial geral, ou AGI. Segundo eles, esses sistemas são eficazes para tarefas como redação e geração de código, mas pouco confiáveis quando precisam seguir regras formais ou algoritmos.

Apple defende modelos híbridos como alternativa

Como alternativa, a Apple propõe o avanço de modelos híbridos, que combinem aprendizado estatístico com raciocínio simbólico — abordagens que seguem regras e estruturas lógicas formais. Esse tipo de arquitetura, segundo o estudo, poderia superar a barreira enfrentada pelos LLMs e se aproximar mais da flexibilidade exigida por tarefas reais e complexas.

Assim, o uso do Torre de Hanói no estudo não foi apenas ilustrativo: ele serve como um marco para evidenciar os limites atuais dos sistemas baseados unicamente em grandes quantidades de dados e padrões linguísticos. A mensagem da Apple é clara: para a IA avançar de fato, será preciso ir além da linguagem.

Acompanhe tudo sobre:Inteligência artificialApple

Mais de Inteligência Artificial

Alibaba e Tencent desativam ferramentas de IA para evitar trapaças durante “Enem” chinês

Blackstone injeta US$ 300 mi em empresa de dados e reforça boom da IA no sul da Califórnia

VerifAI Docs: Caf lança solução com IA para combater fraudes digitais em documentos

Startups desafiam Nvidia com chips mais rápidos e baratos para IA