Inteligência Artificial

IA da OpenAI já decifra idiomas fictícios sem dados prévios

Modelo supera testes de sintaxe e fonologia com frases inventadas e mostra capacidade metalinguística inédita em sistemas artificiais

Pesquisa foi conduzida por Gašper Beguš e Maksymilian Dąbkowski, da Universidade da Califórnia em Berkeley, e Ryan Rhodes, da Rutgers University (Getty Images)

Pesquisa foi conduzida por Gašper Beguš e Maksymilian Dąbkowski, da Universidade da Califórnia em Berkeley, e Ryan Rhodes, da Rutgers University (Getty Images)

Publicado em 3 de novembro de 2025 às 10h07.

Mesmo com o avanço e os impactos da inteligência artificial generativa na linguagem, grande parte da comunidade linguística sustenta que esses sistemas não são capazes de raciocinar — nem poderiam ser. Para esses especialistas, o entendimento profundo da língua exige mais do que exposição massiva a dados.

No entanto, um estudo recente começa a desafiar essa afirmação. Nele, um modelo de linguagem da OpenAI, o o1, obteve desempenho superior às expectativas em testes sintáticos e fonológicos, demonstrando compreensão metalinguística – a habilidade de refletir sobre a própria estrutura da linguagem.

A pesquisa foi conduzida por Gašper Beguš e Maksymilian Dąbkowski, da Universidade da Califórnia em Berkeley, e Ryan Rhodes, da Rutgers University.

Liderado por Beguš, o estudo usou testes inéditos com sentenças inventadas para evitar que o modelo tivesse memorizado respostas durante o treinamento. O destaque entre os grandes modelos de linguagem (LLMs) analisados foi o o1, da OpenAI. Essa IA chegou a produzir diagramas sintáticos semelhantes aos de um aluno de linguística, reconhecendo estruturas ambíguas e aplicando regras fonológicas, o estudo dos sons da fala.

O o1 também foi capaz de diagramar sentenças com estrutura recursiva – quando frases são inseridas dentro de outras –, uma habilidade considerada por linguistas como Noam Chomsky uma marca distintiva da linguagem humana.

Outro ponto crítico foi a análise de 30 línguas artificiais criadas pelos pesquisadores, com palavras e sons que não existem em idiomas reais, ou seja, com os quais as IAs não poderiam ter sido treinadas. Ainda assim, o o1 identificou padrões fonológicos e descreveu regras com precisão, indicando que seu desempenho não se deve à simples memorização de dados.

Avanços e limites

Para Tom McCoy, linguista computacional da Universidade de Yale, avaliar modelos de linguagem com o mesmo rigor aplicado a humanos pode ajudar a mapear seus limites e capacidades, algo fundamental em um contexto de crescente uso da IA.

Já David Mortensen, da Carnegie Mellon, considera que a IA começa a romper com a noção de que apenas humanos compreendem linguagem em profundidade. Essa nova descoberta indica que ela não apenas prevê estatisticamente a próxima palavra, mas também pode analisar sentenças.

Ainda assim, os pesquisadores destacam que os modelos não são capazes de produzir descobertas originais ou gerar novas teorias linguísticas. Para chegarem ao ponto de ensinar algo que os humanos ainda não sabem, as IAs precisariam da capacidade de generalizar com menos dados e mais criatividade – algo ainda exclusivo da cognição humana.

Acompanhe tudo sobre:Inteligência artificialOpenAIModelos de linguagem

Mais de Inteligência Artificial

Nadella alerta: falta energia, mas não chips, na Microsoft

Microsoft anuncia investimento de US$ 15 bi em IA nos Emirados Árabes

Amazon fecha acordo de US$ 38 bi para turbinar infraestrutura da OpenAI

As IA erram demais? Essa startup recebeu US$ 20 mi para resolver o problema