Alucinações de Modelos de Linguagem Grandes: A Memória que Falta
2025-09-10

O autor contrasta o processamento de informações de humanos e modelos de linguagem grandes (LLMs) ao relatar uma experiência pessoal usando uma biblioteca Ruby. Humanos possuem memória sedimentar, permitindo que eles percebam a origem e a confiabilidade do conhecimento, evitando assim palpites aleatórios. LLMs carecem dessa memória experiencial; seu conhecimento se assemelha ao DNA herdado em vez de habilidades adquiridas, levando a alucinações. O autor argumenta que resolver as alucinações de LLM requer novos modelos de IA capazes de "viver" e aprender com o mundo real.
IA