Hallucinations des grands modèles de langage : la mémoire manquante

2025-09-10
Hallucinations des grands modèles de langage : la mémoire manquante

L'auteur contraste le traitement de l'information par les humains et les grands modèles de langage (LLM) en relatant une expérience personnelle utilisant une bibliothèque Ruby. Les humains possèdent une mémoire sédimentaire, leur permettant de percevoir l'origine et la fiabilité des connaissances, évitant ainsi les conjectures aléatoires. Les LLM manquent de cette mémoire expérientielle ; leurs connaissances ressemblent à de l'ADN hérité plutôt qu'à des compétences acquises, conduisant à des hallucinations. L'auteur soutient que la résolution des hallucinations des LLM nécessite de nouveaux modèles d'IA capables de « vivre » et d'apprendre du monde réel.

IA