Du Hype de l'IA aux Chaînes de Markov : Un Retour aux Fondamentaux

2025-09-24
Du Hype de l'IA aux Chaînes de Markov : Un Retour aux Fondamentaux

L'auteur raconte son parcours à travers les quatre étapes du cycle d'engouement pour l'IA concernant les grands modèles de langage : émerveillement initial, frustration ultérieure, confusion persistante et ennui final. Fatigué du flux constant de nouveaux modèles, l'auteur a décidé de revenir aux fondamentaux et d'explorer les chaînes de Markov. L'article détaille comment construire une fonction d'autocomplétion de texte à l'aide de chaînes de Markov, en couvrant la construction de matrices de transition, les calculs de probabilité et l'application à la génération de texte. Cet article explore non seulement les principes des chaînes de Markov, mais reflète également les réflexions de l'auteur sur l'état actuel du développement de l'IA et son désir d'explorer des technologies plus fondamentales.

Lire plus
IA

Logiciel Local-First : Une Évolutivité Sans Souci

2025-07-05

Harper, un correcteur grammatical local-first, a connu une augmentation massive d'utilisateurs après avoir atteint la page d'accueil de Hacker News. Contrairement aux logiciels dépendants du serveur, Harper s'exécute sur l'appareil de l'utilisateur, éliminant ainsi les problèmes de charge du serveur. Même avec l'afflux d'utilisateurs, il n'y a eu aucun problème ni aucun retard. Cela souligne l'avantage d'évolutivité du logiciel local-first, évitant les coûts élevés de maintenance des serveurs et les architectures cloud complexes.

Lire plus
Développement charge du serveur

Intégration de LLMs dans les scripts Bash : L'outil ofc

2025-03-02
Intégration de LLMs dans les scripts Bash : L'outil ofc

Un nouvel outil, ofc, simplifie l'intégration des LLMs Ollama dans les scripts bash. Il permet de changer facilement les invites du système, permettant de comparer le comportement du modèle avec différentes invites. L'auteur montre son utilisation pour générer des ensembles de données pour tester Harper et même faire en sorte que le LLM génère ses propres invites pour une analyse plus approfondie. L'installation est simple via cargo.

Lire plus
Développement