Aller au contenu

Blog

Bienvenue sur mon blog !

J'essaye de partager régulièrement mes réflexions, mes découvertes et mes expériences autour de l'intelligence artificielle, un domaine passionnant avec beaucoup de choses à découvrir.

Pourquoi je me suis lancé dans ce blog ? En tant que consultant data scientist spécialisé en IA, je suis régulièrement confronté à des problématiques métier que je résous en utilisant l'intelligence artificielle. Dans ce processus, j'apprends beaucoup sur les enjeux métier, sur la manière d’intégrer l’IA de façon pertinente selon chaque contexte, et sur comment rendre l’IA plus accessible à tous.

Mon objectif à travers mes articles est de vulgariser des concepts IA, proposer des solutions techniques concrètes, partager des retours d'expérience issus de mes projets, et donner des conseils pratiques pour intégrer l'intelligence artificielle dans votre quotidien professionnel.

Bonne lecture, et n'hésitez pas à échanger avec moi : anas0rabhi@gmail.com !

Vous pouvez aussi vous abonner à ma newsletter :)

Optimiser son RAG : les 8 techniques qui font vraiment la différence

Vous optimisez probablement dans le mauvais sens

Quand un RAG ne fonctionne pas bien, voici ce que font 90% des équipes : elles changent le prompt.

On reformule les instructions, on essaie différents modèles, on ajuste la température. Et parfois ça aide un peu. Mais le plus souvent, le problème n'est pas là.

Jason Liu, l'un des experts RAG les plus suivis, a une formulation que j'ai trouvée juste : "Avant de toucher à quoi que ce soit, atteignez 97% de recall en retrieval."

97% de recall, ça veut dire que dans 97 cas sur 100, le chunk qui contient la bonne réponse est bien dans les résultats que vous passez au LLM. Si vous n'êtes pas là, le meilleur prompt du monde ne changera rien. Le LLM ne peut pas inventer une information qui n'est pas dans son contexte.

Le vrai ordre d'optimisation d'un RAG, c'est : mesurer d'abord, puis retrieval, puis génération. Pas l'inverse.


Chunking optimal pour votre RAG : quelle stratégie choisir ?

Le chunking que vous utilisez probablement est le pire testé

Je vais commencer par un résultat qui m'a surpris quand je l'ai vu.

Chroma Research a publié un benchmark comparant toutes les stratégies de chunking courantes. Ils ont testé les paramètres par défaut d'OpenAI Assistants : 800 tokens, 400 tokens d'overlap. Leur verdict est sans appel, c'est la configuration avec la précision la plus basse de tous les tests. 1.4% de précision. Leur commentaire exact : "particularly poor recall-efficiency tradeoffs".

Ce sont les paramètres que des dizaines de milliers de projets utilisent en ce moment, souvent parce que c'est ce que suggère le quick start de LangChain ou LlamaIndex.

Et pendant ce temps, des configurations 4x plus simples (200 tokens, zéro overlap) font 3.7x mieux en précision.

Le chunking, c'est la décision sur laquelle la plupart des équipes passent le moins de temps. Et pourtant, c'est probablement celle qui a le plus d'impact sur la qualité de votre RAG.


RAG hybride BM25 + vectoriel : comment l'implémenter

Votre RAG vectoriel rate des questions que vous ne voyez pas

C'est une remarque que j'entends souvent sur les projets RAG : "Ça marche bien en général, mais parfois il ne trouve rien sur des questions pourtant simples."

Exemple concret : "Quelle est la procédure ISO-27001 pour les accès distants ?" → 0 résultat pertinent.

Le vectoriel encode le sens. Mais quand la question contient un identifiant exact (une norme, un code produit, un acronyme métier), l'encodage sémantique rate complètement.

C'est ce qu'on appelle le vocabulary mismatch. Et c'est le problème que le hybrid search résout.


Agentic RAG vs RAG classique : quelle différence ?

Votre RAG ne suffit plus. Vraiment ?

On en parle partout. L'Agentic RAG. Le RAG agentique. Le futur du RAG.

Et comme d'habitude avec les tendances IA, on a l'impression que si vous n'êtes pas encore passé à l'Agentic RAG, vous êtes en retard. Que votre RAG "classique" est dépassé. Qu'il faut tout refaire.

Je vais vous dire ce que j'en pense vraiment : ce n'est pas aussi simple, et la plupart des projets n'ont pas besoin d'Agentic RAG.

Mais, car il y a toujours un mais, l'Agentic RAG répond à des problèmes réels que le RAG classique ne peut tout simplement pas résoudre. Et si vous tombez sur ces problèmes, vous en aurez besoin.

Alors dans cet article, je vais faire simple : ce qu'est vraiment l'Agentic RAG, en quoi il diffère du RAG classique, et surtout, comment décider si vous en avez besoin ou pas.


RAG multi-sources dans le BTP : automatiser les appels d'offres

Le RAG appliqué à la rédaction : bien plus qu'un chatbot Question-Réponse

Quand on parle de RAG (Retrieval-Augmented Generation), la plupart des gens pensent à un chatbot qui répond à des questions sur des documents internes. C'est le cas d'usage classique, celui qu'on voit dans tous les tutos.

Mais le RAG peut faire bien plus que ça. Quand il est bien intégré dans un workflow métier, le RAG devient un moteur de rédaction contextuelle. Il ne se contente pas de retrouver l'information : il la comprend, la structure, et produit un texte professionnel prêt à être validé par un humain.

Je vais illustrer ça avec un cas concret qu'on a réalisé récemment : l'automatisation de la rédaction d'appels d'offres pour un acteur du BTP.


IA et rapports de sinistre : 80% de gain de temps en assurance

La façon dont on intègre l'IA, c'est ce qui fait la différence

Quand on travaille dans l'IA, le plus important souvent ce n'est pas quel modèle on utilise ou quelle dernière techno à la mode est la plus performante.

Le plus important, c'est comment on intègre l'IA dans un workflow déjà existant.

A chaque nouveau projet, il y a deux défis. Le premier, c'est de réussir à atteindre de bonnes performances avec mes algorithmes d'IA pour résoudre une problématique donnée. Le deuxième, c'est l'intégration : comment je mets à disposition cet algorithme pour qu'il soit utilisé et qu'il soit utile. Car trop souvent, des projets IA tombent dans l'oubli parce qu'ils ne sont pas exploitables, ou qu'ils ne s'intègrent pas bien dans le travail quotidien des employés (j'en parle dans les 5 erreurs que tout le monde fait avec le RAG, mais le constat dépasse largement le RAG).

Je vais illustrer ça avec un cas concret qu'on a réalisé récemment : l'automatisation de rapports de sinistre pour un acteur de l'expertise bâtiment et menuiserie.


Les 5 erreurs que tout le monde fait avec le RAG

Introduction

Depuis 2023, j'ai réalisé une dizaine de projets RAG moi-même, et j'en ai dirigé une autre dizaine avec des équipes. Certains se sont très bien passés, d'autres un peu moins, mais on a toujours essayé d'apprendre et se corriger tout au long du projet. Avec le recul, je retrouve toujours les mêmes erreurs, que ce soit chez moi au début, chez des clients, ou chez des confrères. Ce ne sont pas des erreurs techniques (j'en parle dans cet article), mais des erreurs de posture, d'approche et de méthode.

Ce sont des erreurs qu'on fait tous au moins une fois. L'idée ici, c'est de les poser clairement pour éviter de les répéter.


Le RAG est-il vraiment fini ?

Introduction : le RAG, une méthode magique ?

À chaque sortie d'un nouveau modèle avec une fenêtre contextuelle plus grande, on annonce le RAG comme dépassé. Pourtant, le RAG est né d'un besoin très concret : on ne peut pas donner un document de 400 ou 500 pages à un LLM et lui poser des questions dessus.

En entreprise, on a souvent des dizaines (voire des centaines) de fichiers. Le RAG apporte une réponse simple : construire une base documentaire avec des petits morceaux (chunks) de documents, puis fournir dynamiquement les morceaux pertinents à l'IA à chaque question.


Les 4 causes techniques d'échec d'un RAG (et comment les corriger)

Introduction

Un RAG "basique" est rapide à mettre en place, mais il plafonne souvent entre 50 et 70 % de bonnes réponses. En entreprise, ce n'est pas suffisant pour un usage fiable.

Si tu cherches plutôt une méthode d'analyse d'erreur pour prioriser les actions d'amélioration, l'article dédié est ici :
Mon RAG ne marche pas : pourquoi l’analyse d’erreur change tout

Si tu veux d'abord comprendre pourquoi le RAG reste utile malgré les grandes fenêtres contextuelles, j'ai un article dédié :
Le RAG est-il vraiment fini ?

Ici, on se concentre sur l'autre question : pourquoi un RAG ne répond pas correctement, et comment l'améliorer.


Mais c'est quoi un agent IA ?

La tendance 2025 en IA : les agents IA

Vous vous êtes peut-être dit : « Encore un nouveau terme ». Et franchement, je vous comprends.

Il y a quelques mois, on parlait de RAG, cette IA qui révolutionne tout et qui allait soi-disant remplacer tous les employés du monde grâce aux bases de connaissance. Aujourd'hui, on vous parle d'agents IA, comme si c'était l'étape suivante et indispensable.

En réalité, voici encore une nouvelle technologie IA, et on essaie de vous faire croire que vous en avez absolument besoin. Rassurez-vous, je vis très bien sans agent IA qui me fait le café, me prépare à manger et nettoie mon appartement. Mais, car il y a toujours un "mais", ces agents IA ont vraiment une vraie utilité et sont là pour répondre un réel besoin.

Mais alors, c'est quoi un agent IA ? C'est quoi une IA agentic ? Pour comprendre ça, il faut d'abord comprendre ce qu'est ChatGPT... et surtout quelles sont ses limites. Car les agents IA sont là pour répondre (ou contourner) les limites des modèles de langage comme ChatGPT, Gemini ou encore Claude.