· Nolwen Brosson · Blog  · 4 min read

RAG vs fine-tuning vs SLM : comment choisir

Quand on veut intégrer une IA générative dans un produit, trois options reviennent souvent : RAG, fine-tuning, SLM (Small Language Models). En pratique, ce sont trois leviers différents : l’un apporte du contexte adaptée au prompt, l’autre façonne le comportement du modèle, le troisième change l’économie et le déploiement.

Comprendre les 3 approches

RAG (Retrieval-Augmented Generation)

Le RAG consiste à aller chercher des informations dans vos sources de données, puis à les fournir au modèle au moment de répondre. C’est particulièrement utile quand la question porte sur des informations dont le modèle de base n’a pas connaissance.

Exemple : Chat Bot qui répond à des questions des employés, en se basant sur l’ensemble des connaissances de l’entreprise.

Fine-tuning

Le fine-tuning ajuste un modèle pour qu’il réponde mieux à un format, un ton, une consigne ou un type de tâche précis, grâce à un jeu d’exemples. C’est utile pour rendre les réponses plus cohérentes et plus fiables sur des patterns répétés (classification, extraction, style, procédures).

Exemple : Sur-Entrainer un modèle spécialisé sur les questions autour de la santé

SLM (Small Language Models)

Les SLM sont des modèles plus petits que les LLM “géants”. Ils visent des déploiements moins coûteux, parfois on-device (PC, mobile), avec plus de contrôle et une latence plus faible. Ils sont souvent très bons sur des tâches ciblées, surtout quand le périmètre est clair.

Exemple : Un bot orienté Customer Service qui doit simplement pouvoir répondre à des questions de clients. Pas besoin d’avoir un large modèle pour ça.

Comparatif rapide : RAG vs fine-tuning vs SLM

Si avoir la bonne information est primordiale, le RAG est généralement très adapté. Le RAG est conçu pour référencer une base externe plutôt que de “se souvenir” via l’entraînement.

Si répondre de la bonne manière avec une bonne structure de réponse est important (ex : répondre à des questions de programmation, le fine-tuning est très performant.

Si la vitesse de réponse, le cout ou la confidentialité sont essentiels, les SLM sont des bons candidats, car ils sont rapides à entrainer, et peuvent être déployés en local.

CritèreRAGFine-tuningSLM
Connaissance à jourExcellentFaible (fige ce qui est appris)Variable (souvent + RAG)
Style / format / “discipline”MoyenExcellentBon sur tâches ciblées
Risque d’hallucinationRéduit si bonnes sourcesPeut persisterVariable (souvent mieux si scope réduit)
Temps de mise en placeCourt à moyenMoyen (dataset + itérations)Moyen (sélection + déploiement)
Coût d’inférenceMoyenPeut baisser selon modèleSouvent bas
MaintenanceIndex + qualité docsDonnées d’entraînement + driftOps modèle + versions

La matrice de décision (simple et efficace)

1) Vos documents changent-ils souvent ?

  • Oui → RAG d’abord (sinon vous allez réentraîner en boucle)
  • Non → fine-tuning peut suffire sur certains cas

2) Avez-vous besoin de citations, traçabilité, “source de vérité” ?

  • Oui → RAG (idéalement avec citations de passages)
  • Non → fine-tuning / SLM peuvent suffire

3) Votre sortie doit-elle être ultra structurée et stable ?

  • Oui → fine-tuning (ou au minimum des contraintes de format + tests)
  • Non → RAG seul peut fonctionner

4) Latence, coût et déploiement sont-ils des contraintes fortes ?

  • Oui → SLM (souvent + RAG)
  • Non → LLM + RAG est le plus rapide à lancer

5) Avez-vous assez d’exemples de qualité pour entraîner ?

  • Oui → fine-tuning devient pertinent (souvent dès quelques dizaines/centaines d’exemples selon le cas)
  • Non → commencez par RAG + prompt + évaluation, puis itérez

Les erreurs classiques à éviter

Mettre de l’information qui évolue dans le fine-tuning”

Mauvaise idée si l’info change. Vous payez deux fois : entraînement + obsolescence. Le RAG est fait pour ça.

Faire du RAG sans gouvernance documentaire

Une bonne documentation est la base pour que le RAG fonctionne bien.

Choisir un SLM sans cadrer le périmètre

Un petit modèle peut être excellent, mais Il faut :

  • des tâches bien définies
  • un vocabulaire contrôlé
  • des tests automatiques

Quelques cas d’usage

Support client basé sur FAQ + docs produits

RAG en priorité (mise à jour facile), puis éventuellement fine-tuning pour le ton et le format des réponses.

Assistant métier (RH, finance, juridique) avec besoin de preuve

RAG + citations + contrôle d’accès. Le fine-tuning vient ensuite si vous voulez standardiser la sortie.

Extraction de données (factures, emails, tickets) en format strict

Fine-tuning (ou règles de format + tests), avec RAG seulement si vous devez enrichir avec des référentiels internes.

Copilote interne à grand volume (coût/latence critiques)

SLM + RAG. Le fine-tuning est optionnel, utile si les tâches sont répétitives et mesurables.

Conclusion

  • RAG : meilleur choix quand la connaissance doit rester à jour et traçable.
  • Fine-tuning : meilleur choix pour standardiser le comportement (format, ton, procédures), souvent en complément.
  • SLM : meilleur choix pour industrialiser (coût, latence, déploiement), surtout sur des tâches cadrées.
Back to Blog