
C’est en tout cas la thèse défendue par Philipp Schmid, Senior AI Relation Engineer au sein de Google DeepMind. Selon lui, ce n’est plus tant comment vous posez la question à l’IA, mais ce que vous lui donnez à voir avant qu’elle ne réponde qui détermine la qualité du résultat.
L'intelligence artificielle, et plus particulièrement les modèles de langage de grande envergure (LLM), a révolutionné notre manière d'interagir avec la technologie. Pendant longtemps, l'accent a été mis sur le prompt engineering, l'art de formuler des instructions précises pour guider ces modèles vers les réponses souhaitées. C'était la compétence clé pour débloquer le potentiel des IA. Cependant, une évolution significative est en cours, soulignée par des experts comme Philipp Schmid : la véritable maîtrise de l'IA ne réside plus seulement dans le prompting, mais dans l'ingénierie de contexte.
Cette nouvelle approche, plus profonde et plus stratégique, reconnaît que la performance d'un modèle d'IA ne dépend pas uniquement de la clarté de la question posée, mais aussi de la richesse, de la pertinence et de la structure des informations qui lui sont fournies en amont. C'est l'idée que pour obtenir des résultats précis et fiables, il faut « éduquer » le modèle avec un environnement informatif bien pensé, plutôt que de simplement lui donner des ordres.

De quoi s'agit-il ? Le rôle fondamental du contexte
Un prompt n’est qu’une petite partie d’une interaction avec un modèle. Ce que l’on appelle contexte, c’est tout ce que l’IA peut consulter ou savoir au moment où elle produit une réponse :
- L’historique des conversations
- Les documents de référence (manuels, bases de données, CRM…)
- L’agenda ou les préférences d’un utilisateur
- Les outils qu’elle peut invoquer (ex. fonction send_email(), get_weather())
- Les métadonnées et résumés pertinents
Concrètement, un assistant personnel IA ne doit pas seulement savoir que « vous avez une réunion demain ». Il doit aussi :
- accéder à votre calendrier,
- comprendre la relation que vous avez avec votre interlocuteur,
- connaître les contraintes d’agenda de chacun,
- disposer d’une fonction lui permettant d’envoyer une invitation ou un message automatique.
C’est cette capacité à assembler, structurer et formater dynamiquement toutes ces données qui fonde l’ingénierie du contexte.
Philipp Schmid prend la peine de le préciser :
Pour comprendre l'ingénierie contextuelle, nous devons d'abord élargir notre définition du « contexte ». Il ne s'agit pas seulement de l'invite unique que vous envoyez à un LLM. Il s'agit de tout ce que le modèle voit avant de générer une réponse.
- Instructions / Invite du système : Un ensemble initial d'instructions qui définissent le comportement du modèle pendant une conversation, peut/doit inclure des exemples, des règles ....
- Invitation de l'utilisateur : Tâche ou question immédiate de l'utilisateur.
- État / Historique (mémoire à court terme) : La conversation en cours, y compris les réponses de l'utilisateur et du modèle qui ont conduit à ce moment.
- Mémoire à long terme : Base de connaissances persistante, recueillie au cours de nombreuses conversations antérieures, contenant les préférences de l'utilisateur, des résumés de projets antérieurs ou des faits qu'on lui a demandé de se rappeler pour une utilisation future.
- Information récupérée (RAG) : Connaissances externes et actualisées, informations pertinentes provenant de documents, de bases de données ou d'API pour répondre à des questions spécifiques.
- Outils disponibles : Définitions de toutes les fonctions ou outils intégrés qu'il peut appeler (par exemple, check_inventory, send_email).
- Sortie structurée : Définitions du format de la réponse du modèle, par exemple un objet JSON.
Qu'est-ce que l'ingénierie contextuelle ?

Alors que le prompt engineering est comparable à donner une instruction directe à un élève, l'ingénierie de contexte, c'est comme lui fournir une bibliothèque entière, des études de cas détaillées et un guide d'étude personnalisé avant même qu'il ne commence son devoir. Voici pourquoi cette distinction est cruciale :
Lever les ambiguïtés et préciser l'intention
Le langage humain est intrinsèquement ambigu. Un même mot ou une même phrase peut avoir plusieurs significations selon le contexte. Sans un cadre de référence clair, un LLM pourrait interpréter une requête de manière inattendue, menant à des réponses inexactes ou non pertinentes. L'ingénierie de contexte vise à éliminer cette ambiguïté en ancrant la requête dans des informations spécifiques.
Améliorer la précision et la pertinence des résultats
Les modèles d'IA, malgré leur vaste base de connaissances, peuvent parfois « halluciner », c'est-à-dire générer des informations incorrectes ou inventées. En fournissant des données factuelles et des exemples concrets directement dans le contexte, on réduit considérablement ce risque. L'IA n'a plus besoin de « deviner » ou d'inférer à partir de ses données d'entraînement génériques ; elle peut s'appuyer sur des faits vérifiés et des directives claires.
C'est particulièrement vrai pour les domaines de niche ou les informations très récentes qui n'auraient pas été incluses dans ses données d'entraînement initiales.
Gérer la complexité des tâches spécifiques
Certaines tâches, comme la rédaction de documents techniques complexes, l'analyse de données financières ou la génération de code spécifique à une API, dépassent largement les capacités d'un simple prompt. Ces tâches nécessitent une compréhension approfondie du domaine, l'application de règles spécifiques et souvent l'intégration de multiples sources d'information.
L'ingénierie de contexte permet de décomposer la complexité en fournissant à l'IA tous les éléments nécessaires : des extraits de documentation technique, des exemples de code, des schémas, ou même les résultats de calculs intermédiaires.
Exercer un contrôle granulaire sur la sortie
Au-delà de la justesse de l'information, le style, le ton, le format et la structure de la réponse sont souvent cruciaux. L'ingénierie de contexte offre un contrôle plus fin sur ces aspects. En incluant des exemples de réponses souhaitées, des directives de style ou des contraintes spécifiques, on peut sculpter la sortie de l'IA avec une plus grande précision.
Intégrer des connaissances externes et dynamiques
L'un des plus grands avantages de l'ingénierie de contexte est sa capacité à intégrer des sources de données externes et dynamiques aux LLM. Plutôt que de se limiter à ce qu'un modèle a appris lors de sa phase d'entraînement (qui est statique et souvent dépassée), on peut lui fournir des informations en temps réel : les dernières actualités boursières, les données d'un capteur IdO, les informations d'une base de données clients, ou le contenu d'une page web spécifique.
Et Philipp Schmid d'expliquer :
Le secret de la construction d'agents d'intelligence artificielle vraiment efficaces a moins à voir avec la complexité du code que vous écrivez, et tout à voir avec la qualité du contexte que vous fournissez. La construction d'agents est moins liée au code que vous écrivez ou au cadre que vous utilisez. La différence entre une démo bon marché et un agent « magique » réside dans la qualité du contexte que vous fournissez. Imaginez que l'on demande à un assistant IA de planifier une réunion sur la base d'un simple courriel :
« Hey, je voulais juste savoir si tu étais disponible pour une rapide synchronisation demain ».
L'agent « Démo bon marché » dispose d'un contexte médiocre. Il ne voit que la demande de l'utilisateur et rien d'autre. Son code peut être parfaitement fonctionnel - il appelle un LLM et obtient une réponse - mais le résultat est inutile et robotique :
« Merci pour votre message. Demain me convient. Puis-je vous demander à quelle heure vous pensiez ? »
L'agent « magique » est alimenté par un contexte riche. La tâche principale du code n'est pas de déterminer comment répondre, mais de rassembler les informations dont le LLM a besoin pour atteindre son objectif. Avant d'appeler le LLM, vous devez étendre le contexte pour y inclure
[LIST][*]Les informations de votre agenda (qui montrent que votre emploi du temps est chargé).[*]Les courriels que vous avez échangés avec cette personne (pour déterminer le ton informel approprié).[*]Votre liste de contacts (pour l'identifier comme un partenaire clé).[*]Les outils...[/*]
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.