IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

IA générative avec des grands modèles de langage en C# en 2026 : une base pour les développeurs .NET/C# travaillant avec Microsoft Foundry, GitHub Models et AI Extensions
Par Jeremy Likness

Le , par Jeremy Likness

0PARTAGES

4  0 
IA générative avec des grands modèles de langage en C# en 2026 : une base pour les développeurs .NET/C# travaillant avec Microsoft Foundry, GitHub Models et AI Extensions, par Jeremy Likness

L'IA générative est devenue la technologie grand public à la croissance la plus rapide de l'histoire, dépassant Instagram et TikTok, et atteignant 100 millions d'utilisateurs en moins de deux mois. Fin 2022, OpenAI a publié un aperçu gratuit de GPT-3.5, sous la forme d'un client de chat conversationnel : ChatGPT. Le modèle a été affiné à l'aide du renforcement par apprentissage à partir du retour d'information humain (RLHF), marquant le moment où l'IA générative a atteint la notoriété grand public. Début 2023, Microsoft a réagi en lançant le service Azure OpenAI, qui permet aux développeurs de fournir et d'utiliser en toute sécurité des modèles compatibles avec OpenAI derrière des points de terminaison gérés par Azure.

Peu après, Microsoft a présenté :

- Semantic Kernel (SK) → outils permettant d'orchestrer des invites, des mémoires et des plugins à l'aide de C# ou Python
- Microsoft Extensions for AI (MEAI) → abstractions unifiées pour interagir avec des modèles (par exemple, IChatClient)
- Microsoft Extensions for Vector Data → interfaces standard pour les bases de données vectorielles utilisées dans les systèmes RAG

Cet article prend du recul par rapport à l'innovation rapide en matière d'IA et se concentre sur les concepts fondamentaux, fournissant une base aux développeurs .NET/C# qui travaillent avec Microsoft Foundry, GitHub Models, AI Extensions et des runtimes locaux tels que Ollama.

Comprendre les termes liés à l'IA

L'IA possède son propre ensemble de termes distincts avec des significations très spécifiques.

Intelligence artificielle (IA)

L'IA implique des techniques qui permettent aux ordinateurs d'effectuer des tâches qui nécessitent généralement l'intelligence humaine, telles que le raisonnement, le langage, la planification ou la perception. L'IA n'est pas nouvelle, mais aujourd'hui, la plupart des gens utilisent le terme « IA » pour désigner l'IA générative.

IA générative (GenAI)

L'IA générative désigne les systèmes d'IA capables de produire du texte, des images, du son ou d'autres contenus.

Par exemple : GPT signifie « Generative Pre-trained Transformer » (transformateur génératif pré-entraîné). Pour résumer, nous obtenons :

- Génératif → il produit du contenu ;
- Pré-entraîné → entraîné sur d'énormes ensembles de données ;
- Transformateur → architecture de réseau neuronal permettant une modélisation linguistique de haute qualité.

Grand modèle de langage (LLM)

Les LLM sont entraînés sur des milliards de tokens (jetons) et peuvent générer du texte, des images, du code ou des étapes de raisonnement. Leur capacité à fonctionner dans plusieurs langues provient de l'apprentissage des relations entre les mots, et non d'une simple traduction dictionnaire un-à-un.

Pourquoi la traduction est-elle difficile ?

Les mots ont plusieurs significations :

- pass the car = passer la voiture
- mountain pass = col de montagne
- pass on the opportunity = laisser passer l'occasion
- your park pass on the dashboard = votre carte d'accès au parc sur le tableau de bord

Les logiciels traditionnels avaient du mal à gérer cette ambiguïté ; les LLM excellent parce qu'ils fonctionnent dans l'espace sémantique.

Tokens et embeddings (Jetons et intégrations)

Les modèles ne lisent pas directement le texte. Ils le divisent en jetons :

- Mots entiers
- Fragments de mots
- Caractères

Ces jetons sont convertis en vecteurs numériques appelés embeddings (intégration), qui sont des représentations mathématiques du sens.

Exemples de phrases :

- « l'acteur était une star »
- « ils aimaient les stars »

Le mot « star » apparaît dans les deux phrases, mais avec des significations différentes.

Les intégrations capturent cette différence.

Voici une manière simplifiée de visualiser ce concept. Dans le graphique, la signification sémantique du mot « star » peut être représentée en fonction de sa proximité avec le concept de « corps céleste » (une étoile dans la nuit) et le concept d'« acteur » (star du spectacle).


Imaginez maintenant des milliards de points de ce type. Les modèles génèrent du texte en naviguant dans cet espace et en prédisant le vecteur suivant le plus probable.

Exemples de distance sémantique :

- école ↔ écol (distance proche → correction orthographique)
- chat ↔ chien (distance proche → animaux similaires)
- chat ↔ ordinateur portable (distance éloignée)

La recherche sémantique utilise la distance dans l'espace d'intégration, et non la correspondance de chaînes.

Paramètres : taille du modèle

Les LLM sont souvent décrits par leur nombre de paramètres :

7 milliards, 14 milliards, 70 milliards, 123 milliards, etc.

Les paramètres sont des poids entraînés.

Plus il y a de paramètres, plus le raisonnement est profond, les connaissances riches et les nuances fines.

- GPT‑1 (2018) → 117 millions de paramètres
- Modèles de pointe modernes → 100 milliards à plus de 400 milliards de paramètres

Prompts (instruction générative), instructions et outils

Les sections précédentes ont traité des informations relatives au modèle.

Les termes de cette section sont directement liés aux entrées et sorties du modèle.

Prompts (instruction générative)

Entrées utilisateur dans le modèle. « Quelle est la meilleure façon d'éplucher une mangue ? »

Instructions système

« Plan » caché guidant le comportement du modèle. « Vous êtes un éplucheur de mangues et considéré comme un expert dans votre domaine. »

Outils / Fonctions

Les LLM sont entraînés sur des données historiques. Les outils leur permettent d'accéder à des informations actuelles ou faisant autorité, par exemple :

- API météo
- Recherche dans une base de données
- Moteur de recherche
- Index des connaissances de l'entreprise

Ce modèle est appelé « génération augmentée par la récupération » (RAG). Examinons deux scénarios. Tout d'abord, imaginez un agent concierge qui dispose d'une API pour les restaurants locaux et d'une API pour la météo. L'utilisateur saisit l'instruction générative suivante :

Pouvez-vous me réserver une table pour dîner cette semaine dans un restaurant avec terrasse ?

Le LLM appelle d'abord l'API météo pour déterminer quelles soirées sont susceptibles d'être sèches et plus chaudes, puis il appelle l'API restaurant pour trouver les restaurants ouverts et disposant de places disponibles. Enfin, il renvoie une liste de suggestions qui correspondent exactement à la demande.

Ensuite, imaginez un agent du service clientèle d'un magasin de détail qui dispose de toutes les informations sur les produits. L'utilisateur tape :

« Quel type de piles faut-il pour le Traveling Wonder Cube ? »

Le LLM est capable d'extraire le nom du produit, « traveling wonder cube ». Il vectorise le texte de la requête, puis appelle l'API du produit avec le nom du produit et les vecteurs. La recherche sémantique est invoquée à l'aide d'une fonction permettant de trouver les points du manuel du produit qui sont sémantiquement les plus proches de la requête. Cela renverra le résultat pertinent concernant les piles requises si une telle section existe.

Protocole de contexte de modèle (Model Context Protocol - MCP)

Le protocole de contexte de modèle, ou MCP en abrégé, est un ensemble de normes pour l'interopérabilité entre les agents et les outils. Il permet aux modèles de comprendre facilement quels outils sont disponibles et comment les appeler. Cela vous permet de créer des boîtes à outils virtuelles que n'importe lequel de vos modèles ou agents peut appeler.

Qu'en est-il des agents ?

Attendez, ai-je dit « agent » ? Un agent est simplement un moyen de fournir une solution spécialisée qui comprend un modèle, des outils et un contexte. Un « agent concierge » peut inclure un modèle de raisonnement avec des outils qui fournissent des informations sur la météo, les événements et les entreprises locales, combiné à un modèle spécialisé capable de générer des cartes avec des instructions étape par étape. Je me pencherai plus en détail sur les agents et aborderai les solutions basées sur C# dans un prochain article.

J'ai abordé tous les concepts fondamentaux, il est donc temps de passer à la pratique. Tout d'abord, je voudrais partager brièvement le calendrier entre la généralisation de l'IA générative et les outils disponibles aujourd'hui.

De GPT-1 à aujourd'hui

Voici un bref aperçu de l'évolution de l'IA dans .NET au cours des dernières années.


Gestion des modèles dans l'écosystème .NET

Travailler avec des modèles ne se résume pas à identifier le bon modèle et à l'utiliser. De nombreuses entreprises choisissent d'héberger leurs propres modèles pour des raisons de confiance, de sécurité et de coût. D'autres entreprises ont besoin de modèles affinés et de la possibilité d'effectuer leur propre formation. Heureusement, travailler avec des modèles dans .NET et C# est non seulement possible, mais aussi simplifié grâce à plusieurs produits et services.

GitHub Models

GitHub Models fournit un catalogue hébergé de modèles ouverts et de pointe via une API compatible avec OpenAI. C'est un excellent moyen pour les développeurs de se lancer dans l'aventure de l'IA. Voici quelques raisons :

- Aucune infrastructure requise
- Passez d'un modèle à l'autre avec un minimum de modifications du code
- Parfait pour le prototypage, les évaluations, l'automatisation, les extensions et les pipelines CI/CD

Microsoft Foundry (Cloud)

Anciennement Azure AI Studio, Microsoft Foundry est la plateforme d'entreprise pour :

- Catalogues de modèles (OpenAI, Meta, DeepSeek, Cohere, Mistral, etc.)
- Workflows agentés (Foundry Agent Service)
- Sécurité, sécurité du contenu, gouvernance
- Surveillance, traçabilité, évaluations
- Réglage fin et personnalisation

Foundry est l'endroit où les organisations mettent l'IA en production à grande échelle.

Foundry Local

Foundry Local offre l'expérience développeur Foundry hors ligne :

- Environnements sur site, isolés ou périphériques
- Mêmes agents, outils et évaluations que Cloud Foundry
- Prise en charge du cycle de vie hybride « développement local → déploiement cloud »

C'est une excellente option pour tester de nouveaux modèles, tester de nouveaux codes sans dépasser le budget et créer des pipelines CI/CD avec des frais généraux minimaux et qui ne nécessitent pas de compte hébergé par un tiers pour fonctionner.

Ollama (environnement d'exécution local)

Ollama est un moteur open source populaire permettant d'exécuter localement des modèles légers et de taille moyenne.

Caractéristiques :

- Exécute des modèles tels que Mistral, Llama 3, Phi-3
- CLI et serveur simples
- Excellent pour les workflows sensibles à la confidentialité
- S'intègre parfaitement à MEAI (IChatClient) via OllamaSharp

Tout rassembler : une abstraction unifiée

En tant que développeur .NET, vous ne devriez pas avoir à choisir un seul fournisseur ou à vous limiter à une seule solution. C'est pourquoi l'équipe .NET a investi dans un ensemble d'extensions qui fournissent des API cohérentes pour travailler avec des modèles universels mais flexibles. Cela permet également des scénarios tels que le middleware pour alléger la charge de la journalisation, du traçage, de l'injection de comportements et d'autres processus personnalisés que vous pourriez utiliser. La plupart des principaux fournisseurs implémentent nos contrats d'extension afin que vous puissiez, par exemple, utiliser une instance IChatClient, que vous communiquiez avec :

- Modèles GitHub
- Azure AI Foundry
- Open AI / Azure Open AI
- Foundry Local
- Ollama
- Fournisseur personnalisé...

... et le code peut rester le même.

Source : "Generative AI with Large Language Models in C# in 2026"

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Présentation de Microsoft Agent Framework (Preview) : simplifier les agents IA pour tous les développeurs, par Luis Quintanilla

Personnaliser les réponses de l'IA à partir de GitHub Copilot : En mode Agent, l'IA peut créer des parties ou même des applications entières à partir de vos instructions écrites ou parlées, par Matt Soucoup

La construction de grands modèles de langage (LLM) ne sera probablement pas une entreprise brillante, par Cal Paterson
Vous avez lu gratuitement 3 013 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !