IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google a annoncé une importante expansion de sa gamme de modèles d'IA Gemini et dévoile Gemini 2.5 Flash-Lite, un modèle hautement efficace
Tout en rendant 2.5 Flash et 2.5 Pro disponibles pour tous

Le , par Jade Emy

89PARTAGES

3  0 
Google a annoncé la mise à disposition générale de ses modèles d'IA Gemini 2.5 Flash et Gemini 2.5 Pro, les rendant stables pour les applications de production. Cette expansion de la famille Gemini 2.5 comprend également le dévoilement d'un aperçu de Gemini 2.5 Flash-Lite, positionné comme le modèle le plus rentable et le plus rapide de la série. Google affirme notamment : "Nous avons conçu Gemini 2.5 pour être une famille de modèles de raisonnement hybrides offrant des performances exceptionnelles, tout en se situant à la frontière de Pareto en termes de coût et de vitesse."

Au début du mois, Google a publié une "préversion améliorée" 06-05 de Gemini 2.5 Pro qui serait bientôt disponible dans les semaines à venir. Google note que la version 06-05 affiche "une augmentation de 24 points du score Elo sur LMArena", avec un score de 1470, tandis qu'elle affiche "une augmentation de 35 points du score Elo, ce qui la place en tête sur WebDevArena avec un score de 1443".

Récemment, Google a annoncé la mise à disposition générale de ses modèles d'IA Gemini 2.5 Flash et Gemini 2.5 Pro, les rendant stables pour les applications de production. Cette expansion de la famille Gemini 2.5 comprend également le dévoilement d'un aperçu de Gemini 2.5 Flash-Lite, positionné comme le modèle le plus rentable et le plus rapide de la série. Le passage de Gemini 2.5 Flash et 2.5 Pro de la phase d'avant-première à la disponibilité générale fait suite à une période de commentaires approfondis de la part des développeurs et des entreprises. Des sociétés telles que Snap, SmartBear, Spline et Rooms ont déjà intégré ces modèles dans leurs applications.

"Nous avons conçu Gemini 2.5 pour être une famille de modèles de raisonnement hybrides offrant des performances exceptionnelles, tout en se situant à la frontière de Pareto en termes de coût et de vitesse. Aujourd'hui, nous franchissons une nouvelle étape avec nos modèles 2.5 Pro et Flash en les rendant stables et disponibles pour tous. Et nous vous proposons 2.5 Flash-Lite en avant-première, notre modèle 2.5 le plus rentable et le plus rapide à ce jour", a annoncé Google.

Le tout nouveau Gemini 2.5 Flash-Lite est le dernier-né des produits d'IA de Google, conçu pour les charges de travail où la vitesse et l'efficacité sont primordiales. Ce modèle léger est désormais disponible en avant-première, afin que les développeurs puissent évaluer ses capacités et faire part de leurs commentaires. Selon Google, la conception de Flash-Lite donne la priorité à la latence, offrant des réponses plus rapides tout en consommant moins de ressources informatiques. Cela en fait une option viable pour les applications à grande échelle où la rentabilité et la rapidité de traitement sont des considérations majeures.

Malgré sa nature compacte, Flash-Lite conserve les fonctionnalités essentielles de la famille Gemini 2.5, notamment la prise en charge d'une fenêtre contextuelle d'un million de jetons, ce qui lui permet de traiter des documents, des conversations et des bases de code volumineux. Il s'intègre également à Google Search et aux outils d'exécution de code, traite les entrées multimodales et fournit des réponses précises pour diverses tâches.


Tous les modèles de la série Gemini 2.5 sont basés sur une architecture Mixture-of-Experts (MoE). Cette conception permet aux modèles d'activer uniquement les réseaux neuronaux spécifiques pertinents pour une invite donnée, optimisant ainsi l'utilisation du matériel et contribuant à réduire les coûts d'inférence. De plus, les modèles Gemini 2.5 représentent la première génération formée à l'aide de la puce IA TPUv5p développée en interne par Google, utilisant des clusters équipés d'un nouveau logiciel pour atténuer les problèmes techniques pendant la formation.

Gemini 2.5 Pro et Flash étant désormais disponibles pour le grand public, ils fournissent des modèles stables et prêts à l'emploi pour des tâches complexes telles que le codage avancé, le raisonnement complexe et la compréhension multimodale, ce qui peut être utile pour garantir la fiabilité et des performances constantes, tandis que les différents modèles (Pro pour la puissance, Flash pour la vitesse, Flash-Lite pour une efficacité extrême) permettent une meilleure optimisation des ressources en fonction des besoins spécifiques.

Les développeurs peuvent accéder aux versions stables de Gemini 2.5 Flash et Pro via Google AI Studio, Vertex AI et l'application Gemini. L'aperçu de Gemini 2.5 Flash-Lite est disponible via Google AI Studio et Vertex AI. Des versions personnalisées de Flash et Flash-Lite ont également été intégrées à Google Search, étendant leurs capacités à diverses fonctionnalités d'IA liées à la recherche, où Google vise à utiliser le modèle le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de selmanjo
Membre régulier https://www.developpez.com
Le 15/08/2025 à 2:32
Gemini est mauvais en code, tout comme Mistral. C'est si flagrant !
0  0