En décembre 2024, Google a annoncé la sortie de Gemini 2.0, son "nouveau modèle d'IA pour l'ère agentique". Le premier modèle disponible est Gemini 2.0 Flash, "un modèle de référence très efficace pour les développeurs, avec une faible latence et des performances accrues", selon Google. Puis en janvier 2025, Google a mis à jour 2.0 Flash Thinking Experimental dans Google AI Studio, pour améliorer ses performances en combinant la vitesse de Flash et la capacité de raisonner sur des problèmes complexes. Google a également mis une version actualisée de Flash 2.0 à la disposition de tous les utilisateurs de l'application Gemini sur ordinateur et mobile.
Pour rappel, Gemini (anciennement connu sous le nom de Bard) est une famille de grands modèles de langage multimodaux développés par Google DeepMind, servant de successeur à LaMDA et PaLM 2. Comprenant Gemini Ultra, Gemini Pro, Gemini Flash, et Gemini Nano, il a été annoncé le 6 décembre 2023, positionné comme un concurrent du GPT-4 d'OpenAI. Il alimente le chatbot du même nom.
Le 5 février 2025, Google a annoncé mettre la version actualisée de Gemini 2.0 Flash à la disposition de tous via l'API Gemini dans Google AI Studio et Vertex AI. Les développeurs peuvent désormais créer des applications de production avec 2.0 Flash. Avec cette annonce, Google publie également une version expérimentale de Gemini 2.0 Pro, "son meilleur modèle à ce jour pour les performances de codage et les invites complexes." Elle est disponible dans Google AI Studio et Vertex AI, ainsi que dans l'application Gemini pour les utilisateurs de Gemini Advanced.
En outre, Google annonce un nouveau modèle, Gemini 2.0 Flash-Lite, notre modèle le plus économique à ce jour, en avant-première publique dans Google AI Studio et Vertex AI. Enfin, le modèle 2.0 Flash Thinking Experimental sera disponible pour les utilisateurs de l'application Gemini dans la liste déroulante des modèles sur les ordinateurs de bureau et les téléphones portables. Google annonce que tous ces modèles seront dotés d'une entrée multimodale et d'une sortie texte dès leur sortie, et d'autres modalités seront prêtes pour une disponibilité générale dans les mois à venir.
2.0 Flash : une nouvelle mise à jour pour une disponibilité générale
Présentée pour la première fois lors de la conférence I/O 2024, la série de modèles Flash est appréciée en tant que puissant modèle de travail, optimal pour les tâches à volume et à fréquence élevés à l'échelle et capable de raisonnement multimodal sur des quantités d'informations avec une fenêtre de contexte d'un million de jetons. La version 2.0 de Flash est désormais accessible à un plus grand nombre de personnes dans les produits d'IA de Google, avec des performances améliorées dans les principaux critères d'évaluation, la génération d'images et la synthèse vocale étant à venir.
2.0 Pro Experimental : le meilleur modèle de Google à ce jour pour les performances de codage et les invites complexes
Les premières versions expérimentales de Gemini 2.0, comme Gemini-Exp-1206, ont suscité de bons commentaires de la part des développeurs sur ses points forts et ses cas d'utilisation, comme le codage. Google annonce donc une version expérimentale de Gemini 2.0 Pro qui répond à ces commentaires. Elle offrirait de meilleures performances en matière de codage et une meilleure capacité à gérer des invites complexes, avec une meilleure compréhension et un meilleur raisonnement de la connaissance du monde. Il est doté de la plus grande fenêtre contextuelle (2 millions de jetons), ce qui lui permet d'analyser et de comprendre des quantités d'informations, ainsi que de faire appel à des outils tels que Google Search et l'exécution de code.
2.0 Flash-Lite : le modèle de Google le plus économique à ce jour
Google affirme que le prix et la vitesse du Flash 1.5 ont suscité des commentaires positifs. Pour continuer à améliorer la qualité, tout en maintenant le prix et la vitesse, Google présente 2.0 Flash-Lite, un nouveau modèle qui offre une meilleure qualité que 1.5 Flash, à la même vitesse et au même prix. Il surpasse le Flash 1.5 dans la majorité des tests de référence. Comme Flash 2.0, il dispose d'une fenêtre contextuelle d'un million de jetons et d'une entrée multimodale. Gemini 2.0 Flash-Lite est disponible dans Google AI Studio et Vertex AI en version publique.
Caractéristiques des modèles
Gemini 2.0 Flash offre un ensemble de fonctionnalités, notamment l'utilisation d'outils en natif, une fenêtre contextuelle d'un million de jetons et une saisie multimodale. Il prend actuellement en charge la sortie texte, avec des capacités de sortie image et audio et l'API Multimodal Live prévue pour une disponibilité générale dans les mois à venir. Gemini 2.0 Flash-Lite est optimisé en termes de coûts pour les cas d'utilisation à grande échelle de la sortie texte.
Performances des modèles
Les modèles Gemini 2.0 offrent des améliorations significatives des performances par rapport à Gemini 1.5 sur une série de points de référence. Comme pour les modèles précédents, Gemini 2.0 Flash utilise par défaut un style concis qui facilite son utilisation et réduit les coûts. Il peut également être invité à utiliser un style plus verbeux qui produit de meilleurs résultats dans les cas d'utilisation orientés vers le chat.
Tarifs des modèles
Google affirme réduire les coûts avec Gemini 2.0 Flash et 2.0 Flash-Lite. Les deux ont un prix unique par type d'entrée, supprimant la distinction de Gemini 1.5 Flash entre les requêtes contextuelles courtes et longues. Cela signifie que le coût de Flash 2.0 et de Flash-Lite peut être inférieur à celui de Gemini 1.5 Flash pour les charges de travail à contexte mixte, malgré les améliorations de performance qu'ils apportent tous les deux.
Pour conclure son annonce, Google a partagé sa politique de responsabilité et son travail de sécurité :
Au fur et à mesure que les capacités de la famille de modèles Gemini augmentent, nous continuerons à investir dans des mesures robustes qui permettent une utilisation sûre et sécurisée. Par exemple, notre gamme Gemini 2.0 a été construite avec de nouvelles techniques d'apprentissage par renforcement qui utilisent Gemini lui-même pour critiquer ses réponses. Cela a permis d'obtenir un retour d'information plus précis et plus ciblé, et d'améliorer la capacité du modèle à gérer des questions délicates.
Nous tirons également parti du red teaming automatisé pour évaluer les risques de sûreté et de sécurité, y compris ceux posés par les risques d'injection indirecte d'invites, un type d'attaque de cybersécurité qui consiste pour les attaquants à dissimuler des instructions malveillantes dans des données susceptibles d'être récupérées par un système d'intelligence artificielle.
Nous tirons également parti du red teaming automatisé pour évaluer les risques de sûreté et de sécurité, y compris ceux posés par les risques d'injection indirecte d'invites, un type d'attaque de cybersécurité qui consiste pour les attaquants à dissimuler des instructions malveillantes dans des données susceptibles d'être récupérées par un système d'intelligence artificielle.
Source : Google
Et vous ?
Pensez-vous que cette annonce de Google est crédible ou pertinente ?
Quel est votre avis sur ces modèles ?
Voir aussi :
Gemini 2.0 Flash Thinking Experimental : Pour ne pas être distancé par OpenAI et son modèle o1. Google lance son propre modèle d'IA qui utilise des techniques de « raisonnement »
Google annonce deux nouveaux modèles IA Gemini, la réduction du prix de la version 1.5 Pro, l'augmentation des limites de taux, ainsi que la mise à jour des paramètres de filtre par défaut
Google prévoit de réaliser un investissement colossal de 75 milliards de dollars dans l'IA en 2025 pour renforcer sa présence dans le domaine de l'IA et écraser la concurrence