Dévoilé lors de l'événement annuel Google I/O pour les développeurs, Gemini Flash 1.5 est un modèle multimodal natif et a été conçu pour la vitesse, ce qui le rend utile pour les conversations en temps réel. En mai 2024, Google a annoncé une mise à jour de Gemini 1.5 Pro et le lancement de 1.5 Flash et 2 nouveaux modèles Gemma. Concernant le prix, outre l'accès gratuit à l'API Gemini dans les régions éligibles via Google AI Studio, Google avait augmenté les limites tarifaires prises en charge par son nouveau service de paiement à l'utilisation.
Ce 25 septembre 2024, Google annonce de nouvelles mises à jour : la publication de deux nouveaux modèles Gemini prêts pour la production : Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002 ainsi que la réduction de prix supérieur à 50 % sur Gemini 1.5 Pro (entrée et sortie pour les messages inférieur à 128 000 jetons). Google annonce également des améliorations aux modèles Gemini : une limite de débit 2 fois plus élevée sur Gemini 1.5 Flash et environ 3 fois plus élevée sur Gemini 1.5 Pro, une sortie 2 fois plus rapide et une latence 3 fois plus faible. Enfin, Google a mis à jour les paramètres de filtre par défaut.
Ces nouveaux modèles s'appuient sur les dernières versions de modèles expérimentaux et comprennent des améliorations par rapport aux modèles Gemini 1.5 présentés lors de la conférence Google I/O en mai 2024. Les développeurs peuvent accéder gratuitement aux derniers modèles via Google AI Studio et l'API Gemini. Pour les grandes organisations et les clients de Google Cloud, les modèles sont également disponibles sur Vertex AI.
Amélioration de la qualité globale, avec des gains en mathématiques, en contexte long et en vision
La série Gemini 1.5 est constituée de modèles conçus pour des performances générales dans un large éventail de textes, de codes et de tâches multimodales. Par exemple, les modèles Gemini peuvent être utilisés pour synthétiser des informations à partir de PDF de 1000 pages, répondre à des questions sur des dépôts contenant plus de 10 000 lignes de code, visionner des vidéos d'une heure et créer du contenu utile à partir de celles-ci, et bien plus encore.
Avec les dernières mises à jour, 1.5 Pro et Flash sont désormais meilleurs, plus rapides et plus rentables à utiliser en production. Selon les tests, Google a constaté une augmentation d'environ 7 % dans MMLU-Pro, une version plus difficile du célèbre benchmark MMLU. Sur les tests MATH et HiddenMath (un ensemble interne de problèmes mathématiques de compétition), les deux modèles ont apporté une amélioration d'environ 20 %. Pour les cas d'utilisation de la vision et du code, les deux modèles sont également plus performants (entre 2 et 7 %) dans les évaluations mesurant la compréhension visuelle et la génération de code Python.
Google aurait également amélioré l'utilité globale des réponses des modèles, tout en continuant à respecter ses politiques et normes de sécurité du contenu. Cela signifie qu'il y a moins de punitions et de refus et que les réponses sont plus utiles sur de nombreux sujets.
Les deux modèles ont désormais un style plus concis en réponse aux commentaires des développeurs, ce qui a pour but de rendre ces modèles plus faciles à utiliser et de réduire les coûts. Pour les cas d'utilisation tels que le résumé, la réponse aux questions et l'extraction, la longueur de sortie par défaut des modèles mis à jour est d'environ 5 à 20 % inférieure à celle des modèles précédents. Pour les produits basés sur le chat où les utilisateurs peuvent préférer des réponses plus longues par défaut.
Gemini 1.5 Pro
Lors de l'annonce en mai 2024, Gemini 1.5 Pro a reçu une amélioration de la fenêtre contextuelle de 2 millions de jetons et des capacités multimodales. De la compréhension de vidéos au traitement de PDF de 1000 pages, il y a tant de nouveaux cas d'utilisation qui restent à construire.
À compter du 1er octobre 2024, Google prévoit une réduction de prix de 64 % sur les jetons d'entrée, de 52 % sur les jetons de sortie et de 64 % sur les jetons mis en cache pour son modèle le plus puissant de la série 1.5, Gemini 1.5 Pro, pour les invites de moins de 128 000 jetons. Associé à la mise en cache du contexte, cela continue à faire baisser le coût de la construction avec Gemini.
Augmentation des limites de taux
Pour permettre aux développeurs de construire encore plus facilement avec Gemini, Google a augmenté les limites de taux des niveaux payants pour 1.5 Flash à 2 000 RPM et 1.5 Pro à 1 000 RPM, contre 1 000 et 360, respectivement. À partir d'octobre 2024, Google prévoit de continuer à augmenter les limites de taux de l'API Gemini afin que les développeurs puissent construire davantage avec Gemini.
Une sortie deux fois plus rapide et une latence trois fois moindre
Outre les améliorations fondamentales apportées aux derniers modèles, Google a réduit la latence avec 1.5 Flash et augmenté les jetons de sortie par seconde, ce qui permet de nouveaux cas d'utilisation avec des modèles les plus puissants.
Mise à jour des paramètres de filtrage
Depuis le premier lancement de Gemini en décembre 2023, la construction d'un modèle sûr et fiable a été une priorité. Avec les dernières versions de Gemini (modèles -002), Google aurait amélioré la capacité du modèle à suivre les instructions de l'utilisateur tout en équilibrant la sécurité. Avec cette annonce, Google propose une série de filtres de sécurité que les développeurs peuvent appliquer aux modèles. Pour les modèles publiés ce 25 septembre 2024, les filtres ne seront pas appliqués par défaut afin que les développeurs puissent déterminer la configuration la mieux adaptée à leur cas d'utilisation.
Mises à jour expérimentales de Gemini 1.5 Flash-8B
Google publie une version améliorée du modèle Gemini 1.5 annoncé en août 2024, appelée "Gemini-1.5-Flash-8B-Exp-0924". Cette version améliorée comprend des augmentations significatives des performances dans les cas d'utilisation textuelle et multimodale. Elle est disponible dès maintenant via Google AI Studio et l'API Gemini.
Google conclut l'annonce en déclarant :
Nous sommes ravis de ces mises à jour et avons hâte de voir ce que vous allez construire avec les nouveaux modèles Gemini ! Et pour les utilisateurs de Gemini Advanced, vous pourrez bientôt accéder à une version optimisée pour le chat de Gemini 1.5 Pro-002.
Source : Google
Et vous ?
Quel est votre avis sur ces mises à jour ?
Voir aussi :
Google dévoile les Gems, des IA expertes personnalisables, pour Gemini. Les Gems sont adaptées à des tâches spécifiques et seraient meilleures que les GPTs personnalisés
GPT-4o arrive en tête du classement des modèles d'IA les plus performants de LMSYS Chatbot Arena avec un score Elo de 1 289, surpassant ainsi Gemini Pro 1.5 de Google et Claude 3 Opus d'Anthropic
Le PDG de Google qualifie de « totalement inacceptables » les erreurs de diversité commises par l'IA Gemini. Elles ont coûté 90 milliards de dollars à la capitalisation boursière de l'entreprise