IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le grand modèle de langage Gemini 2.0 de Google DeepMind est maintenant disponible pour tout le monde, et la famille d'IA Gemini 2.0 s'étend pour les développeurs

Le , par Jade Emy

1PARTAGES

4  0 
Le grand modèle de langage Gemini 2.0 de Google DeepMind est maintenant disponible pour tout le monde, et la famille d'IA Gemini 2.0 s'étend pour les développeurs.

Google annonce des mises à jour pour rendre Gemini 2.0 accessible à un plus grand nombre de développeurs et d'utilisateurs via l'API Gemini via Google AI Studio et dans Vertex AI. Gemini 2.0 Flash est désormais disponible en général, avec des limites de taux plus élevées, des performances accrues et une tarification simplifiée. Gemini 2.0 Flash-Lite, une nouvelle variante qui serait le modèle le plus économique de Google à ce jour, est maintenant disponible en avant-première publique. Gemini 2.0 Pro, une mise à jour expérimentale du meilleur modèle de Google pour le codage et les invites complexes, est maintenant disponible.

En décembre 2024, Google a annoncé la sortie de Gemini 2.0, son "nouveau modèle d'IA pour l'ère agentique". Le premier modèle disponible est Gemini 2.0 Flash, "un modèle de référence très efficace pour les développeurs, avec une faible latence et des performances accrues", selon Google. Puis en janvier 2025, Google a mis à jour 2.0 Flash Thinking Experimental dans Google AI Studio, pour améliorer ses performances en combinant la vitesse de Flash et la capacité de raisonner sur des problèmes complexes. Google a également mis une version actualisée de Flash 2.0 à la disposition de tous les utilisateurs de l'application Gemini sur ordinateur et mobile.

Pour rappel, Gemini (anciennement connu sous le nom de Bard) est une famille de grands modèles de langage multimodaux développés par Google DeepMind, servant de successeur à LaMDA et PaLM 2. Comprenant Gemini Ultra, Gemini Pro, Gemini Flash, et Gemini Nano, il a été annoncé le 6 décembre 2023, positionné comme un concurrent du GPT-4 d'OpenAI. Il alimente le chatbot du même nom.

Le 5 février 2025, Google a annoncé mettre la version actualisée de Gemini 2.0 Flash à la disposition de tous via l'API Gemini dans Google AI Studio et Vertex AI. Les développeurs peuvent désormais créer des applications de production avec 2.0 Flash. Avec cette annonce, Google publie également une version expérimentale de Gemini 2.0 Pro, "son meilleur modèle à ce jour pour les performances de codage et les invites complexes." Elle est disponible dans Google AI Studio et Vertex AI, ainsi que dans l'application Gemini pour les utilisateurs de Gemini Advanced.

En outre, Google annonce un nouveau modèle, Gemini 2.0 Flash-Lite, notre modèle le plus économique à ce jour, en avant-première publique dans Google AI Studio et Vertex AI. Enfin, le modèle 2.0 Flash Thinking Experimental sera disponible pour les utilisateurs de l'application Gemini dans la liste déroulante des modèles sur les ordinateurs de bureau et les téléphones portables. Google annonce que tous ces modèles seront dotés d'une entrée multimodale et d'une sortie texte dès leur sortie, et d'autres modalités seront prêtes pour une disponibilité générale dans les mois à venir.


2.0 Flash : une nouvelle mise à jour pour une disponibilité générale

Présentée pour la première fois lors de la conférence I/O 2024, la série de modèles Flash est appréciée en tant que puissant modèle de travail, optimal pour les tâches à volume et à fréquence élevés à l'échelle et capable de raisonnement multimodal sur des quantités d'informations avec une fenêtre de contexte d'un million de jetons. La version 2.0 de Flash est désormais accessible à un plus grand nombre de personnes dans les produits d'IA de Google, avec des performances améliorées dans les principaux critères d'évaluation, la génération d'images et la synthèse vocale étant à venir.

2.0 Pro Experimental : le meilleur modèle de Google à ce jour pour les performances de codage et les invites complexes

Les premières versions expérimentales de Gemini 2.0, comme Gemini-Exp-1206, ont suscité de bons commentaires de la part des développeurs sur ses points forts et ses cas d'utilisation, comme le codage. Google annonce donc une version expérimentale de Gemini 2.0 Pro qui répond à ces commentaires. Elle offrirait de meilleures performances en matière de codage et une meilleure capacité à gérer des invites complexes, avec une meilleure compréhension et un meilleur raisonnement de la connaissance du monde. Il est doté de la plus grande fenêtre contextuelle (2 millions de jetons), ce qui lui permet d'analyser et de comprendre des quantités d'informations, ainsi que de faire appel à des outils tels que Google Search et l'exécution de code.


2.0 Flash-Lite : le modèle de Google le plus économique à ce jour

Google affirme que le prix et la vitesse du Flash 1.5 ont suscité des commentaires positifs. Pour continuer à améliorer la qualité, tout en maintenant le prix et la vitesse, Google présente 2.0 Flash-Lite, un nouveau modèle qui offre une meilleure qualité que 1.5 Flash, à la même vitesse et au même prix. Il surpasse le Flash 1.5 dans la majorité des tests de référence. Comme Flash 2.0, il dispose d'une fenêtre contextuelle d'un million de jetons et d'une entrée multimodale. Gemini 2.0 Flash-Lite est disponible dans Google AI Studio et Vertex AI en version publique.

Caractéristiques des modèles

Gemini 2.0 Flash offre un ensemble de fonctionnalités, notamment l'utilisation d'outils en natif, une fenêtre contextuelle d'un million de jetons et une saisie multimodale. Il prend actuellement en charge la sortie texte, avec des capacités de sortie image et audio et l'API Multimodal Live prévue pour une disponibilité générale dans les mois à venir. Gemini 2.0 Flash-Lite est optimisé en termes de coûts pour les cas d'utilisation à grande échelle de la sortie texte.


Performances des modèles

Les modèles Gemini 2.0 offrent des améliorations significatives des performances par rapport à Gemini 1.5 sur une série de points de référence. Comme pour les modèles précédents, Gemini 2.0 Flash utilise par défaut un style concis qui facilite son utilisation et réduit les coûts. Il peut également être invité à utiliser un style plus verbeux qui produit de meilleurs résultats dans les cas d'utilisation orientés vers le chat.


Tarifs des modèles

Google affirme réduire les coûts avec Gemini 2.0 Flash et 2.0 Flash-Lite. Les deux ont un prix unique par type d'entrée, supprimant la distinction de Gemini 1.5 Flash entre les requêtes contextuelles courtes et longues. Cela signifie que le coût de Flash 2.0 et de Flash-Lite peut être inférieur à celui de Gemini 1.5 Flash pour les charges de travail à contexte mixte, malgré les améliorations de performance qu'ils apportent tous les deux.


Pour conclure son annonce, Google a partagé sa politique de responsabilité et son travail de sécurité :

Au fur et à mesure que les capacités de la famille de modèles Gemini augmentent, nous continuerons à investir dans des mesures robustes qui permettent une utilisation sûre et sécurisée. Par exemple, notre gamme Gemini 2.0 a été construite avec de nouvelles techniques d'apprentissage par renforcement qui utilisent Gemini lui-même pour critiquer ses réponses. Cela a permis d'obtenir un retour d'information plus précis et plus ciblé, et d'améliorer la capacité du modèle à gérer des questions délicates.

Nous tirons également parti du red teaming automatisé pour évaluer les risques de sûreté et de sécurité, y compris ceux posés par les risques d'injection indirecte d'invites, un type d'attaque de cybersécurité qui consiste pour les attaquants à dissimuler des instructions malveillantes dans des données susceptibles d'être récupérées par un système d'intelligence artificielle.

Source : Google

Et vous ?

Pensez-vous que cette annonce de Google est crédible ou pertinente ?
Quel est votre avis sur ces modèles ?

Voir aussi :

Gemini 2.0 Flash Thinking Experimental : Pour ne pas être distancé par OpenAI et son modèle o1. Google lance son propre modèle d'IA qui utilise des techniques de « raisonnement »

Google annonce deux nouveaux modèles IA Gemini, la réduction du prix de la version 1.5 Pro, l'augmentation des limites de taux, ainsi que la mise à jour des paramètres de filtre par défaut

Google prévoit de réaliser un investissement colossal de 75 milliards de dollars dans l'IA en 2025 pour renforcer sa présence dans le domaine de l'IA et écraser la concurrence
Vous avez lu gratuitement 668 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de smarties
Expert confirmé https://www.developpez.com
Le 05/03/2025 à 9:44
60h/semaine (de 5 jours) + 10h/semaine (les trajets aller-retour domicile-travail) ce qui donne 14h à consacrer par jour au travail.

Si on ajoute :
- 1h pour se préparer le matin (voir un peu plus)
- 2h pour le soir pour faire les tâches ménagères (ménager, diner, ...)

Il reste déjà plus que 7h pour dormir, sinon il faut aussi travailler le WE. Qui tiendrait un rythme régulier comme ça ?
De mémoire, une étude avait conclu qu'au delà d'un certain nombre d'heures de travail par semaine la productivité s'effondrait.
5  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 05/03/2025 à 8:30
google, la boite qui a viré 12000 salariés en 2023 et veut recommencer depuis le début de cette années ? ca donne envie aux salariés de s'investir pour l'entreprise
Et quand bine même, je doute que bosser 60h de toute façon ce soit productif mentalement pour un ingénieur. Ca risque même d'avoir l'effet inverse.

Enfin l'ia, c'est que le début, c'est un marché très compétitifs et les clients ne sont pas fidèle donc y'a pas d'urgence a sortir un produit dans le mois.. Si dans 1ans google arrive a offrir un meilleur produit, les clients irons chez google.
C'est d'ailleurs une raison pour laquelle je n'ai jamais investie mon argent dans des compagnies aériennes, les clients sont pas fidèle.
Pour l'ia c'est la même chose, c'est les fabricants de puces qui sont gagnant (nvidia...) pas les vendeurs de modèles.
3  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 26/02/2025 à 7:27
C'est dommage qu'il ne soit pas disponible pour Visual Studio, je ne vois pas l'interet d'utiliser VS Code ?
0  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 26/02/2025 à 10:58
Citation Envoyé par jnspunk Voir le message
C'est dommage qu'il ne soit pas disponible pour Visual Studio, je ne vois pas l'interet d'utiliser VS Code ?
VS Code est l'IDE le plus utilisé (source).
Jetbrains est en train de rebattre les cartes mais ça va prendre un peu de temps.
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 27/02/2025 à 19:20
En général, Visual Studio est utilisé par les pros ou étudiant; et donc un tel public a déjà accès à la version pro de Gemini Code Assist.
Je ne dis pas que VS Code n'est pas aussi utilisé par les pros mais cela se destine à un public plus linux ou amateur. Je ne dis pas que le public linux est une bande d'amateurs mais un champ de clientèle allergique au payant même s'il y a des applis payantes ou des linux payant comme RHEL mais destinés à un public pro.

edit : donc Google ne va pas phagocyter son marché de Gemini Code Assist Enterprise en rendant disponible Gemini Code Assist pour Visual Studio, ça me paraît logique et je ne comprends pas le pouce vers le bas. S'il pouvait m'expliquer pourquoi, je suis tout ouïe.
1  1 
Avatar de Camille12
Nouveau Candidat au Club https://www.developpez.com
Le 25/03/2025 à 12:41
Gemini 2.0 marque un bond en avant impressionnant pour l'IA, avec des performances accrues et une vitesse remarquable. La multimodalité et les capacités agentiques ouvrent des perspectives passionnantes, notamment pour les développeurs. La concurrence avec OpenAI s'intensifie, et c'est une excellente nouvelle pour l'innovation. Vivement les retours des testeurs !
0  0