Gemma est une famille de modèles ouverts légers, à la pointe de la technologie, construits à partir des mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini. Développé par Google DeepMind et d'autres équipes de Google, Gemma s'inspire de Gemini, et son nom reflète le latin gemma, qui signifie "pierre précieuse". Parallèlement aux poids des modèles, Google publie également des outils destinés à soutenir l'innovation des développeurs, à favoriser la collaboration et à guider l'utilisation responsable des modèles Gemma.
Gemma est disponible dans le monde entier à partir d'aujourd'hui. Voici les principaux détails à connaître :
- Gemma propose des modèles de poids en deux tailles : Gemma 2B et Gemma 7B. Chaque taille est publiée avec des variantes pré-entraînées et adaptées aux instructions.
- Une nouvelle boîte à outils d'IA générative responsable fournit des conseils et des outils essentiels pour créer des applications d'IA plus sûres avec Gemma.
- Gemma fournit des chaînes d'outils pour l'inférence et le réglage fin supervisé (SFT) dans tous les principaux frameworks : JAX, PyTorch, et TensorFlow à travers Keras 3.0.
- Des notebooks Colab et Kaggle prêts à l'emploi, ainsi que l'intégration avec des outils populaires tels que Hugging Face, MaxText, NVIDIA NeMo et TensorRT-LLM, facilitent la prise en main de Gemma.
- Les modèles Gemma pré-entraînés et réglés par instructions peuvent s'exécuter sur votre ordinateur portable, votre station de travail ou Google Cloud avec un déploiement facile sur Vertex AI et Google Kubernetes Engine (GKE).
- L'optimisation sur plusieurs plateformes matérielles d'IA garantit des performances à la pointe de l'industrie, notamment les GPU NVIDIA et les TPU Google Cloud.
- Les conditions d'utilisation permettent une utilisation commerciale et une distribution responsables pour toutes les organisations, quelle que soit leur taille.
Des performances de pointe en termes de taille
Les modèles Gemma partagent des composants techniques et d'infrastructure avec Gemini, le plus grand et le plus performant de des modèles d'IA de Google disponibles aujourd'hui. Cela permet aux modèles Gemma 2B et 7B d'atteindre les meilleures performances de leur catégorie par rapport à d'autres modèles ouverts. De plus, les modèles Gemma peuvent être exécutés directement sur un ordinateur portable ou de bureau du développeur. Notamment, Gemma surpasse des modèles beaucoup plus grands sur des points de référence clés tout en adhérant aux normes rigoureuses de Google pour des résultats sûrs et responsables.
Une conception responsable
Gemma est conçu en tenant compte des principes de Google en matière d'IA. Pour que les modèles pré-entraînés de Gemma soient sûrs et fiables, des techniques automatisées ont été utilisées pour filtrer certaines informations personnelles et d'autres données sensibles des ensembles d'entraînement. En outre, Google a eu recours à un réglage fin et à l'apprentissage par renforcement à partir du retour d'information humain (RLHF) afin d'aligner ses modèles d'instruction sur des comportements responsables. Pour comprendre et réduire le profil de risque des modèles Gemma, l'équipe a procédé à des évaluations rigoureuses, notamment des tests manuels en équipe restreinte, des tests automatisés de résistance et des évaluations des capacités des modèles pour les activités dangereuses. Ces évaluations sont décrites dans le Model Card.
Google publie également, en même temps que Gemma, une nouvelle boîte à outils pour l'IA générative responsable, afin d'aider les développeurs et les chercheurs à donner la priorité à la création d'applications d'IA sûres et responsables. La boîte à outils comprend :
- Classification de la sécurité : une nouvelle méthodologie pour construire des classificateurs de sécurité robustes avec un minimum d'exemples est proposée.
- Débogage : un outil de débogage du modèle vous aide à étudier le comportement de Gemma et à résoudre les problèmes potentiels.
- Conseils : vous pouvez accéder aux meilleures pratiques pour les créateurs de modèles, basées sur l'expérience de Google en matière de développement et de déploiement de modèles de langage de grande taille.
Optimisé à travers les frameworks, les outils et le matériel
Vous pouvez affiner les modèles Gemma sur vos propres données pour les adapter aux besoins d'applications spécifiques, telles que le résumé ou la génération augmentée de récupération (RAG). Gemma prend en charge une grande variété d'outils et de systèmes :
- Outils multi-framework : apportez votre framework préféré, avec des implémentations de référence pour l'inférence et le réglage fin à travers Keras 3.0 multi-framework, PyTorch natif, JAX, et Hugging Face Transformers.
- Compatibilité inter-appareils : les modèles Gemma s'exécutent sur les types d'appareils les plus courants, notamment les ordinateurs portables, les ordinateurs de bureau, l'IoT, les appareils mobiles et le cloud, ce qui permet de disposer de capacités d'IA largement accessibles.
- Des plateformes matérielles de pointe : Google a conclu un partenariat avec NVIDIA afin d'optimiser Gemma pour les GPU NVIDIA, du centre de données au cloud en passant par les PC RTX AI locaux, garantissant ainsi des performances à la pointe de l'industrie et une intégration avec les technologies les plus récentes.
- Optimisé pour Google Cloud : Vertex AI fournit un large ensemble d'outils MLOps avec une gamme d'options de réglage et un déploiement en un clic en utilisant des optimisations d'inférence intégrées. Une personnalisation avancée est disponible avec les outils Vertex AI entièrement gérés ou avec GKE autogéré, y compris le déploiement dans une infrastructure rentable sur GPU, TPU et CPU à partir de l'une ou l'autre plateforme.
Crédits gratuits pour la recherche et le développement
Gemma est conçu pour la communauté ouverte de développeurs et de chercheurs qui alimentent l'innovation en matière d'IA. Vous pouvez commencer à travailler avec Gemma dès aujourd'hui en utilisant un accès gratuit dans Kaggle, un niveau gratuit pour les carnets Colab et 300 $ de crédits pour les premiers utilisateurs de Google Cloud. Les chercheurs peuvent également demander des crédits Google Cloud allant jusqu'à 500 000 dollars pour accélérer leurs projets.
Pour bien démarrer
Alors que Google continue de développer la famille de modèles Gemma, elle se réjouit d'introduire de nouvelles variantes pour diverses applications. Restez à l'écoute des événements et des opportunités qui se présenteront dans les semaines à venir pour vous connecter, apprendre et construire avec Gemma.
Vous pouvez en savoir plus sur Gemma et accéder à des guides de démarrage rapide sur ai.google.dev/gemma.
Source : "Gemma Open Models" (Google)
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Google publie Gemma, une famille de modèles d'IA ouverts et optimisés pour Google Cloud, que les développeurs extérieurs peuvent façonner comme les leurs, emboitant ainsi le pas à Meta Platforms
Gemini 1.5 surpasse GPT-4-Turbo-128K sur les longues invites de code , selon l'auteur de HVM, "Dans la tâche de compréhension de la base de code, Gemini 1.5 a absolument détruit GPT-4-Turbo-128K
Google lance Gemini, un modèle d'IA puissant qui, selon lui, peut surpasser GPT-4 et dispose de « capacités de raisonnement » avancées pour « réfléchir plus attentivement »