IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google annonce en avant-première Gemma 3n, la dernière version de son modèle d'IA ouvert capable de fonctionner sur un seul GPU
Gemma 3n serait une IA puissante, efficace et mobile-first

Le , par Jade Emy

5PARTAGES

6  0 
Google annonce en avant-première Gemma 3n, la dernière version de son modèle d'IA ouvert capable de fonctionner sur un seul GPU, Gemma 3n serait une IA puissante, efficace et mobile-first

Google a dévoilé Gemma 3n, une nouvelle addition à sa famille de modèles d'IA "ouverts" conçue pour fonctionner efficacement sur les smartphones, ordinateurs portables et tablettes avec seulement un seul GPU. Gemma 3n serait capable de traiter du texte, des images et, à terme, de l'audio et de la vidéo directement sur les appareils sans nécessiter du cloud computing.

En mars 2025, Google a lancé Gemma 3, une famille de modèles ouverts capables de fonctionner sur un seul accélérateur de cloud ou de bureau. Puis en avril, Google a annoncé Gemma 3 QAT qui réduit les besoins en mémoire tout en préservant la qualité du modèle. L'objectif de Google est que Gemma 3 fournisse de "puissantes capacités" aux développeurs tout en étant une "IA en temps réel hautement performante", fonctionnant directement sur les appareils tel que les téléphones, les tablettes et les ordinateurs portables.

Pour alimenter la prochaine génération d'IA sur les appareils et prendre en charge une gamme variée d'applications, y compris l'amélioration des capacités de Gemini Nano, Google rapporte avoir conçu une nouvelle architecture de pointe. Créée en collaboration avec des leaders du matériel mobile tels que Qualcomm Technologies, MediaTek et Samsung System LSI, Google affirme que cette nouvelle architecture est optimisée pour une IA multimodale rapide comme l'éclair, "permettant des expériences véritablement personnelles et privées directement sur votre appareil".

Avec cette nouvelle découverte, Google a récemment annoncé Gemma 3n en avant-première, son premier modèle ouvert construit sur cette architecture, qui arrivera sur Android et Chrome. Google annonce également que cette même architecture serait à la base de la prochaine génération de Gemini Nano, qui sera disponible dans le courant de l'année.


Gemma 3n exploite l'architecture de Google DeepMind appelée Per-Layer Embeddings (PLE) qui permet de réduire l'utilisation de la RAM. Alors que le nombre de paramètres bruts est de 5B et 8B, cette innovation permettrait d'exécuter des modèles plus importants sur des appareils mobiles ou de les diffuser en direct depuis le cloud, avec une surcharge de mémoire comparable à un modèle de 2B et 4B, ce qui signifie que les modèles peuvent fonctionner avec une empreinte mémoire dynamique de seulement 2GB et 3GB.

En explorant Gemma 3n, les développeurs peuvent avoir un premier aperçu des capacités principales du modèle ouvert et des innovations architecturales mobiles qui seront disponibles sur Android et Chrome avec Gemini Nano.


Présentation des capacités de Gemma 3n

Conçu pour des expériences d'IA rapides et peu encombrantes fonctionnant localement, Gemma 3n offrirait :

  • Des performances et une efficacité optimisées sur l'appareil : Gemma 3n commence à répondre environ 1,5 fois plus vite sur mobile avec une qualité supérieure par rapport à Gemma 3 4B et une empreinte mémoire réduite grâce à l'intégration par couche, le partage KVC et la quantification d'activation avancée.
  • Flexibilité multiple en 1 : Un modèle avec une empreinte mémoire active de 4B qui inclut nativement un sous-modèle imbriqué avec une empreinte mémoire active de 2B (grâce à la formation MatFormer). Cela permet d'arbitrer dynamiquement entre performance et qualité sans avoir à héberger des modèles distincts. Gemma 3n introduit une capacité de mix'n'match pour créer dynamiquement des sous-modèles à partir du modèle 4B qui peuvent s'adapter de manière optimale à un cas d'utilisation spécifique, ainsi qu'au compromis qualité/latence qui en découle.
  • Privilégier la confidentialité et être prêt à fonctionner hors ligne : L'exécution locale permet des fonctionnalités qui respectent la vie privée de l'utilisateur et fonctionnent de manière fiable, même sans connexion internet.
  • Compréhension multimodale élargie avec l'audio : Gemma 3n peut comprendre et traiter de l'audio, du texte et des images, et offrirait une compréhension vidéo. Ses capacités audio permettent au modèle d'effectuer une reconnaissance automatique de la parole (transcription) et une traduction (de la parole au texte traduit) de qualité. En outre, le modèle accepte des entrées entrelacées entre les modalités, ce qui permet de comprendre des interactions multimodales complexes. (Mise en œuvre publique à venir)
  • Amélioration des capacités multi-langues : Amélioration des performances multilingues, en particulier en japonais, allemand, coréen, espagnol et français. De solides performances se reflètent dans les tests de référence multilingues tels que 50,1 % pour WMT24++ (ChrF).


Disponibilité

  • Exploration basée sur le cloud avec Google AI Studio : Essayez Gemma 3n directement dans votre navigateur sur Google AI Studio - aucune configuration n'est nécessaire. Explorez ses capacités de saisie de texte instantanément.
  • Développement sur appareil avec Google AI Edge : pour les développeurs qui souhaitent intégrer Gemma 3n localement, Google AI Edge fournit des outils et des bibliothèques. Vous pouvez commencer à utiliser les capacités de compréhension/génération de texte et d'image.



Source : Google

Et vous ?

Pensez-vous que ce modèle est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

Google lance de nouveaux modèles QAT Gemma 3, optimisés avec Quantization-Aware Training (QAT) qui réduirait considérablement les besoins en mémoire tout en maintenant une haute qualité

Google affirme que le fonctionnement de modèles d'IA sur les téléphones consomme énormément de mémoire vive. La disponibilité de Gemini Nano sur le Pixel 8 pose des questions sur la transparence

Google I/O 2025 : toutes les annonces majeures qu'il faut retenir de la conférence centrée sur l'IA. Google présente une architecture numérique tournée vers l'IA générative avec Gemini comme OS invisible
Vous avez lu gratuitement 4 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !