IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google affirme que le fonctionnement de modèles d'IA sur les téléphones consomme énormément de mémoire vive
La disponibilité de Gemini Nano sur le Pixel 8 pose des questions sur la transparence

Le , par Bruno

8PARTAGES

2  0 
Google reconnaît que l'exécution des modèles d'intelligence artificielle sur les téléphones demande une quantité importante de mémoire vive, ce qui peut poser des défis pour les appareils dotés de quantités limitées de RAM. L'entreprise souhaite que ces modèles soient chargés en permanence pour assurer une disponibilité constante des fonctionnalités d'IA, comme la réponse intelligente. Cependant, la gestion de cette demande de mémoire peut être complexe, surtout pour les appareils avec une capacité mémoire plus restreinte.

Début mars, Google a surpris en annonçant que seul l'un de ses nouveaux smartphones, le Pixel 8 Pro, serait capable d'exécuter son dernier modèle d'IA, Google Gemini, en raison de prétendues « limitations matérielles » sur le Pixel 8 plus petit. Cependant, après quelques semaines, l'entreprise a révisé sa position et prévoit désormais de rendre disponible Gemini Nano sur le Pixel 8 également, bien que sous forme d'option pour les développeurs, en raison de la différence de mémoire vive entre les deux appareils.



Google a récemment annoncé Gemini Pro 1.5, la dernière mise à jour de sa série de modèles d'IA Gemini. Cette version offre des améliorations significatives, notamment une fenêtre contextuelle de 1 million de jetons, surpassant largement les précédents détenteurs du record tels que Claude 2.1 (200 000 jetons) et gpt-4-turbo (128 000 jetons). Cependant, il est important de noter que la comparaison directe entre ces modèles est quelque peu nuancée en raison des différences d'implémentation des jetons. Elle permet une compréhension approfondie des contextes longs. La nouvelle architecture MoE (Mélange d'experts) et des innovations dans l'apprentissage automatique rendent Gemini 1.5 plus performant et efficace pour la formation et le service.

Gemini Pro 1.5, le premier modèle disponible, est multimodal, optimisé pour diverses tâches, et peut traiter jusqu'à 1 million de jetons. Il excelle dans l'analyse, la classification et le résumé d'informations, même avec des volumes importants, comme une heure de vidéo ou 11 heures d'audio. La capacité à raisonner sur des contextes longs ouvre de nouvelles possibilités, notamment dans la compréhension vidéo, la résolution de problèmes avec des blocs de code étendus, et la traduction de langues rares.

Google affirme que le Pixel 8, axé sur l'IA, ne peut pas faire fonctionner ses derniers modèles d'IA pour smartphone. Gemini Nano ne peut pas fonctionner sur le Pixel 8, plus petit, en raison de mystérieuses « limitations matérielles. » Google justifie cette décision en expliquant que la gestion des modèles d'IA sur les appareils mobiles implique des compromis, surtout en ce qui concerne la disponibilité de la mémoire vive. Ils préfèrent assurer une expérience utilisateur fluide, ce qui peut nécessiter des ajustements selon les capacités matérielles de chaque appareil.

Cependant, la question demeure quant à savoir si les utilisateurs ont réellement besoin de fonctionnalités d'IA générative intégrées au système d'exploitation, comme la réponse intelligente. Certains remettent en question l'utilité réelle de telles fonctionnalités par rapport à l'utilisation de la mémoire vive, soulignant que des compromis peuvent être nécessaires.

En fin de compte, la gestion des modèles d'IA sur les smartphones soulève des questions sur les exigences matérielles et les priorités des utilisateurs en termes de fonctionnalités et de performances. Google continue d'explorer des solutions pour équilibrer ces préoccupations tout en offrant des fonctionnalités d'IA pertinentes et utiles.

Il s'agit là d'une déclaration étonnante. Gemini est le dernier modèle d'IA de Google, qui a fait grand cas de son lancement le mois dernier. Gemini se décline en quelques tailles différentes, et la plus petite taille "Nano" est spécifiquement conçue pour fonctionner sur les smartphones en tant qu'"on-device AI", dont on a beaucoup parlé. Les Pixel 8 et Pixel 8 Pro sont les smartphones phares de Google. Google a conçu le téléphone, la puce et le modèle d'IA et, d'une manière ou d'une autre, ne peut pas faire en sorte que ces choses fonctionnent bien ensemble ?

Pour ajouter à la bizarrerie, Gemini Nano peut fonctionner sur le Pixel 8 Pro mais pas sur le Pixel 8, plus petit, en raison de "limitations matérielles." De quelles limitations s'agit-il exactement ? Les deux téléphones ont exactement le même SoC Google Tensor. Ils exécutent le même logiciel. Les principales différences entre les deux téléphones sont la taille de l'écran (6,7 pouces contre 6,2), la taille de la batterie, une charge d'appareil photo différente et 8 Go de RAM contre 12 Go.

La mémoire vive est la seule différence connue qui pourrait créer une limitation de traitement, mais Gemini Nano fonctionne également sur la série Galaxy S24, dont le modèle de base dispose de 8 Go de mémoire vive. La RAM étant le problème, cela signifierait que les téléphones Samsung sont en quelque sorte plus efficaces en termes de RAM que les téléphones Pixel, ce qui est difficile à croire. Si le Pixel 8 Pro Tensor 3 et le Pixel 8 Tens ; or 3 sont différents d'une manière ou d'une autre, cela ne figure pas sur la fiche technique.

« Il y a quelques semaines, nous avons annoncé Circle to Search, une nouvelle façon de rechercher n'importe quoi sur votre téléphone Pixel sans changer d'application. D'un simple geste, vous pouvez sélectionner ce qui vous intrigue de la manière qui vous semble la plus naturelle - comme entourer, surligner, griffonner ou tapoter - et obtenir plus d'informations sans quitter l'appli ou le contenu sur lequel vous vous trouvez.

« À partir d'aujourd'hui, nous étendons Circle to Search à davantage d'appareils Pixel, d'abord aux Pixel 6, Pixel 6 Pro, Pixel 6a et Pixel 7a. Ces appareils rejoignent maintenant les Pixel 8, Pixel 8 Pro, Pixel 7 et Pixel 7 Pro avec l'accès et dans les semaines à venir, nous allons également déployer la fonctionnalité pour les utilisateurs de Pixel Fold et Pixel Tablet. Nous allons également étendre le déploiement de Gemini Nano aux utilisateurs de Pixel 8 en tant qu'option développeur avec le prochain Pixel Feature Drop », Google.

La stratégie de Google face aux contraintes techniques de l'IA sur les smartphones

L'approche de Google concernant l'exécution de modèles d'intelligence artificielle sur les téléphones révèle à la fois des défis techniques et des enjeux stratégiques. Sur le plan technique, il est indéniable que l'exécution d'algorithmes d'IA demande une quantité significative de mémoire vive, ce qui peut poser des problèmes pour les appareils dotés de capacités limitées de RAM. Cette réalité reflète les contraintes matérielles auxquelles sont confrontés les développeurs lorsqu'ils cherchent à intégrer des fonctionnalités d'IA complexes dans des environnements mobiles.

La décision initiale de Google de réserver son dernier modèle d'IA, "Google Gemini", exclusivement au Pixel 8 Pro, met en lumière les difficultés rencontrées par l'entreprise pour garantir une expérience utilisateur optimale sur des appareils moins puissants. Cette approche semble indiquer une priorisation des performances et de la qualité de l'expérience utilisateur sur le Pixel 8 Pro, équipé de davantage de RAM, au détriment du Pixel 8.

Cependant, la récente décision de Google de rendre disponible Gemini Nano sur le Pixel 8, bien que sous forme d'option pour les développeurs, semble être une réponse à la rétroaction des utilisateurs et à la pression médiatique. Cette volte-face soulève des questions sur la transparence de Google quant à ses capacités techniques réelles et à sa communication avec les consommateurs.


D'un point de vue stratégique, la volonté de Google de maintenir des modèles d'IA chargés en permanence sur les téléphones reflète sa vision d'une intégration plus profonde de l'IA dans les interactions quotidiennes des utilisateurs. Cependant, cette vision doit être équilibrée avec les contraintes matérielles et les préoccupations des utilisateurs concernant la gestion des ressources système et la confidentialité des données.

Bien que Google cherche à surmonter les défis liés à l'exécution d'algorithmes d'IA sur les téléphones, ses décisions et ses communications dans ce domaine soulignent la complexité des compromis entre performances, ressources matérielles et expérience utilisateur. Une approche plus transparente et axée sur les besoins des utilisateurs pourrait renforcer la confiance et l'acceptation des fonctionnalités d'IA sur les appareils mobiles.

Source : Google

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Le PDG de Google qualifie de « totalement inacceptables » les erreurs de diversité commises par l'IA Gemini, elles ont coûté 90 milliards de dollars à la capitalisation boursière de l'entreprise

Gemini Pro 1.5 : l'une des utilisations du modèle d'IA de Google est de générer du code à partir de vidéos, avec un contexte d'1 million de jetons, dépassant Claude 2.1 et gpt-4-turb

Une erreur dans cette actualité ? Signalez-nous-la !