IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple lance OpenELM : de petits modèles d'IA open source conçus pour fonctionner directement sur l'appareil et effectuer efficacement des tâches de génération de texte

Le , par Stéphane le calme

4PARTAGES

6  0 
Alors que Google, Samsung et Microsoft poursuivent leurs efforts en matière d'IA générative sur les PC et les appareils mobiles, Apple se joint à la fête avec OpenELM, une nouvelle famille de grands modèles de langage (LLM) open source qui peuvent fonctionner entièrement sur un seul appareil plutôt que de devoir se connecter à des serveurs sur le cloud. Publié sur le site de la communauté de code d'IA Hugging Face, OpenELM se compose de petits modèles conçus pour effectuer efficacement des tâches de génération de texte. Ces modèles sont entraînés sur des ensembles de données accessibles au public à l'aide de la bibliothèque CoreNet. Les données d'entraînement comprennent une variété de sources, totalisant environ 1,8 billion (1 billion étant 1 000 milliards) de jetons.

Le moins que l'on puisse dire, c'est que l'avancée d'Apple en matière d'IA a été lente, surtout si on la compare aux développements rapides qui ont lieu chez ses concurrents, à savoir Microsoft et Google. Alors que Samsung, Google et même Nothing proposent une pléthore de fonctions d'IA sur leurs appareils respectifs, les iPhones sont restés à l'écart, Apple devant rattraper son retard dans la course à l'IA. Toutefois, Apple s'efforce activement de progresser et a récemment discuté avec des sociétés comme Google et OpenAI d'un éventuel accord qui permettrait d'utiliser leurs modèles d'IA sur les iPhones, mais cet accord est encore en cours d'élaboration.


Apple publie quatre modèles d'IA en code source libre

Il y a huit modèles OpenELM au total - quatre pré-entraînés et quatre adaptés aux instructions - couvrant différentes tailles de paramètres entre 270 millions et 3 milliards de paramètres (se référant aux connexions entre les neurones artificiels dans un LLM, et plus de paramètres dénotent généralement une plus grande performance et plus de capacités, bien que ce ne soit pas toujours le cas).

Si le préapprentissage permet à un LLM de produire un texte cohérent et potentiellement utile, il s'agit principalement d'un exercice prédictif, tandis que le réglage des instructions permet d'obtenir des résultats plus pertinents en réponse à des demandes spécifiques d'un utilisateur. Le préapprentissage peut avoir pour conséquence qu'un modèle essaie simplement de compléter l'invite avec du texte supplémentaire, par exemple en répondant à l'invite de l'utilisateur « apprenez-moi à faire du pain » avec le texte « dans un four domestique » plutôt qu'avec de véritables instructions étape par étape, ce qui serait plus facile à réaliser grâce au réglage des instructions.

Selon l'article publié sur HuggingFace, la famille de modèles d'IA est connue sous le nom de « Open-source Efficient Language Models » ou OpenELM. Ces modèles ont été conçus pour effectuer efficacement de petites tâches, telles que la rédaction d'e-mails. Apple indique qu'OpenELM a été entraîné sur des ensembles de données accessibles au public à l'aide de la bibliothèque CoreNet, qui comprend RefinedWeb, PILE dédupliqué, un sous-ensemble de RedPajama et un sous-ensemble de Dolma v1.6, soit un total d'environ 1,8 trillion (1 billion étant 1 000 milliards) de tokens. Il a été publié avec quatre paramètres : 70 millions, 450 millions, 1,1 milliard et 3 milliards.

Les paramètres, qui sont des mesures cruciales dans les modèles d'IA, déterminent l'étendue des variables dont le modèle peut tirer des enseignements au cours des processus de prise de décision. La publication d'OpenELM par Apple vise à contribuer à la communauté de la recherche ouverte en donnant accès à des modèles de langage de pointe et en encourageant l'innovation et la collaboration dans la recherche sur l'IA. L'incursion d'Apple dans l'IA ne se limite pas à la publication d'OpenELM. L'entreprise explore activement les applications de l'IA, comme en témoigne le développement de frameworks tels que MLX pour optimiser les performances de l'IA sur les appareils alimentés au silicium d'Apple.

Ce qu'il faut retenir des caractéristiques d’OpenELM :
  • Différentes tailles de paramètres : la famille OpenELM comprend huit modèles au total, répartis en quatre pré-entraînés et quatre ajustés aux instructions. Ils couvrent différentes tailles de paramètres, allant de 270 millions à 3 milliards de paramètres. Plus de paramètres ne signifient pas toujours de meilleures performances, mais dans ce cas, OpenELM parvient à offrir une précision accrue.
  • Technique de mise à l’échelle par couche : OpenELM utilise une technique appelée mise à l’échelle par couche pour allouer les paramètres de manière plus efficace dans le modèle de transformation. Contrairement à un modèle où chaque couche possède le même ensemble de paramètres, les couches du transformateur d’OpenELM ont des configurations et des paramètres différents. Le résultat est une meilleure précision, comme le montrent les tests de référence.
  • Entraînement sur des ensembles de données variés : OpenELM a été pré-entraîné à l’aide du jeu de données RedPajama provenant de GitHub, ainsi que d’une multitude de livres, d’articles Wikipedia, de publications StackExchange et d’articles ArXiv. Le modèle a également utilisé le jeu de données Dolma provenant de Reddit, Wikibooks et Project Gutenberg.



Une performance respectable, mais pas à la pointe de la technologie

En termes de performances, les résultats d'OpenLLM communiqués par Apple montrent que les modèles sont assez performants, en particulier la variante d'instruction à 450 millions de paramètres.

En outre, la variante OpenELM de 1,1 milliard de paramètres « surpasse OLMo, qui a 1,2 milliard de paramètres, de 2,36 % tout en nécessitant 2 fois moins de jetons de pré-entraînement ». OLMo est le modèle de langage de grande taille de l'Allen Institute for AI (AI2), récemment publié en tant que « modèle de langage de grande taille à code source ouvert ».

Sur le benchmark ARC-C, conçu pour tester les connaissances et les capacités de raisonnement, la variante pré-entraînée d'OpenELM-3B a obtenu une précision de 42,24 %. En revanche, sur MMLU et HellaSwag, elle a obtenu respectivement 26,76 % et 73,28 %.

Un utilisateur qui a commencé à tester la famille de modèles a fait remarquer qu'il s'agissait d'un « modèle solide mais très aligné », ce qui signifie que ses réponses ne sont pas très créatives et qu'elles ne risquent pas de s'aventurer en territoire NSFW. Pour mémoire, NSFW (sigle de l'anglais not safe for work) est un tag utilisé dans les espaces de discussion publics, tels que les forums, les blogues ou les médias sociaux pour identifier les liens pointant vers du contenu (texte, image, vidéo, son) potentiellement choquant, afin de prévenir les internautes qu'ils pourraient ne pas vouloir le consulter s'ils se trouvent dans un environnement inapproprié. Il peut s'agir de la nudité, de la pornographie, de la violence, du gore, des grossièretés, des discours de haine ou toute autre idéologie extrémiste.

La Phi-3 Mini de Microsoft, récemment introduite et dotée de 3,8 milliards de paramètres et d'une longueur de contexte de 4k, est actuellement en tête dans ce domaine.

Selon des statistiques récemment partagées, il a obtenu un score de 84,9 % sur le test ARC-C à 10 essais, de 68,8 % sur le test MMLU à 5 essais et de 76,7 % sur le test HellaSwag à 5 essais.

Il sera intéressant de voir comment la communauté, qui est déjà enthousiasmée par la démarche open-source d'Apple, la mettra en œuvre dans différentes applications.


La poussée d'Apple en matière d'IA

Le fabricant de l'iPhone expérimente l'IA depuis un certain temps déjà. L'année dernière, il a lancé un framework d'apprentissage automatique appelé MLX qui permet aux modèles d'IA de mieux fonctionner sur ses appareils alimentés par Apple Silicon. Il a également lancé un outil d'édition d'images appelé MLLM-Guided Image Editing (MGIE).

Le mois dernier, il a été révélé que les chercheurs d'Apple avaient fait une percée en matière d'entraînement des modèles d'IA sur du texte et des images. Un article de recherche sur ce sujet a été publié le 14 mars. Intitulé « MM1 : Methods, Analysis & Insights from Multimodal LLM Pre-training", il démontre comment l'utilisation de plusieurs architectures pour les données et les modèles d'entraînement peut permettre d'obtenir des résultats de pointe sur plusieurs points de référence.

Apple travaillerait également sur son propre modèle de grand langage (LLM), au cœur duquel se trouve un nouveau framework connu sous le nom d'Ajax, qui pourrait donner naissance à une application de type ChatGPT, surnommée « AppleGPT ». La collaboration entre les différents départements d'Apple, tels que l'ingénierie logicielle, l'apprentissage automatique et l'ingénierie du cloud, serait en cours pour faire de ce projet LLM une réalité.

La publication de la famille de modèles d'IA OpenELM brosse certainement un tableau intriguant du développement de l'IA chez Apple. Toutefois, étant donné qu'aucun modèle fondamental n'a encore été publié, il faudra attendre un certain temps avant que les appareils Apple, tels que l'iPhone et le Mac, puissent enfin en tirer parti.

Si la publication des modèles OpenELM est le signe d'une évolution prometteuse dans le paysage de l'IA d'Apple, la pleine réalisation des capacités d'IA sur des appareils tels que l'iPhone et le Mac pourrait nécessiter un travail de fond supplémentaire. Néanmoins, les efforts continus d'Apple soulignent son engagement à faire progresser la technologie de l'IA et à améliorer les expériences des utilisateurs dans l'ensemble de son écosystème.

Sources : OpenELM Instruct Models, OpenELM:An Efficient Language Model Family with Open-source Training and Inference Framework, quatre modèles OpenELM pré-entraînés, quatre modèles adaptés aux instructions

Et vous ?

Quelle est votre opinion sur l’ouverture d’Apple concernant OpenELM ? Pensez-vous que cela marque un pas significatif pour l’entreprise dans le domaine de l’intelligence artificielle ?
Avez-vous déjà utilisé des modèles d’IA légers sur vos appareils ? Si oui, quels sont vos retours d’expérience ?
Comment voyez-vous l’avenir des modèles d’IA sur les appareils ? Pensez-vous que nous verrons davantage de modèles open source conçus pour fonctionner localement ?
Quelles autres applications aimeriez-vous voir pour des modèles d’IA comme OpenELM ? Y a-t-il des domaines spécifiques où vous pensez que ces modèles pourraient être particulièrement utiles ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 28/05/2024 à 11:20
Citation Envoyé par Aesir Voir le message
Rarement vu un tel commentaire entremêlant boomer + "j'ai vu ça dans mon entourage donc c'est global"


Rarement vu un freluquet venir démontrer qu'il n'a aucun niveau pour discuter et aucuns argument à part le sempiternel "ouin le boomer" il aime pas Apple pis c'est même pas des voleurs puisqu'ils en vendent pleins, "y'a que la masse qui à raison lol". Je DIS EN DEBUT DE COMMENTAIRE que je le constate autour de moi et que c'est un épi phénomène...

Votre génération puisque vous aimez tant raisonner en générations (comme si ça avait un sens, j'ai 33 ans ) va bien se faire pigeonner dans les grandes largeur par des gens plus âgés que vous qui ont bien compris comment vous faire gober tout et n'importe quoi en vous le présentant comme de l'innovation inéluctable. Et vous applaudirez

Je passe sur la vulgarité et la bassesse de votre commentaire, surtout ne prenez pas la peine de répondre à ce que je dis dans le fond.

Allez je vous laisse demander à ChatGPT d'écrire des messages à votre grand mère et vous expliquer le code que vous devriez connaitre vu que vous avez l'air en avance dans le turfu, il y a peut-être déjà l'IA dans vos basket, c'est surement génial et super utile.
3  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 27/05/2024 à 17:11
C'est peut-être un épi phénomène autour de moi mais je vois pleins de monde commencer à se fatiguer/s'agacer des iphones.

Moi même j'ai migré sur android cette année.

Marre des mises à jour qui rendent un téléphone aussi utile qu'une brique si on en rachète pas un assez puissant. J'achetais des iphones d'occasion jusque la et systématiquement je le bazarde parce que Ios m'empèche littéralement de l'utiliser : ralentissement, bug d'affichage, verrouillage intempestif, lag abominable sur un téléphone plus puissant que tout les ordis qui sont allés sur Lune...

Je pense que de plus en plus de gens vont décider qu'on s'est assez foutu d'eux.

Jusque la j'aimais bien le principe du compte Icloud : possible de migrer d'un iphone à l'autre TOUTE ses données comme si on avait le même téléphone.

Cet avantage ne suffit plus à contrebalancer le fait qu'ils se foutent de leurs utilisateurs.

D'ailleurs j'ai jamais supporté les changements de taille qui en ont fait une sorte de tablette pour fashionistas :
2G/3G/3GS/4/4S : 3,5 pouces. (les meilleures générations, j'ai eu la chance de tous les avoirs)
5/5s/5c/SE1 : 4 pouces. -> commence à faire mal aux mains
6/6s/7/8/SE2/SE3 : 4,7 pouces.
6Plus/6S Plus/7 Plus/8 Plus: 5,5 pouces.
X/XS/11 Pro : 5,8 pouces.
XR/11 : 6,1 pouces. -> la c'est de la torture à l'utilisation

du coup je pense pas qu'en empilant CHATGPT la dessus ça suffira a vendre des Iphone qui valent le prix de mon Kangoo d'occasion (qui cela dit m'emmène en vacance, LUI ).

Et puis bon est ce qu'il faut faire une requête ChatGPT qui consomme plus d'énergie qu'une transaction en bitcoin pour connaitre la recette de la tarte au pomme ? C'est une aberration.

Après j'ai l'impression que les gens achètent ce dont ils ont le moins besoin tant que dans leur tête ça donne du "crédit social".
2  1 
Avatar de Fluxgraveon
Membre régulier https://www.developpez.com
Le 14/06/2024 à 15:26
Tim Cook, le PDG d'Apple, a exprimé des réserves quant à la capacité de l'entreprise à éliminer complètement les hallucinations de l'IA dans son nouveau système Apple Intelligence.
Pour les humains, la prise en charge (symptomatique) est basée sur l'utilisation de neuroleptiques.
Pour l'IA, voir peut-être du côté des leptons ?
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 14/06/2024 à 16:03
Tim Cook n'est pas sûr et le 100% des vrais chercheurs en IA savent qu'il n'est pas possible de supprimer les hallucinations des IA.

Pour la bonne raison que depuis le début de l'IA, personne n'a été capable d'expliquer le pourquoi des hallucinations et cela pour une raison simple, une vraie IA est un système neuronal qui apprend par lui-même sans que l'on sache vraiment par quel moyen il apprend: Par exemple, on enseigne à une IA à reconnaitre des oranges sur une photo. Sur quelle base est-ce que l'IA en question va conclure qu'il s'agit d'une orange? Parce qu'elle y voit une boule de couleur orange? Parce qu'elle prend en compte une série de pixels sur la photo qui étant de couleur orange permet de conclure à la présence du fruit? Etc, etc, etc...

Au final, supprimer les hallucinations des IA revient à pouvoir répondre à la question "Qui est le premier de l'oeuf ou de la poule?"

Mais bon dire la vérité n'est pas la caractéristique première d'un commerçant, tel le vendeur de poisson faisandé, Tim Cook crie à l'envie " Il est frais mon poisson... Il est frais!"
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 11/06/2024 à 10:50
"Elon Musk qualifie lintégration de ChatGPT au niveau de l'OS de violation de sécurité inacceptable"

Tiens pour une fois je suis en accord avec lui, ces pseudo AI n'ont rien à faire sur mes machines.

Je suis le seul à administrer les OS que j'utilise et je ne veux en aucun cas qu'une pseudo AI fasse je ne sais pas quoi comme bêtises dans mon dos !!!
0  0 
Avatar de jpdeniel
Futur Membre du Club https://www.developpez.com
Le 12/06/2024 à 2:03
Le big boss de Apple a longtemps continuer sur la stratégie lancée par Steve Jobs mais maintenant qu'il se retrouve confronté à des innovations qui n'était pas encore au goût du jour de l'air de si, on voit son manque de clairvoyance. Il ferait bien de passer la main.
0  0 
Avatar de Fluxgraveon
Membre régulier https://www.developpez.com
Le 14/06/2024 à 15:37
J'ajoute :
sur le plan nootique, (comprenez au carrefour de la noétique et des fonctions cérébrales), il peut-être intéressant d'utiliser "l'hyperart Thomasson" (à titre indicatif, cela est émis par Ijin, prosôpon ).
Cette affaire d'hallucinations n'a rien d'étonnant, s'agissant d'une création humaine (cf. l'expérience "Norman" du M.I.T, merci)
1  1 
Avatar de Aesir
Membre du Club https://www.developpez.com
Le 28/05/2024 à 7:37
Citation Envoyé par Jules34 Voir le message
C'est peut-être un épi phénomène autour de moi mais je vois pleins de monde commencer à se fatiguer/s'agacer des iphones.

Moi même j'ai migré sur android cette année.

Marre des mises à jour qui rendent un téléphone aussi utile qu'une brique si on en rachète pas un assez puissant. J'achetais des iphones d'occasion jusque la et systématiquement je le bazarde parce que Ios m'empèche littéralement de l'utiliser : ralentissement, bug d'affichage, verrouillage intempestif, lag abominable sur un téléphone plus puissant que tout les ordis qui sont allés sur Lune...

Je pense que de plus en plus de gens vont décider qu'on s'est assez foutu d'eux.

Jusque la j'aimais bien le principe du compte Icloud : possible de migrer d'un iphone à l'autre TOUTE ses données comme si on avait le même téléphone.

Cet avantage ne suffit plus à contrebalancer le fait qu'ils se foutent de leurs utilisateurs.

D'ailleurs j'ai jamais supporté les changements de taille qui en ont fait une sorte de tablette pour fashionistas :
2G/3G/3GS/4/4S : 3,5 pouces. (les meilleures générations, j'ai eu la chance de tous les avoirs)
5/5s/5c/SE1 : 4 pouces. -> commence à faire mal aux mains
6/6s/7/8/SE2/SE3 : 4,7 pouces.
6Plus/6S Plus/7 Plus/8 Plus: 5,5 pouces.
X/XS/11 Pro : 5,8 pouces.
XR/11 : 6,1 pouces. -> la c'est de la torture à l'utilisation

du coup je pense pas qu'en empilant CHATGPT la dessus ça suffira a vendre des Iphone qui valent le prix de mon Kangoo d'occasion (qui cela dit m'emmène en vacance, LUI ).

Et puis bon est ce qu'il faut faire une requête ChatGPT qui consomme plus d'énergie qu'une transaction en bitcoin pour connaitre la recette de la tarte au pomme ? C'est une aberration.

Après j'ai l'impression que les gens achètent ce dont ils ont le moins besoin tant que dans leur tête ça donne du "crédit social".
Rarement vu un tel commentaire entremêlant boomer + "j'ai vu ça dans mon entourage donc c'est global"
0  3