IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le moteur d'IA Llama de Meta connaît une croissance rapide de l'adoption de l'open source, avec une multiplication par 10 depuis 2023
Les modèles Llama approchent les 350 millions de téléchargements à ce jour

Le , par Anthony

32PARTAGES

11  0 
Le moteur d'IA Llama de Meta a connu une croissance substantielle dans le paysage de l'IA open source, s'imposant comme une force de premier plan dans l'industrie. Avec près de 350 millions de téléchargements à ce jour, les modèles Llama ont connu une augmentation significative de leur adoption au cours de l'année écoulée. Rien qu'en juillet, les modèles ont été téléchargés plus de 20 millions de fois, ce qui fait de Llama une famille de modèles open source de premier plan.

Le mardi 23 juillet 2024, Meta a annoncé la dernière version de son modèle d'intelligence artificielle Llama, baptisée Llama 3.1. La nouvelle technologie Llama se décline en trois versions différentes, dont l'une est le modèle d'intelligence artificielle le plus grand et le plus performant de Meta à ce jour. Comme les versions précédentes de Llama, le nouveau modèle reste open source, ce qui signifie qu'il est accessible gratuitement.

Depuis l'introduction de Llama 3.1, qui a étendu la longueur du contexte à 128K et ajouté la prise en charge de plusieurs langues, l'utilisation par volume de jetons chez les principaux fournisseurs de services cloud a plus que doublé en trois mois. Cette croissance reflète une préférence croissante pour Llama au sein de la communauté des développeurs, ce qui en fait un concurrent notable dans le domaine de l'IA.

L'approche open source a été un facteur clé dans l'utilisation généralisée de Llama, permettant à un éventail diversifié d'entreprises de construire des solutions d'IA sur site ou via des services cloud. L'engagement de Meta en faveur de cette approche ouverte a facilité la création d'un écosystème d'IA dynamique.


Les leaders de l'industrie ont reconnu l'influence de Llama sur le développement de l'IA. Swami Sivasubramanian, vice-président de l'IA et des données chez AWS, a noté l'adoption significative de Llama 3.1 parmi les clients, qui l'exploitent pour diverses applications complexes. Ali Ghodsi, PDG de Databricks, a décrit Llama 3.1 comme un modèle qui combine efficacement la flexibilité de l'open source avec une qualité de niveau commercial.

Plusieurs entreprises, dont Accenture, AT&T, DoorDash et Goldman Sachs, utilisent Llama pour améliorer leur productivité et rationaliser leurs opérations. Accenture, par exemple, a mis en œuvre Llama 3.1 pour développer un modèle d'IA personnalisé pour les rapports ESG, réalisant des gains de productivité notables et améliorant la qualité des résultats.

Llama continue de se développer, tout comme sa communauté, avec plus de 60 000 modèles dérivés sur des plateformes telles que Hugging Face. Ce modèle open source est devenu un outil privilégié pour les développeurs, qui l'utilisent pour toute une série de tâches spécialisées.

Cela fait un peu plus d'un mois que Meta a publié Llama 3.1, étendant la longueur du contexte à 128K, ajoutant le support de huit langues, et introduisant le premier modèle d'IA open source de niveau frontière avec son Llama 3.1 405B.

Le succès de Llama est rendu possible grâce à la puissance de l'open source. En mettant les modèles Llama de Meta à la disposition de tous, l'entreprise a vu naître un écosystème d'IA dynamique et diversifié dans lequel les développeurs ont plus de choix et de capacités que jamais auparavant. L'innovation a été large et rapide, des start-ups repoussant de nouvelles limites aux entreprises de toutes tailles utilisant Llama pour construire sur site ou par l'intermédiaire d'un fournisseur de services cloud. L'industrie construit et innove avec Llama, et Meta ne cache pas son enthousiasme pour ce qui est à venir.

Parallèlement à la sortie de Llama 3.1, Mark Zuckerberg a partagé une lettre ouverte sur les avantages de l'IA open source, renforçant ainsi la vision et l'engagement de Meta en faveur d'une approche ouverte. L'open source est dans l'ADN de Meta, et Llama incarne et renforce son engagement à partager son travail de manière responsable. L'open source favorise un écosystème plus compétitif, ce qui est bon pour les consommateurs, bon pour les entreprises (y compris Meta) et, en fin de compte, bon pour le monde.

En seulement 18 mois depuis le lancement initial, Llama a évolué d'un modèle de fondation unique et de pointe à un système robuste pour les développeurs. Avec Llama 3.1, Meta offre désormais aux développeurs un système de référence complet pour créer plus facilement leurs propres agents personnalisés, ainsi qu'un nouvel ensemble d'outils de sécurité et de sûreté pour aider à construire de manière responsable.

Le premier modèle open source

L'écosystème Llama se développe rapidement. Les modèles Llama approchent les 350 millions de téléchargements sur Hugging Face à ce jour, soit plus de 10 fois plus qu'il y a un an. Les modèles Llama ont été téléchargés plus de 20 millions de fois sur Hugging Face rien que le mois dernier. Et ce n'est qu'une partie de l'histoire du succès des Llamas, puisque ces modèles sont également téléchargés sur les services des partenaires de Meta dans l'ensemble de l'industrie.

Outre Amazon Web Services (AWS) et Azure de Microsoft, Meta s'est associé à Databricks, Dell, Google Cloud, Groq, NVIDIA, IBM watsonx, Scale AI, Snowflake et d'autres pour mieux aider les développeurs à exploiter tout le potentiel de ses modèles. L'utilisation hébergée de Llama par volume de jetons à travers ses principaux partenaires fournisseurs de services cloud a plus que doublé de mai à juillet 2024 lorsque Meta a publié Llama 3.1.


L'utilisation mensuelle de Llama a été multipliée par 10 de janvier à juillet 2024 pour certains des plus grands fournisseurs de services cloud de Meta. Et au mois d'août, le plus grand nombre d'utilisateurs uniques de Llama 3.1 chez l'un des principaux partenaires fournisseurs de services cloud de Meta était la variante 405B, ce qui montre que leur plus grand modèle de fondation gagne en traction.

Meta a multiplié par cinq le nombre de partenaires participant à son programme d'accès anticipé à Llama avec Llama 3.1 et continuera à le faire pour répondre à la demande croissante des partenaires. Un certain nombre d'entreprises, dont Wipro, Cerebras et Lambda, ont fait part à Meta de leur souhait de devenir de futurs partenaires Llama pour LEAP et l'intégration.

Swami Sivasubramanian, vice-président, IA et données, AWS :

Les clients veulent avoir accès aux derniers modèles de pointe pour créer des applications d'IA dans le cloud, c'est pourquoi nous avons été les premiers à proposer Llama 2 en tant qu'API gérée et avons continué à travailler en étroite collaboration avec Meta au fur et à mesure qu'ils publiaient de nouveaux modèles. Nous avons été ravis de voir l'adoption de Llama 3.1 par les clients à travers Amazon SageMaker et Amazon Bedrock, et nous sommes impatients de voir comment les clients utilisent ce modèle pour résoudre leurs cas d'utilisation les plus complexes.
Ali Ghodsi, PDG et cofondateur de Databricks :

Dans les semaines qui ont suivi le lancement, des milliers de clients de Databricks ont adopté Llama 3.1, ce qui en fait notre modèle open source le plus rapidement adopté et le plus vendu à ce jour. Cette génération de modèles Llama comble enfin le fossé entre les modèles OSS et commerciaux en matière de qualité. Llama 3.1 est une percée pour les clients qui souhaitent créer des applications d'IA de haute qualité, tout en conservant le contrôle total, la personnalisation et la portabilité de leur LLM de base.
Jonathan Ross, fondateur et PDG de Groq :

Le logiciel libre est gagnant. Meta est en train de jeter les bases d'un écosystème ouvert qui rivalise avec les meilleurs modèles fermés et, chez Groq, nous les mettons directement entre les mains des développeurs - une valeur partagée qui a été fondamentale chez Groq depuis nos débuts. À ce jour, Groq a fourni à plus de 400 000 développeurs 5 milliards de tokens gratuits par jour, en utilisant la suite de modèles Llama et notre Inférence LPU. C'est une période très excitante et nous sommes fiers de participer à cet élan. Nous ne pouvons pas augmenter la capacité de Llama assez rapidement. Si nous décuplions la capacité déployée, elle serait consommée en moins de 36 heures.
Jensen Huang, fondateur et PDG de NVIDIA :

Llama a eu un impact profond sur l'avancement de l'IA de pointe. Les vannes sont désormais ouvertes pour que chaque entreprise et chaque industrie construise et déploie des super-modèles Llama personnalisés en utilisant NVIDIA AI Foundry, qui offre le support le plus large pour les modèles Llama 3.1 à travers l'entraînement, l'optimisation et l'inférence. Il est incroyable de constater le rythme rapide de l'adoption au cours du mois dernier.
Ce qui est encore plus encourageant que le nombre de personnes qui utilisent Llama, c'est de savoir qui utilise Llama et comment il l'utilise.

Meta constate une préférence croissante de la communauté des développeurs pour Llama et de solides indicateurs pour une croissance continue. Selon une enquête d'Artificial Analysis, un site indépendant d'analyse comparative de l'IA, Llama est le deuxième modèle le plus considéré et le leader de l'industrie en matière d'open source.

Avec plus de 60 000 modèles dérivés sur Hugging Face, il existe une communauté dynamique de développeurs qui peaufinent Llama pour leurs propres cas d'utilisation. De grandes entreprises comme AT&T, DoorDash, Goldman Sachs, Niantic, Nomura, Shopify, Spotify et Zoom ne sont que quelques exemples de réussite, et Infosys et KPMG utilisent Llama en interne.

Aperçu des cas d'utilisation de Llama

Accenture utilise Llama 3.1 pour construire un LLM personnalisé pour les rapports ESG qui devrait améliorer la productivité de 70 % et la qualité de 20 à 30 %, par rapport à la façon dont l'entreprise génère actuellement son rapport ESG annuel. Grâce à ses avancées intéressantes en matière de capacités multilingues, Accenture est en mesure d'étendre les modèles d'IA à d'autres régions, par exemple pour aider une organisation mondiale à rendre les chatbots plus conscients et plus pertinents sur le plan culturel. Accenture estime que les entreprises auront besoin d'exploiter de nombreux modèles d'IA provenant de différents fournisseurs. Les modèles open source comme Llama 3.1 élargissent les options, accélèrent l'innovation et auront un effet d'entraînement positif sur les entreprises et la société.

Chez AT&T, l'assistance à la clientèle est un domaine d'innovation axé sur l'IA. En affinant les modèles Llama, ils ont été en mesure d'améliorer de manière rentable le service client en comprenant mieux les tendances clés, les besoins et les opportunités pour améliorer l'expérience à l'avenir. Dans l'ensemble, Llama et la GenAI ont permis d'améliorer de près de 33 % les réponses liées à la recherche dans le cadre des missions de service à la clientèle d'AT&T, tout en réduisant les coûts et en accélérant les temps de réponse.

DoorDash utilise Llama pour rationaliser et accélérer les tâches quotidiennes de ses ingénieurs logiciels, comme l'exploitation de sa base de connaissances interne pour répondre aux questions complexes de l'équipe et la fourniture de révisions de demandes d'extraction exploitables pour améliorer sa base de code.

La plateforme d'IA de Goldman Sachs, connue sous le nom de GS AI Platform, permet aux ingénieurs de Goldman d'utiliser les modèles Llama pour divers cas d...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/02/2025 à 19:41
Citation Envoyé par dee phoenix Voir le message
Ça gagne des milliards en volant le pain au intelligences indépendantes
Ah ben ça, ils ne sont pas devenus aussi immensément riches en vivant une vie honnête et moralement juste, hein!
9  0 
Avatar de dee phoenix
Inactif https://www.developpez.com
Le 08/02/2025 à 19:13
Ça gagne des milliards en volant le pain au intelligences indépendantes
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/02/2025 à 16:06


Citation Envoyé par kain_tn Voir le message
Donc si quelqu'un te vole, ça ne te pose aucun problème, tant qu'il te paye ce qu'il t'a volé un jour futur??

On marche sur la tête, là...
Oui, je suis bien d'accord avec toi. Comment peut-on trouver normal que d'être volé, et d'être payé après, on ne sait pas quand. C'est plus que de marcher sur la tête, c'est ne plus avoir de tête

Et ça m'étonnerait fortement que dans quelques années, ces pilleurs du travail des autres, contactent les gens qu'ils ont volés, pour leur dire "Tiens, voilà 3€ parce qu'on a volé ton travail il y a dix ans".

Quelque soit ce que répond une IA, ce ne peut-être considérer que comme du plagiat. Il n'y a pas si longtemps, si un "simple" auteur se faisait piquer en ayant repris presque mot pour mot un paragraphe d'un livre précédent, il était condamné et sa réputation en prenait un coup.

Tous ceux qui ont "voler" ces datas, et vu l'énormité du vole, devraient être poursuivi et (très, très, très) lourdement condamnés. Ce ne serait que justice.

Si je vole un rayon de livres dans un magazin, et que je me fais piquer, j'aurai des ennuis je pense. Et si ma défense, c'est de dire: "c'est pour me former, et je payerais après", je ne pense pas que ça va le faire.

Il y a tout simplement un "deux poids, deux mesures", ce n'est pas nouveau... "Selon que vous soyez puissant ou misérable..."

BàV et Peace & Love.
3  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 09/02/2025 à 12:29
Citation Envoyé par dee phoenix Voir le message
Franchement,voler pour faire grossir un projet n'est pas mauvais en soi...Si par la suite tu paies ce que tu as voler

Prendre du recul pour prendre de l’élan
Donc si quelqu'un te vole, ça ne te pose aucun problème, tant qu'il te paye ce qu'il t'a volé un jour futur??

On marche sur la tête, là...
2  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 10/02/2025 à 8:05
Citation Envoyé par dee phoenix Voir le message
Franchement,voler pour faire grossir un projet n'est pas mauvais en soi...Si par la suite tu paies ce que tu as voler
Ça marche peut-être dans le cas de quelqu'un qui utilise des logiciels craqués si plus tard il a gagne assez d'argent pour payer les licences des logiciels.
Par exemple un producteur de musique de n'importe quel genre (Tech House, Acid House, Ghetto House, Hard House, Minimal House, Hip House, House) ou quelqu'un qui créer des images ou des vidéos.

Y'en a surement qui ont commencé par utiliser des versions craquées d'Ableton Live ou de Cubase, ainsi que plein de VST et de packs de samples, puis qui ont gagné de l'argent avec leur travail et qui ont ensuite tout acheté.

Mais là on parle de Meta, pas d'un type au RSA.
===
Meta a utilisé des dizaines de millions de livres, donc ça aurait été compliqué d'acheter les versions numériques de toutes ces œuvres, parce qu'il y a peut-être aucun magasin qui propose autant de livres.
Je me demande si cette IA a utilisé des études de Sci-Hub pour s'entrainer.
1  0 
Avatar de dee phoenix
Inactif https://www.developpez.com
Le 09/02/2025 à 7:18
Franchement,voler pour faire grossir un projet n'est pas mauvais en soi...Si par la suite tu paies ce que tu as voler

Prendre du recul pour prendre de l’élan
0  4