IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG d'Anthropic estime que le coût de la formation d'un modèle d'IA atteindra bientôt 100 milliards de dollars,
Ce qui suggère que les entreprises échouent à réduire les coûts liés au développement de l'IA

Le , par Mathis Lucas

13PARTAGES

4  0 
Dario Amodei, PDG d'Anthropic, a déclaré que le coût de développement d'un grand modèle de langage (LLM) est actuellement estimé à 100 millions de dollars. Mais ce coût augmente de façon exponentielle et pourrait franchir la barre des 100 milliards de dollars dans les années à venir. Il affirme que ce coût faramineux pourrait s'expliquer par la recherche d'algorithmes d'IA de plus en plus efficaces et d'éventuelles difficultés en matière de puissance de calcul et d'approvisionnement en puces d'IA. Ses déclarations donnent une idée des investissements colossaux qu'exige le développement de l'IA et des difficultés des entreprises à réduire ces coûts au fil des ans.

Les coûts liés à la formation des modèles d'IA augmentent de façon exponentielle

Un modèle d'IA est un programme qui analyse des ensembles de données pour trouver des modèles spécifiques et faire des prédictions. Il s'agit d'une illustration d'un système qui peut recevoir des données et tirer des conclusions ou mener des actions en fonction de ces conclusions. Les modèles d'IA peuvent être utilisés pour toute une série d'activités, de la reconnaissance d'images et de vidéos au traitement du langage naturel (NLP), en passant par les systèmes de recommandation et la modélisation prédictive, ainsi que la robotique et les systèmes de contrôle. Toutefois, leur formation a un coût excessif pour les entreprises.



Selon les experts, le coût de la formation d'un modèle n'a cessé d'augmenter depuis plusieurs années. Bien que des entreprises comme OpenAI et Google ne divulguent pas les coûts précis de la formation de modèles d'IA comme GPT-4 et Gemini, il est évident qu'il s'agit d'une activité extrêmement coûteuse. Et plus ces modèles dits "frontières" deviennent grands et performants, plus leur formation est coûteuse. Lorsqu'OpenAI a publié GPT-3 en 2020, le fournisseur de services cloud Lambda a estimé la formation du modèle, qui compte 175 millions de paramètres, a coûté plus de 4,6 millions de dollars à la société d'IA.

OpenAI n'a pas révélé la taille de GPT-4 et refuse de divulguer toute information à propos du modèle pour raisons commerciales et de concurrences. Mais certaines analyses suggèrent que GPT-4 compterait 1 000 à 1 800 milliards de paramètres et le PDG d'OpenAI, Sam Altman, a vaguement évalué le coût de l'entraînement à plus de 100 millions de dollars. Dario Amodei, cofondateur et PDG d'Anthropic, déclarait en août que des modèles coûtant plus d'un milliard de dollars apparaîtraient cette année et que d'ici 2025, nous pourrions avoir un modèle de 10 milliards de dollars. Amodei vient de revoir à la hausse cette estimation.

Lors d'une interview avec Bloomberg la semaine dernière, le PDG d'Anthopic a déclaré que la formation d'un modèle pourrait coûter jusqu'à 100 milliards de dollars dans un avenir proche. Il s'agit d'un investissement colossal que seules quelques entreprises pourraient être capables de supporter. Amodei a déclaré :

Citation Envoyé par Dario Amodei


La génération actuelle de modèles que nous voyons sur le marché est encore de l'ordre de 100 millions de dollars. Je pense que tout cela peut aller jusqu'à 100 milliards de dollars à l'extrémité de cette fourchette, avec quelques difficultés en matière de puissance et d'approvisionnement en puces. Mais nous y parviendrons dans quelques années.

C'est donc un facteur de mille de plus. Ensuite, je pense que les algorithmes deviendront plus efficaces et que nous verrons des choses, des choses qui s'ajouteront au post-entraînement. À un moment donné, nous n'en aurons plus. Mais je pense qu'il y a beaucoup de choses empilées pour continuer à améliorer les modèles.


Dario Amodei a cofondé Anthropic avec sa sœur Daniela en 2021. Autrefois chercheurs principaux chez OpenAI, les deux ont démissionné fin 2020 pour créer leur propre entreprise d'IA, avec l'objectif de construire des systèmes d'IA puissants et intelligents, mais aussi alignés sur les valeurs humaines. « Nous avons quitté OpenAI parce que nous étions préoccupés par la direction à prendre », a déclaré Daniela Amodei, présidente d'Anthropic, lors de l'interview.

Le coût de la formation pourrait bientôt devenir difficile à supporter pour les entreprises

Selon Dario Amodei, la puissance de calcul et les puces d'IA constitueront un facteur important de cette augmentation exponentielle des coûts. À titre de rappel, pour former leurs modèles d'IA, les entreprises s'appuient sur des unités de traitement graphique (GPU) capables de traiter de grandes quantités de données à grande vitesse. Non seulement ces puces sont rares, mais elles sont aussi extrêmement chères, les puces d'IA les plus avancées du marché étant principalement fabriquées par une seule entreprise : Nvidia. La demande des puces d'IA de Nvidia a rendu l'entreprise extrêmement riche ces dernières années.

Mais ce n'est pas tout. Amodei a ajouté : « il faut commencer à penser à l'écosystème plus large, aux compensations carbone pour les grands centres de données, et c'est ce que nous étudions également ». Cela suggère que les coûts de formation des modèles pourraient à l'avenir prendre en compte les dépenses liées aux efforts de compensation des émissions de dioxyde de carbone. L'IA est très vorace en énergie, tant pendant la formation que lors de l'inférence des modèles. La puissance de calcul nécessaire à l'IA contribue à une consommation d'énergie importante et à des émissions de dioxyde de carbone à grande échelle.

En 2022, des chercheurs du Royaume-Uni, des États-Unis, d'Allemagne et d'Espagne ont constaté que, après l'essor de l'apprentissage profond au début des années 2010, la puissance de calcul nécessaire pour former les nouveaux modèles les plus performants a doublé environ tous les six mois. Selon Jaime Sevilla, directeur d'Epoch AI et auteur principal de l'article, la trajectoire s'est maintenue depuis lors, le coût de la formation triplant environ chaque année. Elle a également déclaré que la multiplication par 4 des besoins en calcul est compensée par une augmentation de 1,3 fois de l'efficacité.

« C'est toujours une ligne droite et elle continue à pointer vers le haut », a ajouté Sevilla. Selon les analystes, si cette tendance se poursuit, le coût de la formation d'un modèle par rapport aux capacités acquises deviendra à un moment donné trop élevé pour être supporté par une entreprise. Par exemple, GPT-3 était plus précis que GPT-2, au point qu'il a pu alimenter le générateur de code GitHub Copilot. GPT-3.5, renforcé par des processus qui nécessitaient à nouveau une formation et des ressources informatiques supplémentaires, était suffisamment convaincant pour servir de base à la première version de ChatGPT.

Les difficultés liées à l'accès aux données pourraient augmenter les coûts de la formation

L'un des facteurs pouvant être un frein à l'évolution des capacités des modèles est la disponibilité des données pour la formation. Heim souligne qu'il existe plusieurs moyens pour contourner ce problème. (Par exemple, en s'entraînant sur un plus grand nombre de types de données et en montrant plusieurs fois les mêmes données aux modèles.) Les poursuites pour violation de droits d'auteur pourraient jouer un rôle dans l'équation, si elles empêchent les entreprises de s'emparer de toutes les données qu'elles peuvent trouver en ligne. Mais même si cela se produit, il y a toujours la possibilité d'utiliser des données synthétiques.

Ces données synthétiques comprennent, entre autres, des données vidéo générées par les moteurs de jeu Unity ou Unreal. D'autres proposent également d'utiliser des données générées par les modèles d'IA. En outre, il est probable que les entreprises accorderont de plus...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 25/01/2025 à 7:53
il n'y a aucune intelligence dans ces algorithmes probabilistes. C'est de la connaissance encyclopédique.

Par quel miracle ce gugus va-t-il supprimer les biais qui sont intrinsèques au système probabiliste ? Il parle d'un niveau doctorant, donc scientifiquement irréfutable.

L'intelligence ce n'est pas ce qui est le plus consensuel, attendu, probable, et surtout pas la moyenne !

A ce tarif, la terre serait toujours plate et vous seriez des hérétiques...

Le système sera intelligent lorsqu'il se posera la question de la cohérence des informations à chaque fois qu'on lui ingurgite une nouvelle donnée. l'IA ne doit pas bâtir une réponse sur des croyances. Les réponses ne peuvent être magiques comme aujourd'hui mais obligatoirement sourcées.

Que doit répondre une IA avec les données de l'an 800 à Charlemagne quand il lui pose la question : la terre, est-elle plate ?
- elle est bien plate (dogme de l'église)
- impossible de confirmer qu'elle est plate (hérétique).
- Ératosthène a montré qu'elle était sphérique (limite du blasphème pour Charlemagne)

Vous reprenez un jeu de questions aléatoires, avec une IA Afghane (uniquement alimentée avec des écritures saintes) ne devrait-elle pas donner les mêmes réponses qu'une IA athée ?

Quand Trump pose une question à une IA et que LA réponse ne lui convient pas : you're fired ? Et bien non, c'est pas comme ça la vrai vie pépère !

Nous sommes à des années lumières de l'intelligence supérieure promise par les Altman et consorts qui survendent de la proba pour de l'intelligence. J'ose : chatGPT est un simple Marmiton V2, une base de recettes.
4  0 
Avatar de cobalt3d
Membre régulier https://www.developpez.com
Le 27/01/2025 à 4:21
Le mieux qu'on puisse attendre, c'est que l'Ia nous plonge dans un âge de stagnation et d'immobilisme. Elle ne fait que simuler l'intelligence. Sans modèle, elle n'invente rien. Elle n'inventera jamais rien. Pire, si la moindre originalité devait apparaître quelque part, c'est qu'elle l'aura volé dans une publication obscure qui aura échappé au plus grand nombre. Même cette situation est peu probable. L'enthousiasme et l'optimisme actuels ne sont destinés qu'à gonfler la bulle spéculative qui l'entoure.
2  0 
Avatar de Flupke68
Nouveau membre du Club https://www.developpez.com
Le 23/01/2025 à 15:51
J'espère que l'IA fera l'humanité arriver à se dire qu'il y a quelque chose qui nous dépasse,
et que tenter d'approcher ce qui nous dépasse nous fera incarner le mythe d'Icare.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 28/06/2024 à 14:18
Ouaaaaaaaaaaaaaaaaaaaah! Une intelligence de niveau "universitaire"?!?!?

Pour avoir un cursus universitaire, je peux vous confirmer que chez les universitaires et les ingénieurs sortis diplômés des plus prestigieuses hautes écoles, il y a la même proportion de cons et de mecs bas du plafond que dans tous les autres métiers!!!

Une intelligence de niveau "universitaire" ne veut strictement rien dire, mais bon le PDG en question est aussi déconnecté du monde universitaire que du monde réel; C'est le même genre de mec qui a dit il y a quelques jours que l'humain allait être remplacé par l'IA dans tous les métiers... Y compris votre coiffeur qui vous fait une petite coupe estivale ou l'aide infirmière qui nettoie les déjections (pour ne pas écrire la merde!) des patients grabataires qui bien que devant garder le lit ont toujours des fonctions à assouvir???
0  0 
Avatar de dee phoenix
Inactif https://www.developpez.com
Le 23/01/2025 à 15:49
La boucle sera bouclée quand l'I.A n'aura plus besoin d'interventions humaine pour évoluer
0  0 
Avatar de dee phoenix
Inactif https://www.developpez.com
Le 23/01/2025 à 18:03
Citation Envoyé par Flupke68 Voir le message
J'espère que l'IA fera l'humanité arriver à se dire qu'il y a quelque chose qui nous dépasse,
et que tenter d'approcher ce qui nous dépasse nous fera incarner le mythe d'Icare.
L'inconscient collectif doit être blindé contre toutes formes de manipulations hégémoniques négatives
0  0 
Avatar de
https://www.developpez.com
Le 27/01/2025 à 14:49
Le mieux qu'on puisse attendre, c'est que l'Ia nous plonge dans un âge de stagnation et d'immobilisme. Elle ne fait que simuler l'intelligence. Sans modèle, elle n'invente rien. Elle n'inventera jamais rien. Pire, si la moindre originalité devait apparaître quelque part, c'est qu'elle l'aura volé dans une publication obscure qui aura échappé au plus grand nombre. Même cette situation est peu probable. L'enthousiasme et l'optimisme actuels ne sont destinés qu'à gonfler la bulle spéculative qui l'entoure.
Bien évidemment que cela s'inscrit dans l'économie spéculative, qui tend à prendre toute la place et tenter un reset pour ... effacer la dette. Tout aussi évidemment cela profiterait à ? Ceux qui sont le plus endettés.
L'IA est un outil, même avec un modèle (un mot pour remplacer simulation), cela n'invente rien car c'est du brassage de données : un peu comme si vous vouliez créer un écosystème en brassant des sédiments, c'est difficile sans y injecter quelque chose (de vivant). Ce quelque chose, c'est nous-mêmes (n'avons nous pas créé cet outil ?).
C'est quand même curieux cette discussion à propos d'un outil : il est probable (de mon point de vue, hein) que cela est dû à son haut niveau d'abstraction (son côté "immatériel" ?).
L'IA est "créative" lorsque nous l'utilisons, en relation pour ainsi dire et cela fait bouger : c'était déjà le cas avec les silex
Une base de recettes, c'est bien, un génome aussi.
Cela dit il y a bien d'autres "choses", une fois sorti du labo.
Peut-être même une IA, tiens.
0  0 
Avatar de JeanMorlet
Membre régulier https://www.developpez.com
Le 13/02/2025 à 13:14
Inutile d'en dire plus...
1  1 
Avatar de Showb
Nouveau Candidat au Club https://www.developpez.com
Le 25/01/2025 à 14:19
Citation Envoyé par vVDB.fr Voir le message
il n'y a aucune intelligence dans ces algorithmes probabilistes. C'est de la connaissance encyclopédique.

Par quel miracle ce gugus va-t-il supprimer les biais qui sont intrinsèques au système probabiliste ? Il parle d'un niveau doctorant, donc scientifiquement irréfutable.

L'intelligence ce n'est pas ce qui est le plus consensuel, attendu, probable, et surtout pas la moyenne !

A ce tarif, la terre serait toujours plate et vous seriez des hérétiques...

Le système sera intelligent lorsqu'il se posera la question de la cohérence des informations à chaque fois qu'on lui ingurgite une nouvelle donnée. l'IA ne doit pas bâtir une réponse sur des croyances. Les réponses ne peuvent être magiques comme aujourd'hui mais obligatoirement sourcées.

Que doit répondre une IA avec les données de l'an 800 à Charlemagne quand il lui pose la question : la terre, est-elle plate ?
- elle est bien plate (dogme de l'église)
- impossible de confirmer qu'elle est plate (hérétique).
- Ératosthène a montré qu'elle était sphérique (limite du blasphème pour Charlemagne)

Vous reprenez un jeu de questions aléatoires, avec une IA Afghane (uniquement alimentée avec des écritures saintes) ne devrait-elle pas donner les mêmes réponses qu'une IA athée ?

Quand Trump pose une question à une IA et que LA réponse ne lui convient pas : you're fired ? Et bien non, c'est pas comme ça la vrai vie pépère !

Nous sommes à des années lumières de l'intelligence supérieure promise par les Altman et consorts qui survendent de la proba pour de l'intelligence. J'ose : chatGPT est un simple Marmiton V2, une base de recettes.

Intéressant quand même, comme un post destiné à démontrer les supposées limites de l'IA et à critiquer vertement les déclarations d'un des hommes les mieux renseignés sur ce sujet sur terre, arrive en réalité à démontrer les limites du raisonnement humain ou en tout cas de certains humains. Le plus important je pense pour commencer est de démonter les multiples erreurs de ce poste.

Sur le plan historique, Charlemagne a priori pensait que la Terre était ronde comme la majorité de ses contemporains. Le choix de Charlemagne est d'ailleurs assez étonnant, car c'est justement une statue de Charlemagne dont l'on se sert souvent pour montrer cela. Une statue bien connue de Charlemagne arborant un globe dans la main censé représenter son pouvoir sur la Terre.

Ensuite l'église de cette époque a priori soutenait l'idée selon laquelle la terre était ronde, l'église n'était pas là pour s'occuper de sciences, mais étant donné que rien dans la Bible ne va contre cette idée (certain versets peuvent même être interprété comme soutenant cette idée), c'est une question sur laquelle elle n'a pas eu de vraie position officielle. Cependant, il est possible de dire qu'elle était plutôt favorable à cette idée, étant donné que beaucoup de grands hommes d'église, dont les pères de l'église, soutenaient la rotondité de la terre. Ce à quoi vous faites allusion, ce sont des procès ultérieurs, et je vous invite à vous renseigner un petit peu plus sur ces affaires, car c'était loin d'être un simple problème scientifique. Mais l'avis des historiens sur le sujet, c'est que l'Église considérait que la terre était ronde durant le Moyen-Âge.

Comble de l'ironie, lorsque je demande à Copilot qui, il me semble, transmet les réponses à partir d'un moteur issu des GPT d'OpenAI, il me répond que les hommes du Moyen-Âge pensaient que la Terre était ronde et que la croyance selon laquelle les personnes du Moyen-Âge pensaient que la Terre était plate, bien que très répandue à notre époque, est totalement fausse et vient des différents mensonges de la Renaissance, entre autres de Voltaire. Comme quoi, l'approche probabiliste, apparemment lorsqu'elle est bien gérée, peut quand même permettre de générer une réponse qui va à contre-courant de l'avis général en se basant sur des sources sérieuses, ce qu'apparemment votre esprit humain n'a en l'occurrence pas réussi à faire.

Ensuite, la dernière phrase sur l'IA afghane et je ne vois pas vraiment pourquoi une telle obsession sur les croyances religieuses alors qu'on parle d'intelligence artificielle, mais en réalité on peut élargir la question et se demander si ce même jeu de questions aléatoire posé à un Afghan et un Américain auront vraiment les mêmes réponses. On est le produit de son environnement, il est tout à fait normal que les IA puissent subir les mêmes biais. Encore une fois vous êtes la preuve que la légende d'un moyen Âge obscure qui est un pur produit de notre roman national a encore plus d'effets sur les humains que les IAs.

Sur un plan fluide technique, effectivement, les IA transmettent des réponses qui sont avant tout probabilistes, puisqu'elles réfléchissent avec une méthode qui, vous avez raison, utilise une moyenne, quand a priori l'esprit humain ne procède pas de la même façon, et cela donne, vous avez encore raison, de célèbres lacunes de l'IA qui sur certaines questions n'arrivent pas à sortir de ces biais probabilistes, par exemple, il est très difficile de gérer une montre qui n'indique pas 10h10, car l'immense majorité des photos que l'IA trouve avec des montres indiquent 10h10 et qu'elle n'est visiblement pas capable de comprendre qu'une montre peut indiquer autre chose. Mais au-delà de certains cas très précis comme ceux-là, l'approche probabiliste, bien qu'elle nécessite d'être prises en compte, ne pose pas de problème majeur. En l'occurrence, les dernières IA que l'on a sont des groupes d'IA avec tout un tas de sous-IA qui sont capables de se corriger entre elles et de conduire une réflexion avec une IA majeure qui est capable de décomposer le problème, par exemple.

En réalité, dans un futur proche, si l'IA est capable d'appeler des IA spécialisées / logiciels dans tout un tas de domaines, de comparer les réponses et d'évaluer les résultats, elle sera capable de mener des raisonnements complexes. La question de savoir si l'IA pourrait vraiment générer des résultats scientifiques nouveaux grâce à uniquement sa compréhension est toujours ouverte à ma connaissance. Pour l'instant, ce n'est pas le cas. Mais par contre, il est très clair que les IA aujourd'hui arriveront à remplacer la plupart des professionnels, et que l'accès à une puissance de calcul très importante débloque malgré tout de nombreux domaines de la recherche, je pense à AlphaMind par exemple. D'un point de vue plus terre à terre, et pour sortir des grands discours et raisonnements sur ce sujet

Je suis développeur et actuellement avec une IA comme Bolt ou Windsurf qui sont connectés à AntropicAI et utilisent des cascades d'IA c'est complètement hallucinant ce qu'on arrive à générer. J'ai par exemple généré une application d'édition de Markdown avec prévisualisation et stockage sur un serveur en ligne. L'interface est magnifique, bien meilleure que ce que j'arriverai à faire. Je suis plutôt back-end, mais en réalité même pour un dev front-end, ça aurait pris des heures. Là j'ai réussi à le générer en dix minutes et pour deux euros. Donc peu importe la réponse à la question "l'IA est-elle capable de réfléchir par elle-même", à laquelle vous donnez une réponse qui est de toute manière bien trop précipitée... Même si cela n'était pas le cas, l'IA aujourd'hui est en capacité de remplacer un bon nombre de professionnels, y compris des docteurs (AH oui et doctorant != scientifiquement irréfutable, ça c'est du grand n’importe quoi. D'ailleurs les systèmes d'indexations ressemblent à s'y méprendre au fonctionnement de l'IA). Et donc son apport doit absolument être pris en compte. Le PDG d'Antropic a tout à fait raison.
0  4