IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Dario Amodei, PDG d'Anthropic, affirme que la formation des modèles d'IA coûtera jusqu'à 100 milliards de dollars d'ici 2027
Et qu'ils seront "meilleurs que la plupart des humains pour la plupart des choses"

Le , par Anthony

27PARTAGES

4  0 
Dario Amodei, PDG d'Anthropic, affirme que la formation des modèles d'IA coûtera jusqu'à 100 milliards de dollars d'ici 2027, et qu'ils seront "meilleurs que la plupart des humains pour la plupart des choses"

Dario Amodei, PDG d'Anthropic, prévoit que d'ici 2027, la formation des modèles d'IA pourrait coûter jusqu'à 100 milliards de dollars. Il souligne que le développement de l'IA est un processus continu, qui s'apparente à l'apprentissage humain, et prévoit que les futurs modèles d'IA seront meilleurs que la plupart des humains dans la plupart des domaines.

Dario Amodei est un chercheur et entrepreneur italo-américain spécialisé dans l'intelligence artificielle. Il est cofondateur et PDG d'Anthropic, la société à l'origine de la grande série de modèles de langage Claude AI. Il a également été le vice-président de la recherche chez OpenAI.

Anthropic PBC est une startup américaine d'intelligence artificielle (IA) d'intérêt public, fondée en 2021 par Daniela Amodei et Dario Amodei, anciens membres d'OpenAI. La startup recherche et développe l'IA pour "étudier ses propriétés de sécurité à la frontière technologique" et utiliser cette recherche pour déployer des modèles sûrs et fiables pour le public. Anthropic a développé une famille de grands modèles de langage (LLM) nommée Claude pour concurrencer ChatGPT d'OpenAI et Gemini de Google.

Un grand modèle de langage (LLM) est un modèle informatique qui se distingue par sa capacité à générer du langage à des fins générales et à réaliser d'autres tâches de traitement du langage naturel, telles que la classification. Basés sur des modèles de langage, les LLM acquièrent ces capacités en apprenant des relations statistiques à partir de grandes quantités de texte au cours d'un processus d'apprentissage auto-supervisé et semi-supervisé à forte intensité de calcul. Les LLM peuvent être utilisés pour la génération de textes, une forme d'IA générative, en prenant un texte en entrée et en prédisant de manière répétée le prochain mot ou token. Plus spécifiquement, les LLM sont des réseaux neuronaux artificiels qui utilisent l'architecture du transformateur, inventée en 2017. Les LLM les plus grands et les plus performants, depuis juin 2024, sont construits avec une architecture basée uniquement sur un transformateur décodeur, ce qui permet un traitement et une génération efficaces de données textuelles à grande échelle.



Citation Envoyé par Dario Amodei

Je l'ai dit à plusieurs reprises, mais il y a dix ans, lorsque tout cela relevait de la science-fiction, je parlais beaucoup de l'AGI. Aujourd'hui, j'ai une perspective différente et je ne pense pas qu'il s'agisse d'un point dans le temps. Je pense simplement que nous sommes sur une courbe exponentielle régulière, et que les modèles s'améliorent de plus en plus au fil du temps.

Il n'y a pas de moment précis où l'on se dit : "Oh, les modèles n'étaient pas généralement intelligents, et maintenant ils le sont". Je pense simplement que, comme un enfant humain qui apprend et se développe, ils deviennent de plus en plus performants, de plus en plus intelligents ou de plus en plus compétents. Je ne pense pas qu'il y aura un seul point de repère, mais je pense qu'il se produit un phénomène où, au fil du temps, ces modèles deviennent de plus en plus performants, même par rapport aux meilleurs humains.

Je pense que si nous continuons à augmenter l'échelle, le montant du financement des modèles, s'il atteint disons 10 milliards de dollars. [Actuellement, un modèle coûterait quoi, 100 millions de dollars ?] Pour l'instant, 100 millions de dollars. Certains modèles en cours de formation coûtent plus d'un milliard de dollars. Je pense que si nous passons à 10 ou 100 milliards, et je pense que cela se produira en 2025, 2026, peut-être 2027, et que les améliorations algorithmiques se poursuivent à un rythme soutenu et que les améliorations des puces se poursuivent également à un rythme soutenu, alors je pense qu'il y a, à mon avis, de bonnes chances que d'ici là nous soyons en mesure d'obtenir des modèles qui soient meilleurs que la plupart des humains dans la plupart des domaines.
Source : Dario Amodei, PDG d'Anthropic

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les prédictions de M. Amodei crédibles ou pertinentes ?

Voir aussi :

Le PDG d'Anthropic estime que le coût de la formation d'un modèle d'IA atteindra bientôt 100 milliards de dollars, ce qui suggère que les entreprises échouent à réduire les coûts liés au développement de l'IA

Le PDG d'Anthropic estime qu'un revenu de base universel n'est pas suffisant pour remédier aux pertes d'emplois liées à l'IA, «si la technologie évolue rapidement, nous devrons trouver une solution rapidement»

D'ici l'année prochaine, les modèles d'IA pourraient être capables de « se répliquer et de survivre dans la nature », une affirmation pour le moins surprenante du PDG d'Anthropic
Vous avez lu gratuitement 2 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 25/01/2025 à 7:53
il n'y a aucune intelligence dans ces algorithmes probabilistes. C'est de la connaissance encyclopédique.

Par quel miracle ce gugus va-t-il supprimer les biais qui sont intrinsèques au système probabiliste ? Il parle d'un niveau doctorant, donc scientifiquement irréfutable.

L'intelligence ce n'est pas ce qui est le plus consensuel, attendu, probable, et surtout pas la moyenne !

A ce tarif, la terre serait toujours plate et vous seriez des hérétiques...

Le système sera intelligent lorsqu'il se posera la question de la cohérence des informations à chaque fois qu'on lui ingurgite une nouvelle donnée. l'IA ne doit pas bâtir une réponse sur des croyances. Les réponses ne peuvent être magiques comme aujourd'hui mais obligatoirement sourcées.

Que doit répondre une IA avec les données de l'an 800 à Charlemagne quand il lui pose la question : la terre, est-elle plate ?
- elle est bien plate (dogme de l'église)
- impossible de confirmer qu'elle est plate (hérétique).
- Ératosthène a montré qu'elle était sphérique (limite du blasphème pour Charlemagne)

Vous reprenez un jeu de questions aléatoires, avec une IA Afghane (uniquement alimentée avec des écritures saintes) ne devrait-elle pas donner les mêmes réponses qu'une IA athée ?

Quand Trump pose une question à une IA et que LA réponse ne lui convient pas : you're fired ? Et bien non, c'est pas comme ça la vrai vie pépère !

Nous sommes à des années lumières de l'intelligence supérieure promise par les Altman et consorts qui survendent de la proba pour de l'intelligence. J'ose : chatGPT est un simple Marmiton V2, une base de recettes.
4  0 
Avatar de cobalt3d
Membre régulier https://www.developpez.com
Le 27/01/2025 à 4:21
Le mieux qu'on puisse attendre, c'est que l'Ia nous plonge dans un âge de stagnation et d'immobilisme. Elle ne fait que simuler l'intelligence. Sans modèle, elle n'invente rien. Elle n'inventera jamais rien. Pire, si la moindre originalité devait apparaître quelque part, c'est qu'elle l'aura volé dans une publication obscure qui aura échappé au plus grand nombre. Même cette situation est peu probable. L'enthousiasme et l'optimisme actuels ne sont destinés qu'à gonfler la bulle spéculative qui l'entoure.
2  0 
Avatar de Flupke68
Nouveau membre du Club https://www.developpez.com
Le 23/01/2025 à 15:51
J'espère que l'IA fera l'humanité arriver à se dire qu'il y a quelque chose qui nous dépasse,
et que tenter d'approcher ce qui nous dépasse nous fera incarner le mythe d'Icare.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 28/06/2024 à 14:18
Ouaaaaaaaaaaaaaaaaaaaah! Une intelligence de niveau "universitaire"?!?!?

Pour avoir un cursus universitaire, je peux vous confirmer que chez les universitaires et les ingénieurs sortis diplômés des plus prestigieuses hautes écoles, il y a la même proportion de cons et de mecs bas du plafond que dans tous les autres métiers!!!

Une intelligence de niveau "universitaire" ne veut strictement rien dire, mais bon le PDG en question est aussi déconnecté du monde universitaire que du monde réel; C'est le même genre de mec qui a dit il y a quelques jours que l'humain allait être remplacé par l'IA dans tous les métiers... Y compris votre coiffeur qui vous fait une petite coupe estivale ou l'aide infirmière qui nettoie les déjections (pour ne pas écrire la merde!) des patients grabataires qui bien que devant garder le lit ont toujours des fonctions à assouvir???
0  0 
Avatar de dee phoenix
Inactif https://www.developpez.com
Le 23/01/2025 à 15:49
La boucle sera bouclée quand l'I.A n'aura plus besoin d'interventions humaine pour évoluer
0  0 
Avatar de dee phoenix
Inactif https://www.developpez.com
Le 23/01/2025 à 18:03
Citation Envoyé par Flupke68 Voir le message
J'espère que l'IA fera l'humanité arriver à se dire qu'il y a quelque chose qui nous dépasse,
et que tenter d'approcher ce qui nous dépasse nous fera incarner le mythe d'Icare.
L'inconscient collectif doit être blindé contre toutes formes de manipulations hégémoniques négatives
0  0 
Avatar de
https://www.developpez.com
Le 27/01/2025 à 14:49
Le mieux qu'on puisse attendre, c'est que l'Ia nous plonge dans un âge de stagnation et d'immobilisme. Elle ne fait que simuler l'intelligence. Sans modèle, elle n'invente rien. Elle n'inventera jamais rien. Pire, si la moindre originalité devait apparaître quelque part, c'est qu'elle l'aura volé dans une publication obscure qui aura échappé au plus grand nombre. Même cette situation est peu probable. L'enthousiasme et l'optimisme actuels ne sont destinés qu'à gonfler la bulle spéculative qui l'entoure.
Bien évidemment que cela s'inscrit dans l'économie spéculative, qui tend à prendre toute la place et tenter un reset pour ... effacer la dette. Tout aussi évidemment cela profiterait à ? Ceux qui sont le plus endettés.
L'IA est un outil, même avec un modèle (un mot pour remplacer simulation), cela n'invente rien car c'est du brassage de données : un peu comme si vous vouliez créer un écosystème en brassant des sédiments, c'est difficile sans y injecter quelque chose (de vivant). Ce quelque chose, c'est nous-mêmes (n'avons nous pas créé cet outil ?).
C'est quand même curieux cette discussion à propos d'un outil : il est probable (de mon point de vue, hein) que cela est dû à son haut niveau d'abstraction (son côté "immatériel" ?).
L'IA est "créative" lorsque nous l'utilisons, en relation pour ainsi dire et cela fait bouger : c'était déjà le cas avec les silex
Une base de recettes, c'est bien, un génome aussi.
Cela dit il y a bien d'autres "choses", une fois sorti du labo.
Peut-être même une IA, tiens.
0  0 
Avatar de JeanMorlet
Membre régulier https://www.developpez.com
Le 13/02/2025 à 13:14
Inutile d'en dire plus...
1  1 
Avatar de Showb
Nouveau Candidat au Club https://www.developpez.com
Le 25/01/2025 à 14:19
Citation Envoyé par vVDB.fr Voir le message
il n'y a aucune intelligence dans ces algorithmes probabilistes. C'est de la connaissance encyclopédique.

Par quel miracle ce gugus va-t-il supprimer les biais qui sont intrinsèques au système probabiliste ? Il parle d'un niveau doctorant, donc scientifiquement irréfutable.

L'intelligence ce n'est pas ce qui est le plus consensuel, attendu, probable, et surtout pas la moyenne !

A ce tarif, la terre serait toujours plate et vous seriez des hérétiques...

Le système sera intelligent lorsqu'il se posera la question de la cohérence des informations à chaque fois qu'on lui ingurgite une nouvelle donnée. l'IA ne doit pas bâtir une réponse sur des croyances. Les réponses ne peuvent être magiques comme aujourd'hui mais obligatoirement sourcées.

Que doit répondre une IA avec les données de l'an 800 à Charlemagne quand il lui pose la question : la terre, est-elle plate ?
- elle est bien plate (dogme de l'église)
- impossible de confirmer qu'elle est plate (hérétique).
- Ératosthène a montré qu'elle était sphérique (limite du blasphème pour Charlemagne)

Vous reprenez un jeu de questions aléatoires, avec une IA Afghane (uniquement alimentée avec des écritures saintes) ne devrait-elle pas donner les mêmes réponses qu'une IA athée ?

Quand Trump pose une question à une IA et que LA réponse ne lui convient pas : you're fired ? Et bien non, c'est pas comme ça la vrai vie pépère !

Nous sommes à des années lumières de l'intelligence supérieure promise par les Altman et consorts qui survendent de la proba pour de l'intelligence. J'ose : chatGPT est un simple Marmiton V2, une base de recettes.

Intéressant quand même, comme un post destiné à démontrer les supposées limites de l'IA et à critiquer vertement les déclarations d'un des hommes les mieux renseignés sur ce sujet sur terre, arrive en réalité à démontrer les limites du raisonnement humain ou en tout cas de certains humains. Le plus important je pense pour commencer est de démonter les multiples erreurs de ce poste.

Sur le plan historique, Charlemagne a priori pensait que la Terre était ronde comme la majorité de ses contemporains. Le choix de Charlemagne est d'ailleurs assez étonnant, car c'est justement une statue de Charlemagne dont l'on se sert souvent pour montrer cela. Une statue bien connue de Charlemagne arborant un globe dans la main censé représenter son pouvoir sur la Terre.

Ensuite l'église de cette époque a priori soutenait l'idée selon laquelle la terre était ronde, l'église n'était pas là pour s'occuper de sciences, mais étant donné que rien dans la Bible ne va contre cette idée (certain versets peuvent même être interprété comme soutenant cette idée), c'est une question sur laquelle elle n'a pas eu de vraie position officielle. Cependant, il est possible de dire qu'elle était plutôt favorable à cette idée, étant donné que beaucoup de grands hommes d'église, dont les pères de l'église, soutenaient la rotondité de la terre. Ce à quoi vous faites allusion, ce sont des procès ultérieurs, et je vous invite à vous renseigner un petit peu plus sur ces affaires, car c'était loin d'être un simple problème scientifique. Mais l'avis des historiens sur le sujet, c'est que l'Église considérait que la terre était ronde durant le Moyen-Âge.

Comble de l'ironie, lorsque je demande à Copilot qui, il me semble, transmet les réponses à partir d'un moteur issu des GPT d'OpenAI, il me répond que les hommes du Moyen-Âge pensaient que la Terre était ronde et que la croyance selon laquelle les personnes du Moyen-Âge pensaient que la Terre était plate, bien que très répandue à notre époque, est totalement fausse et vient des différents mensonges de la Renaissance, entre autres de Voltaire. Comme quoi, l'approche probabiliste, apparemment lorsqu'elle est bien gérée, peut quand même permettre de générer une réponse qui va à contre-courant de l'avis général en se basant sur des sources sérieuses, ce qu'apparemment votre esprit humain n'a en l'occurrence pas réussi à faire.

Ensuite, la dernière phrase sur l'IA afghane et je ne vois pas vraiment pourquoi une telle obsession sur les croyances religieuses alors qu'on parle d'intelligence artificielle, mais en réalité on peut élargir la question et se demander si ce même jeu de questions aléatoire posé à un Afghan et un Américain auront vraiment les mêmes réponses. On est le produit de son environnement, il est tout à fait normal que les IA puissent subir les mêmes biais. Encore une fois vous êtes la preuve que la légende d'un moyen Âge obscure qui est un pur produit de notre roman national a encore plus d'effets sur les humains que les IAs.

Sur un plan fluide technique, effectivement, les IA transmettent des réponses qui sont avant tout probabilistes, puisqu'elles réfléchissent avec une méthode qui, vous avez raison, utilise une moyenne, quand a priori l'esprit humain ne procède pas de la même façon, et cela donne, vous avez encore raison, de célèbres lacunes de l'IA qui sur certaines questions n'arrivent pas à sortir de ces biais probabilistes, par exemple, il est très difficile de gérer une montre qui n'indique pas 10h10, car l'immense majorité des photos que l'IA trouve avec des montres indiquent 10h10 et qu'elle n'est visiblement pas capable de comprendre qu'une montre peut indiquer autre chose. Mais au-delà de certains cas très précis comme ceux-là, l'approche probabiliste, bien qu'elle nécessite d'être prises en compte, ne pose pas de problème majeur. En l'occurrence, les dernières IA que l'on a sont des groupes d'IA avec tout un tas de sous-IA qui sont capables de se corriger entre elles et de conduire une réflexion avec une IA majeure qui est capable de décomposer le problème, par exemple.

En réalité, dans un futur proche, si l'IA est capable d'appeler des IA spécialisées / logiciels dans tout un tas de domaines, de comparer les réponses et d'évaluer les résultats, elle sera capable de mener des raisonnements complexes. La question de savoir si l'IA pourrait vraiment générer des résultats scientifiques nouveaux grâce à uniquement sa compréhension est toujours ouverte à ma connaissance. Pour l'instant, ce n'est pas le cas. Mais par contre, il est très clair que les IA aujourd'hui arriveront à remplacer la plupart des professionnels, et que l'accès à une puissance de calcul très importante débloque malgré tout de nombreux domaines de la recherche, je pense à AlphaMind par exemple. D'un point de vue plus terre à terre, et pour sortir des grands discours et raisonnements sur ce sujet

Je suis développeur et actuellement avec une IA comme Bolt ou Windsurf qui sont connectés à AntropicAI et utilisent des cascades d'IA c'est complètement hallucinant ce qu'on arrive à générer. J'ai par exemple généré une application d'édition de Markdown avec prévisualisation et stockage sur un serveur en ligne. L'interface est magnifique, bien meilleure que ce que j'arriverai à faire. Je suis plutôt back-end, mais en réalité même pour un dev front-end, ça aurait pris des heures. Là j'ai réussi à le générer en dix minutes et pour deux euros. Donc peu importe la réponse à la question "l'IA est-elle capable de réfléchir par elle-même", à laquelle vous donnez une réponse qui est de toute manière bien trop précipitée... Même si cela n'était pas le cas, l'IA aujourd'hui est en capacité de remplacer un bon nombre de professionnels, y compris des docteurs (AH oui et doctorant != scientifiquement irréfutable, ça c'est du grand n’importe quoi. D'ailleurs les systèmes d'indexations ressemblent à s'y méprendre au fonctionnement de l'IA). Et donc son apport doit absolument être pris en compte. Le PDG d'Antropic a tout à fait raison.
0  4