IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le coût des calculs d'inférence de l'IA sera divisé par 100 au cours des deux prochaines années en raison de la loi d'échelle, d'après Kai-Fu Lee

Le , par Anthony

3PARTAGES

5  0 
Lors d'une récente intervention, Kai-Fu Lee, un ancien cadre de Google et Microsoft, a mis en évidence les progrès rapides de l'IA générative (GenAI) grâce à la loi d'échelle. Il a souligné qu'avec davantage de données et de GPU, l'IA générative deviendrait chaque année beaucoup plus intelligente. En outre, M. Lee a estimé que les coûts d'inférence de l'IA devraient chuter, potentiellement divisés par 100 en deux ans, rendant ainsi l'IA de pointe plus accessible et plus abordable.

Kai-Fu Lee est un homme d'affaires, informaticien, investisseur et écrivain taïwanais. Il est actuellement basé à Pékin, en Chine. M. Lee a développé un système de reconnaissance vocale continue indépendant du locuteur dans le cadre de sa thèse de doctorat à l'université Carnegie Mellon. Il a ensuite travaillé comme cadre, d'abord chez Apple, puis chez SGI, Microsoft et Google.

L'intelligence artificielle générative (IA générative ou GenAI) est une intelligence artificielle capable de générer du texte, des images, des vidéos ou d'autres données à l'aide de modèles génératifs, souvent en réponse à des invites. Les modèles d'IA générative apprennent les modèles et la structure de leurs données d'entraînement et génèrent ensuite de nouvelles données présentant des caractéristiques similaires.

[tweet]
<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Kai-Fu Lee says the cost of AI inference compute will reduce by 100x in the next 2 years due to the scaling law <a href="https://t.co/H7DfOVJLnN">pic.twitter.com/H7DfOVJLnN</a></p>&mdash; Tsarathustra (@tsarnick) <a href="https://twitter.com/tsarnick/status/1802570392571466002?ref_src=twsrc%5Etfw">June 17, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>
[/tweet]

Citation Envoyé par Kai-Fu Lee

À l'avenir, tous ceux qui travaillent sur la GenAI croient en ce que l'on appelle la loi d'échelle, qui signifie qu'en ayant simplement plus de données et plus de GPU, la GenAI deviendra automatiquement plus intelligente avec quelques ajustements. Nous pouvons donc nous attendre à ce que chaque année, la GenAI soit beaucoup, beaucoup plus intelligente que l'année précédente. Regardez, dans l'exemple de GPT-3.5 à 4, c'est un saut énorme. Et je suis sûr que le GPT-5 d'OpenAI sera un autre bond en avant.

Ainsi, grâce à l'amélioration rapide des technologies et à la réduction considérable des coûts, si vous regardez les API GPT-3.5 et 4, leurs coûts ont baissé d'environ 10 fois par an. L'intensification de la concurrence et l'utilisation de technologies d'infrastructure plus intelligentes entraînent une nouvelle baisse des coûts. Le modèle Yi-Large que nous avons récemment lancé est à peu près comparable au GPT-4 en termes de performances, mais il ne coûte qu'un quart de son prix.

Les problèmes étant résolus par les technologues, les technologies s'améliorant rapidement grâce à la loi de mise à l'échelle et les coûts d'inférence diminuant considérablement, nous nous attendons certainement à voir apparaître de nombreuses applications de pointe d'ici un an et encore plus d'ici deux ans, car les coûts d'inférence seront divisés par 10 en un an et par 100 en deux ans.

Une autre façon de voir les choses est la suivante : si l'année dernière quelqu'un avait besoin de GPT-4 pour créer une application, mais que les API étaient trop chères, aujourd'hui les coûts sont plus de 10 fois inférieurs. Ce n'est plus coûteux. Il est donc rare qu'une telle amélioration technologique et une telle réduction des coûts se produisent et se multiplient en même temps. C'est ce que nous attendons avec impatience.
Source : Kai-Fu Lee

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les propos de M. Lee crédibles ou pertinents ?

Voir aussi :

« GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4 », affirme Sam Altman qui appelle une nouvelle fois à une réglementation mondiale sur l'IA

Brad Lightcap, cadre dirigeant d'OpenAI, déclare que l'IA générative ChatGPT d'aujourd'hui sera « ridiculement mauvaise » dans 12 mois, et qu'OpenAI s'apprête à publier son dernier modèle, GPT-5, dès cet été

Une erreur dans cette actualité ? Signalez-nous-la !