IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI s'associe avec TSMC pour développer ses propres puces d'IA, conçues avec Broadcom
Qui se concentreront dans un premier temps sur l'exécution de modèles d'IA plutôt que sur leur entraînement

Le , par Anthony

9PARTAGES

4  0 
OpenAI s'associe à TSMC pour développer ses propres puces d'IA, conçues avec Broadcom, qui se concentreront dans un premier temps sur l'exécution de modèles d'IA plutôt que sur leur entraînement

OpenAI aurait conclu un partenariat avec le rival de Samsung, Taiwan Semiconductor Manufacturing Co (TSMC), pour développer sa première génération de puces d'intelligence artificielle en interne. Selon Reuters, l'entreprise technologique s'efforce de réduire sa dépendance à l'égard de Nvidia et devrait finaliser la conception de son silicium dans les mois à venir.

Cette initiative fait suite aux échanges entre Sam Altman, PDG d'OpenAI, et TSMC ainsi que des bailleurs de fonds des Emirats arabes unis dans le cadre d'un projet visant à créer ses propres puces d'IA pour répondre aux besoins d'OpenAI et rivaliser avec Nvidia.


Nvidia détient une part importante du marché des puces d'IA pour l'entraînement et le déploiement de modèles tels que le GPT d'OpenAI. Mais dépendre d'un seul fournisseur a ses inconvénients, ce qui pousse les entreprises technologiques à explorer d'autres options, que ce soit par le biais de partenariats ou en construisant leurs propres processeurs.

De surcroît, le coût de l'entraînement et de l'exploitation des modèles d'IA ne cesse d'augmenter. Les entreprises qui travaillent sur de grands modèles de langage (LLM) ont besoin d'une puissance de calcul considérable, certains projets utilisant des milliers de processeurs. On estime que la formation de modèles tels que le GPT-4 coûte à elle seule des centaines de millions de dollars en matériel.

La décision a été prise après que Sam Altman, PDG d'OpenAI, a rencontré Jay Y. Lee, président de Samsung Electronics, la semaine dernière, dans le but de mettre en place un partenariat ouvert dans lequel les deux entreprises se soutiendraient mutuellement.

OpenAI et le programme de puce d'IA à petite échelle de TSMC

L'équipe interne d'OpenAI, dirigée par Richard Ho, est en train de concevoir la puce en collaboration avec Broadcom. L'équipe aurait doublé de taille au cours des derniers mois, passant à 40 personnes. Richard Ho, qui a rejoint OpenAI il y a plus d'un an, travaillait auparavant chez Google, la société d'Alphabet, où il a joué un rôle clé dans le programme de puces d'IA personnalisées de l'entreprise.

Reuters rapporte que l'équipe de Richard Ho est plutôt petite comparée aux opérations massives des géants de la technologie comme Google et Amazon. La conception d'une nouvelle puce pour un projet important et ambitieux pourrait coûter à l'entreprise 500 millions de dollars pour une seule version.

La puce d'IA interne d'OpenAI serait capable de gérer à la fois l'entraînement et l'exécution de modèles d'IA, mais dans un premier temps, elle sera déployée à une échelle limitée, principalement pour l'exécution de modèles, ont indiqué des sources au média. Elle ne jouera pas encore un rôle important dans l'infrastructure globale de l'entreprise.

La puce serait fabriquée par TSMC en utilisant son processus de pointe de 3 nanomètres. Elle est dotée d'une architecture systolique, très répandue dans les puces d'intelligence artificielle, d'une mémoire à large bande passante (HBM) - la même technologie que celle utilisée par Nvidia - et de capacités de mise en réseau avancées.

Malgré les progrès sur les matériels d'IA, des inquiétudes persistent quant à l'impact environnemental de la technologie. Les experts avertissent que ces systèmes consomment de grandes quantités d'énergie et d'eau, certains émettant plusieurs tonnes de CO2 par jour.

Sasha Luccioni, chercheuse en IA, a notamment déclaré que l'IA générative accélère la crise climatique en raison de sa forte consommation d'énergie. Elle a également ajouté qu'il est particulièrement décevant que les gens utilisent l'IA pour faire des recherches sur Internet alors que ces recherches consomment à elles seules 30 fois plus d'énergie que les moteurs de recherche traditionnels.

Source : Reuters

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative d'OpenAI crédible ou pertinente ?

Voir aussi :

OpenAI, le propriétaire de ChatGPT, envisage de fabriquer ses propres puces d'intelligence artificielle

Le patron de TSMC prévoit une pénurie de puces d'IA jusqu'en 2025 et affirme que les commentaires de Trump ne changent rien à sa stratégie initiale d'expansion d'usines à l'étranger
Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !