IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Avec l'apprentissage par renforcement, le LLM open source DeepSeek-R1 correspondrait à o1 d'OpenAI pour 95 % moins cher.
R1 est déjà numéro un des téléchargements Apple Store, suivi par ChatGPT

Le , par Stéphane le calme

48PARTAGES

23  0 
La sortie de DeepSeek R1 a provoqué une onde de choc dans la communauté de l'IA, bouleversant les hypothèses sur ce qui est nécessaire pour atteindre des performances d'IA de pointe. Ce modèle open-source, qui correspondrait à l'o1 d'OpenAI pour seulement 3 à 5 % du coût selon le benchmark de la startup éponyme, a non seulement captivé les développeurs, mais a également incité les entreprises à repenser leurs stratégies en matière d'IA.

Les utilisateurs font remarquer que la fonction de recherche associée à DeepSeek (que vous pouvez trouver sur le site de DeepSeek) est désormais supérieure à des concurrents comme OpenAI et Perplexity, et n'est concurrencée que par Gemini Deep Research de Google. Mais certains chercheurs estiment que les tests de référence ne sont pas la meilleure mesure du succès.

Pour les entreprises qui développent des solutions basées sur l'IA, la percée de DeepSeek remet en question les hypothèses sur la domination d'OpenAI et offre un modèle d'innovation rentable.


Contexte

Le fait qu'une startup chinoise peu connue soit en train de combler l'écart avec certaines des plus grandes entreprises technologiques du monde avec beaucoup moins de ressources pourrait réduire à néant les efforts déployés par les États-Unis pour créer un fossé en matière d'IA face aux concurrents mondiaux. Après l'investiture du président Donald Trump, OpenAI a annoncé Stargate, une coentreprise avec le gouvernement fédéral pour dépenser 500 milliards de dollars dans l'infrastructure de l'IA au cours des quatre prochaines années.

Le 20 janvier, DeepSeek, dirigé par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, a publié R1 sous une licence ouverte du MIT, la plus grande version contenant 671 milliards de paramètres. Elle a pris la Silicon Valley et le monde de l'IA par surprise, car, selon un document rédigé par l'entreprise, DeepSeek-R1 bat les principaux modèles du secteur, comme OpenAI o1, sur plusieurs critères mathématiques et de raisonnement. En fait, sur de nombreux critères importants (capacité, coût, ouverture), DeepSeek donne du fil à retordre aux géants occidentaux de l'IA.

Ces entreprises américaines ont investi des milliards de dollars dans l'acquisition de puces et de données hautement perfectionnées afin de construire des modèles capables de résoudre des problèmes complexes. DeepSeek, quant à elle, semble construire des modèles capables d'atteindre des niveaux de performance similaires, pour une fraction du coût.

L'innovation née d'une crise : R1 est si efficace qu'il a nécessité un dixième de la puissance de calcul du modèle Llama 3.1 de Meta

En octobre 2022, le gouvernement américain a commencé à mettre en place des contrôles à l'exportation qui restreignaient considérablement l'accès des entreprises chinoises spécialisées dans l'IA à des puces de pointe telles que la H100 de Nvidia. Cette mesure a posé un problème à DeepSeek. L'entreprise avait commencé avec un stock de 10 000 H100, mais elle avait besoin de plus pour concurrencer des entreprises comme OpenAI et Meta. « Le problème auquel nous sommes confrontés n'a jamais été le financement, mais le contrôle des exportations de puces avancées », a déclaré Liang Wenfeng à 36Kr lors d'une seconde interview en 2024.

DeepSeek a dû trouver des méthodes plus efficaces pour entraîner ses modèles. Ils ont optimisé l'architecture de leurs modèles à l'aide d'une batterie d'astuces techniques : schémas de communication personnalisés entre les puces, réduction de la taille des champs pour économiser de la mémoire et utilisation innovante de l'approche « mix-of-models » (mélange de modèles), explique Wendy Chang, ingénieure en logiciel devenue analyste politique à l'Institut Mercator d'études sur la Chine. « Bon nombre de ces approches ne sont pas nouvelles, mais les combiner avec succès pour produire un modèle de pointe est un exploit remarquable ».

DeepSeek a également réalisé des progrès significatifs en matière d'attention latente multitêtes (MLA) et de mélange d'experts, deux concepts techniques qui rendent les modèles DeepSeek plus rentables en exigeant moins de ressources informatiques pour l'entraînement. En fait, le dernier modèle de DeepSeek est si efficace qu'il a nécessité un dixième de la puissance de calcul du modèle Llama 3.1 de Meta, selon l'institut de recherche Epoch AI.

DeepSeek affirme avoir créé un modèle de niveau o1 qui fonctionne à 95 % du coût

Si les analyses comparatives et les essais en conditions réelles réalisés depuis DeepSeek ont mis le feu aux poudres dans le monde de l'IA, le coût des opérations a été remis en question. Des entreprises comme Microsoft et Meta ont dépensé des milliards de dollars pour former et travailler sur l'IA, et ces deux sociétés devraient dépenser plus de 65 milliards de dollars d'ici à 2025.

Cependant, DeepSeek affirme avoir créé un modèle de niveau o1 qui fonctionne à 95 % du coût. Si o1 coûte 15 dollars par million de jetons d'entrée et 60 dollars par million de jetons de sortie (un jeton représente environ 4 caractères), DeepSeek est estimé à environ 0,55 dollar et 2,19 dollars par million de jetons d'entrée et de sortie, respectivement.

D'autre part, DeepSeek a rendu R1 open source. Jim Fan, directeur principal de la recherche chez Nvidia, a déclaré qu'il s'agissait de « maintenir en vie la mission originale d'OpenAI ». OpenAI était à l'origine une organisation à but non lucratif visant à faire progresser l'intelligence numérique au profit de l'ensemble de l'humanité. L'entreprise dirigée par Sam Altman est désormais une société à but lucratif.

Fan a également fait l'éloge du développement de l'IA DeepSeek. Le fait qu'elle soit open source permettra aux développeurs de s'en inspirer et d'apprendre de DeepSeek, voire de l'améliorer.

Dans un article publié fin décembre, les chercheurs de DeepSeek ont estimé qu'ils avaient construit et entraîné leur modèle V3 pour moins de 6 millions de dollars en utilisant environ 2 000 puces Nvidia H800.

L'application est déjà la plus téléchargée sur l'Apple Store, suivie par ChatGPT

En 2023, un document de Google ayant fait l'objet d'une fuite affirmait que les alternatives open-source aux options des grands acteurs les surpasseraient.

Le modèle est devenu le modèle le plus téléchargé sur HuggingFace (131 000 fois, à l'heure où nous écrivons ces lignes), les développeurs se précipitant pour l'essayer et cherchant à comprendre ce qu'il signifie pour leur développement de l'IA. Si DeepSeek parvient à s'imposer auprès du grand public (l'application est déjà en pôle position sur iOS, ChatGPT d'OpenAI occupe actuellement la deuxième place du même classement d'Apple), il est fort possible qu'OpenAI et d'autres acteurs doivent envisager de baisser leurs prix. Actuellement, OpenAI facture un maximum de 200 dollars par mois pour ses modèles haut de gamme.

Certains utilisateurs sont plutôt enthousiastes :

« Pour ceux qui ne l'ont pas encore réalisé, Deepseek-R1 est meilleur que claude 3.5 et meilleur que OpenAI o1-pro, meilleur que Gemini. Il est tout simplement plus intelligent - beaucoup moins stupide, plus prudent, plus astucieux, plus conscient, plus méta-conscient, etc. »

Mais les chercheurs soulignent qu'elle n'est pas infaillible

Certains chercheurs affirment aujourd'hui que DeepSeek n'est pas infaillible et que les tests de référence ne sont pas la meilleure mesure du succès. Dans certains des tests de raisonnement les plus difficiles, DeepSeek peine à surpasser l'o1-mini, une version plus restreinte du modèle phare. Sur Reddit, certains utilisateurs ont déclaré que le travail de DeepSeek en matière d'efficacité devrait encore être étudié.

La perspective d'un changement de stratégie pour les entreprises d'IA

Les implications pour les stratégies d'IA des entreprises sont profondes : Grâce à la réduction des coûts et à l'accès libre, les entreprises disposent désormais d'une alternative aux modèles propriétaires coûteux comme celui d'OpenAI. Le lancement de DeepSeek pourrait démocratiser l'accès aux capacités d'IA de pointe, permettant ainsi aux petites organisations de rivaliser efficacement dans la course à l'armement de l'IA.

Comment DeepSeek a réussi cet exploit ? Qu'est-ce cela signifie pour le grand nombre d'utilisateurs de modèles d'IA ? Pour les entreprises qui développent des solutions basées sur l'IA, la percée de DeepSeek remet en question les hypothèses sur la domination d'OpenAI et offre un modèle d'innovation rentable. C'est le « comment » DeepSeek a fait ce qu'il a fait qui devrait être le plus instructif ici.

La percée de DeepSeek : Passer à l'apprentissage par renforcement pur

En novembre, DeepSeek a fait les gros titres en annonçant qu'elle avait atteint des performances supérieures à celles de l'outil o1 d'OpenAI, mais à l'époque, elle ne proposait qu'un modèle limité R1-lite-preview. En publiant la version complète de R1 et le document technique qui l'accompagne, l'entreprise a révélé une innovation surprenante : elle s'est délibérément écartée du processus conventionnel de mise au point supervisée (SFT pour supervised fine-tuning) largement utilisé dans la formation des grands modèles de langage (LLM).

Le SFT, une étape standard dans le développement de l'IA, implique l'entraînement de modèles sur des ensembles de données conservés afin d'enseigner le raisonnement étape par étape, souvent appelé « chaîne de pensée » (CoT pour chain-of-thought). Cette étape est considérée comme essentielle pour améliorer les capacités de raisonnement. Cependant, DeepSeek a remis en question cette hypothèse en sautant complètement le SFT et en choisissant de s'appuyer sur l'apprentissage par renforcement (RL) pour former le modèle.

Cette décision audacieuse a forcé DeepSeek-R1 à développer des capacités de raisonnement indépendantes, en évitant la fragilité souvent introduite par les ensembles de données prescriptifs. Bien que certains défauts soient apparus (ce qui a conduit l'équipe à réintroduire une quantité limitée de SFT au cours des dernières étapes de la construction du modèle) les résultats ont confirmé l'avancée fondamentale : l'apprentissage par renforcement pouvait à lui seul générer des gains de performance substantiels.

L'entreprise a fait une grande partie du chemin en utilisant des logiciels libres

Tout d'abord, un peu d'histoire sur la façon dont DeepSeek est arrivée là où elle est. DeepSeek, une spin-off de 2023 du fonds spéculatif chinois High-Flyer Quant, a commencé par développer des modèles d'IA pour son chatbot propriétaire avant de les mettre à la disposition du public. On sait peu de choses sur l'approche exacte de l'entreprise, mais elle a rapidement ouvert ses modèles, et il est très probable qu'elle s'est appuyée sur les projets ouverts produits par Meta, par exemple le modèle Llama et la bibliothèque ML Pytorch.

Pour entraîner ses modèles, High-Flyer Quant s'est procuré plus de 10 000 GPU Nvidia avant les restrictions à l'exportation imposées par les États-Unis, et aurait étendu sa production à 50 000 GPU par d'autres voies d'approvisionnement, malgré les barrières commerciales. Ces chiffres sont dérisoires par rapport aux principaux laboratoires d'IA tels que OpenAI, Google et Anthropic, qui fonctionnent avec plus de 500 000 GPU chacun.

La capacité de DeepSeek à obtenir des résultats compétitifs avec des ressources limitées montre comment l'ingéniosité peut remettre en cause le paradigme du coût élevé de la formation de LLM de pointe.

Open R1 : La reproduction entièrement ouverte de DeepSeek-R1, qui remet en question le statu quo des LLM propriétaires existants

Le développement du LLM Open Source connaît un grand changement grâce à la reproduction complète et à l'ouverture de DeepSeek-R1, y compris les données d'entraînement, les scripts, etc. Hébergé sur la plateforme Hugging Face, ce projet ambitieux est conçu pour reproduire et améliorer le pipeline R1. Il met l'accent sur la collaboration, la transparence et l'accessibilité, permettant aux chercheurs et aux développeurs du monde entier de s'appuyer sur les travaux fondamentaux de DeepSeek-R1.

L'initiative simplifie les processus de formation et d'évaluation des modèles, par ailleurs complexes, grâce à une documentation claire et à une conception modulaire. En mettant l'accent sur la reproductibilité, le projet Open R1 invite les développeurs à tester, affiner et développer ses principaux composants.


Télécharger DeepSeek R1 (HuggingFace)

Sources : DeepSeek-R1 : Incitation à la capacité de raisonnement dans les LLM via l'apprentissage par renforcement, Open R1 (1, 2), annonce de la disponibilité d'Open R1

Et vous ?

Que pensez-vous de DeepSeek-R1 ? L’approche par apprentissage par renforcement utilisée par DeepSeek-R1 pourrait-elle devenir la norme dans le développement des futurs LLM ?

Quels critères devraient être utilisés pour déterminer si un modèle comme DeepSeek-R1 est vraiment supérieur à Claude 3.5, OpenAI O1-Pro ou Gemini ?

Pensez-vous que la supériorité de DeepSeek-R1 repose davantage sur ses capacités techniques ou sur l’expérience utilisateur qu’il offre ?

Jusqu’où peut aller l’augmentation de la "méta-conscience" des modèles sans créer de risques liés à l’autonomie excessive des IA ?

Voir aussi :

Des chercheurs chinois viennent de percer les secrets de l'AGI d'OpenAI, avec un plan détaillé qui révèle comment recréer les capacités de raisonnement du modèle o1 d'OpenAI à partir de zéro

OpenAI lance des modèles d'IA dotés de capacités de « raisonnement » semblables à celles d'une personne. Les modèles « Strawberry » peuvent décomposer des problèmes complexes en étapes logiques plus petites
Vous avez lu gratuitement 0 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 29/01/2025 à 18:28


Il est quand même sans gêne ce Altman.

Il trouve normal d'utiliser des données ayant un droit d'auteur gratuitement pour alimenter son IA, mais si on se sert de son droit d'auteur à lui, il est pas content le Monsieur. C'est un peu l'hopital qui se fout de la charité .

C'est un peu la jungle avec les IA. Si je demande à une IA de me montrer en direct un match de foot, je "bypass" les droits d'auteurs de la "chaîne TV" ayant chèrement payer ces droits, et cela serait légal ? Et si c'est illégale, pourquoi le reste de ce qui est pompé et recracher par l'IA ne le serait-il pas ?

Si je filme le match (qui sort d'une "machine", ici la TV) avec une super caméra (une autre machine) et que je diffuse cela en direct streaming sur "Internet" (qui repose au final sur des machines), c'est donc légal ?

Bref, les grands de ce monde vont arranger tout cela à leur prochaine réunion à Davos, et tous les autres seront raquetés. Deux poids, deux mesures. Les (quelques) forts d'un côté et la masse des faibles gueux de l'autre.

Elle est pas belle la vie .

BàV et Peace & Love.
6  0 
Avatar de noremorse
Membre actif https://www.developpez.com
Le 29/01/2025 à 20:48
Malgré cela, la somme dépensée par DeepSeek reste largement inférieure aux montants faramineux que comptent dépenser les occidentaux
5  0 
Avatar de
https://www.developpez.com
Le 29/01/2025 à 22:57
Citation Envoyé par Developpez.com
Mais les analystes de SemiAnalysis ont tenu à apporter quelques nuances aux déclarations de DeepSeek. SemiAnalysis est une société indépendante de recherche et d'analyse spécialisée dans les secteurs des semiconducteurs et de l'IA.
Citation Envoyé par SemiAnalysis
All matters arising out of or relating to these Terms are governed by and construed in accordance with the internal laws of the State of Florida without giving effect to any choice or conflict of law provision or rule (whether of the State of Florida or any other jurisdiction) that would cause the application of the laws of any jurisdiction other than those of the State of Florida.
Entreprise américaine 100% indépendante et impartiale. Mais tout à fait!
4  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 02/02/2025 à 17:47
Outre le domaine de la sécurité, DeepSeek est accusé d'appliquer une censure stricte sur des sujets politiquement sensibles en Chine. Les utilisateurs ont vu le chatbot chinois répondre, puis se censurer en temps réel. Pour certains critiques, il s'agit d'un aperçu saisissant du contrôle exercé par la Chine sur l'information, mais d'autres rappellent que n'importe qui peut télécharger le modèle open source de DeepSeek et l'adapter pour supprimer les restrictions de Pékin.
Ce qui veut aussi dire que n'importe qui peu télécharger n'importe quel modèle open-source pour supprimer les restrictions de sécurité, y compris concernant ce que Cisco nomme "six catégories de comportements nuisibles, dont la cybercriminalité, la désinformation, les activités illégales et le préjudice général"

De plus, DeepSeek n'est pas le premier modèle open-source à être sorti non-censuré là dessus. Il y a déjà eu plusieurs modèles de Mistral.
Pourtant, il me semble que la criminalité n'a pas sensiblement augmenté de part le monde de manière significative, la cybercriminalité non plus, et la Terre ne s'est pas arrêtée de tourner... Du coup, l'on est sérieusement en droit de se demander si Cisco n'exagère pas énormément en parlant de résultats "alarmants".
Et cela en prenant en compte le fait que de toute façon, à partir du moment où un modèle est open-source, n'importe qui peu le modifier...

Le vrai danger de l'IA ne sera pas lié au péquin lambda qui veut générer n'importe quel instruction illégale sur son ordi ou son portable. Les deux vrais danger de l'IA sont les entreprises qui cherchent à s’approprier à elle-seule certains algorithmes, afin de rendre dépendant des milliers de personnes et d'entreprises dans le monde. Et surtout, que des régimes autoritaires, voir totalitaires, s'en servent pour contrôler et surveiller les gens, censurer du contenu dynamiquement, et faire la guerre avec des robots tueurs.
4  0 
Avatar de NotABread
Membre actif https://www.developpez.com
Le 29/01/2025 à 15:54
Je suis loin d'être juriste ni d'avoir les détails techniques derrières tout ça, mais puisque les sorties des IA sont la propriété de personne, et que l'utilisation de contenu sous droit d'auteur pour la formation de réseau de neurone est du fair use d'après OpenAI:
- comment la distillation relève dans ce cas est une violation du droit d'auteur ? La sortie est libre de droit
- selon les principes d'OpenAI, pourquoi la distillation ne serait pas du fair use ?
- est-ce que refuser la distillation n'est pas un obstacle à la mission annoncée d'OpenAI (l’avènement d'une AIG) ?
- quelles sont les preuves OpenAI et peut-on démontrer que ce n'est pas lié à un jeu d'entrainement similaire ? Avec la reproduction ouverte de DeepSeck, il devrait être possible de trouver ces preuves, non ?
2  0 
Avatar de
https://www.developpez.com
Le 03/02/2025 à 8:34
D'abord DeepSeek est critiqué pour sa censure, ensuite pour le fait qu'il n'est pas assez sécurisé contre son détournement.

Que DeepSeek puisse être jailbreaké n'est pas mon problème ni celui d'une majorité d'utilisateurs, qui ne savent même pas de quoi il s'agit. Et ce ne sont pas les armes qui font les criminels, mais ceux qui les utilisent à mauvais dessein.

Par ailleurs, le fait que la Chine censure des éléments de sa politique interne dans DeepSeek n'a rien de surprenant ni d'illégal. Ce n'est pas comme si dans ChatGPT régnait la transparence et la liberté d'expression. Loin de là. Certains devraient cesser de juger de leur propre vertu.

Et franchement, qui passe ses journées à formuler des prompts à propos de la politique de la Chine, que ce soit sur DeepSeek ou ChatGPT ? Est-ce que la censure chinoise a une quelconque influence sur votre quotidien ?

Tout cela ressemble à une campagne de dénigrement qui ne dit pas son nom. C'est tout petit et tout moche. Très occidental en soi.
2  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 04/02/2025 à 19:57
Citation Envoyé par noremorse Voir le message
Nouveau coup dur pour les sanctions américaines : La Russie et la Chine multiplient par 800 les performances de NVIDIA

Des scientifiques des deux pays ont mis au point un algorithme révolutionnaire à partir d'informations issues de la rétroconception d'accélérateurs de cartes vidéo. Cet algorithme permet d'utiliser les GPU de jeu pour le calcul scientifique.


Cette innovation a été réalisée par des spécialistes de l'université MSU-BIT de Shenzhen, cofondée par l'université d'État de Moscou Lomonossov et l'Institut de technologie de Pékin.

Cela permet à la Russie et à la Chine de réduire leur dépendance vis-à-vis des GPU NVIDIA et d'atténuer l'impact des sanctions américaines.

Cela signifie également que la Russie et la Chine doivent acheter moins de GPU NVIDIA, ce qui a probablement conduit à l'effondrement du prix de l'action NVIDIA, a déclaré à Sputnik Valentin Makarov, président de l'association Russoft.

Selon lui, les recherches en cours comprennent de nouveaux algorithmes d'apprentissage automatique et un GPU de nouvelle génération en cours de développement en Russie.

Ces avancées mettent en évidence l'expertise technologique de la Russie, ce qui permet une collaboration avec la Chine et de futurs partenariats potentiels avec l'Inde.

PS : Les sanctions c’est pour les cons
C'est une info? Une opinion? Une déclaration? Des détails?
2  0 
Avatar de noremorse
Membre actif https://www.developpez.com
Le 28/01/2025 à 9:44
New York Times :

« Les avancées de l'IA chinoise effraient les investisseurs des Big Tech.
Les avancées de l'IA par des jeunes pousses chinoises ont ébranlé les marchés américains hier, effaçant des centaines de milliards de dollars des principaux indices technologiques. La chute des valeurs technologiques a également affecté les indices boursiers en Europe et au Japon, et le dollar a glissé par rapport aux devises des principaux partenaires commerciaux des États-Unis.
La diapositive est survenue quelques jours après que la société chinoise d'IA DeepSeek a déclaré qu'elle pouvait égaler les capacités des chatbots de pointe tout en utilisant une fraction des puces informatiques spécialisées sur lesquelles s'appuient les principales entreprises d'IA. La nouvelle a incité les investisseurs à repenser les valorisations d'entreprises comme Nvidia, dont l'équipement alimente les systèmes d'IA les plus avancés. (Voici ce qu'il faut savoir sur DeepSeek.)
Le secteur technologique global du S&P 500 a connu un début d'année difficile, perdant environ 4% de sa valeur, tandis que tous les autres grands secteurs ont progressé au cours de la même période. En raison de la taille et de l'influence de l'industrie technologique, cela a pesé sur l'indice S&P 500, qui est en hausse d'environ 2% pour l'année.
Les actions de Microsoft et d'Alphabet, la société mère de Google, qui ont toutes deux beaucoup misé sur l'IA, ont chuté hier de 2,1% et 4,2%, respectivement. Oracle a chuté de près de 14 %. SoftBank a perdu plus de 8% lors de la séance à Tokyo. Meta et Apple ont résisté à la tendance, affichant des gains.
Nvidia : Les actions de la société de puces ont plongé de 17 % et la société a perdu environ 600 milliards de dollars de valeur marchande, lors de ce qui a été sa pire journée de négociation depuis la vente due à la pandémie en mars 2020. »

Les sanctions c'est pour les cons (cf. Russie, Iran, Chine...)
1  0 
Avatar de
https://www.developpez.com
Le 28/01/2025 à 16:30
« DeepSeek n'a pas surgi de nulle part - ils construisent des modèles depuis des années. On sait depuis longtemps que DeepSeek dispose d'une très bonne équipe, et si elle avait accès à encore plus d'ordinateurs, Dieu sait de quoi elle serait capable », a déclaré Jimmy Goodrich.
Et donc les équipes chinoises (ici une startup "dirigée") offriraient en licence ouverte ce qu'elles ont de plus avancé ?
Ou plutôt une indication de ce qu'est ici et là cette économie "spéculative" ?
C'est intéressant.
1  0 
Avatar de
https://www.developpez.com
Le 28/01/2025 à 17:42
Pour une fois que les Américains se ramassent une pair de claque en règle. Cachez ce sourire narquois s'il vous plait!

J'en profite pour souhaiter bon courage aux Chinois avec la prise d'otage TikTok et les nouvelles taxes qu'ils vont se prendre d'ici une semaine.
1  0