IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'ancien directeur de Google avertit l'Occident qu'il doit se concentrer sur l'IA open source pour concurrencer la Chine,
Se soucie-t-il vraiment de la compétitivité de l'Occident ?

Le , par Bruno

9PARTAGES

3  0 
Lors d'une intervention, Eric Schmidt, ex-PDG de Google et président de la Commission nationale de sécurité sur l'IA, a alerté sur la nécessité pour l'Occident de développer des modèles d'IA open source pour contrer la Chine. Cette position divise : si certains y voient une opportunité d'innovation et de démocratisation technologique, d'autres craignent de donner un avantage à un rival géopolitique perçu comme plus centralisé et offensif. Dans une lettre récente, Mark Zuckerberg, PDG de Meta, a également défendu l'IA open source, soulignant ses avantages pour les développeurs et le monde. Il a comparé son potentiel à celui de Linux, mis en avant les avancées des modèles Llama, comme le Llama 3.1 405B, et appelé à une collaboration industrielle pour en faire la norme en matière d'innovation IA.

L'open source est un modèle de développement logiciel collaboratif où le code source est librement accessible, modifiable et redistribuable. Né en réaction aux limites des logiciels propriétaires, il favorise l'innovation ouverte dans divers domaines. La position de Schmidt s'inscrit dans une vision où l'open source est un moyen d'éviter l'hégémonie de quelques acteurs fermés et d'encourager la diffusion rapide des avancées en IA. Pourtant, plusieurs critiques pointent du doigt son manque de cohérence : si l’IA est devenue une course aux armements, pourquoi prôner la transparence vis-à-vis de la Chine ? Certains commentaires soulignent que la perte de contrôle sur des modèles comme LLAMA a entraîné une explosion d'innovations, mais aussi des inquiétudes quant à l'utilisation malveillante des IA ouvertes.


Par ailleurs, au-delà de la question de l'open source, des interrogations plus larges émergent sur l'évolution des politiques économiques et technologiques occidentales. Le débat met en lumière des enjeux systémiques tels que le financement de la recherche, l’éducation, et la capacité des entreprises à conserver un avantage concurrentiel face à un rival qui investit massivement dans l’IA. Ainsi, la recommandation de Schmidt peut être perçue soit comme une incitation pragmatique à éviter la concentration excessive des avancées en IA, soit comme une naïveté stratégique face à une compétition qui ne repose pas uniquement sur des considérations techniques, mais aussi sur des choix politiques et économiques fondamentaux.

Dans les débuts de l'informatique, les entreprises développaient des systèmes Unix fermés, mais Linux a fini par dominer grâce à son open source, devenant la norme pour le cloud et les appareils mobiles. Mark Zuckerberg, PDG de Meta, voit une évolution similaire dans l'IA. Alors que les modèles fermés dominent aujourd'hui, l'open source, comme les modèles Llama de Meta, comble rapidement l'écart. Llama 3.1 405B, un modèle open source de pointe, est lancé, offrant un meilleur rapport coût-performance et une flexibilité accrue pour les développeurs. Meta collabore avec des entreprises comme Amazon, NVIDIA et Dell pour construire un écosystème open source robuste, visant à faire de Llama la norme industrielle.

Zuckerberg défend l'IA open source pour plusieurs raisons :

  1. Pour les développeurs : Elle permet de personnaliser les modèles, de protéger les données et d'éviter la dépendance à des fournisseurs fermés.
  2. Pour Meta : Elle évite de se faire enfermer dans des écosystèmes fermés et favorise l'innovation à long terme.
  3. Pour le monde : Elle démocratise l'accès à l'IA, stimule l'économie et renforce la sécurité en rendant les systèmes plus transparents.

Zuckerberg souligne que l'open source est plus sûr et plus résilient face aux menaces, tant involontaires qu'intentionnelles. Il plaide pour une approche ouverte et collaborative, estimant que les États-Unis et leurs alliés doivent miser sur l'innovation décentralisée pour rester compétitifs face à des acteurs comme la Chine. Enfin, il appelle à un effort collectif pour faire de l'IA open source la norme, offrant des opportunités économiques et une sécurité accrue à tous.

L'Open Source Initiative (OSI), une organisation majeure dans la définition des normes open source, a récemment publié une définition officielle pour l'IA open source. Bien que cette annonce semble prometteuse pour l'écosystème de l'IA, elle a déclenché des critiques, notamment en raison de l'absence d'une obligation claire concernant l'ouverture des données d'entraînement. Pour de nombreux experts, cette ouverture est pourtant cruciale pour garantir une véritable transparence dans le domaine de l'IA.

La percée chinoise de DeepSeek relance la compétition technologique mondiale

La mise en garde d'Eric Schmidt fait suite à l'ascension fulgurante de la start-up chinoise DeepSeek. Il a alerté sur la nécessité pour les pays occidentaux de développer des modèles d'intelligence artificielle en open source, sous peine de voir la Chine prendre une avance décisive dans cette compétition technologique mondiale.

DeepSeek, une entreprise chinoise spécialisée en intelligence artificielle, a récemment marqué un tournant avec le lancement de son modèle de langage R1. Contrairement aux modèles développés par des acteurs américains comme OpenAI, R1 se distingue par son efficacité accrue en matière de raisonnement et de traitement du langage. Cette percée met en lumière la montée en puissance de la Chine dans l'IA, un domaine stratégique où elle investit massivement pour rivaliser avec les États-Unis.

Pendant ce temps, l'Europe et la France peinent à s'imposer dans cette course. Bien que l'Union européenne ait mis en place des cadres réglementaires ambitieux pour encadrer l'intelligence artificielle, elle souffre d'un manque de géants technologiques capables de rivaliser avec les entreprises chinoises et américaines. La France, avec ses laboratoires de recherche avancés et ses start-ups prometteuses, tente de se positionner, mais reste encore loin derrière en termes de déploiement à grande échelle et de financement de modèles compétitifs à l'international.

En février 2025, l'Europe a franchi une étape majeure dans le domaine de l'intelligence artificielle (IA) avec le lancement d'InvestAI, une initiative de 200 milliards d'euros dévoilée par la présidente de la Commission européenne, Ursula von der Leyen. Ce programme comprend un fonds européen de 20 milliards d'euros dédié à la création de giga-fabriques spécialisées dans l'entraînement de modèles d'IA avancés, visant à renforcer la compétitivité européenne face aux géants technologiques mondiaux.

Parallèlement, la France a accueilli les 10 et 11 février 2025 le Sommet pour l'action sur l'intelligence artificielle au Grand Palais à Paris. Cet événement a rassemblé des chefs d'État et de gouvernement, des leaders d'organisations internationales, des PDG d'entreprises, des représentants du monde académique et de la société civile. L'objectif était de promouvoir une IA éthique et démocratique, tout en affirmant le rôle de la France et de l'Europe dans cette révolution technologique. Ces initiatives témoignent de la volonté européenne de combler son retard en matière d'IA et de s'imposer sur la scène internationale, en misant sur des investissements massifs et une régulation axée sur l'éthique et la sécurité.

La domination chinoise dans l'open source menacerait l'Occident

Eric Schmidt, devenu investisseur et philanthrope influent, a souligné que la majorité des modèles de langage américains les plus avancés restaient fermés, c'est-à-dire non accessibles librement au public. Parmi eux, on compte Gemini de Google, Claude d'Anthropic et GPT-4 d'OpenAI, à l'exception notable de Llama de Meta. Dans une interview, Schmidt a mis en garde : « Si rien n'est fait, la Chine finira par dominer le secteur du logiciel libre tandis que le reste du monde s'enfermera dans des systèmes propriétaires. » Il estime que le manque d'investissement dans l'open source limiterait la recherche scientifique dans les universités occidentales, qui n'auraient pas les moyens d'accéder à des modèles coûteux et fermés.

Schmidt s'exprimait lors du sommet AI Action à Paris cette semaine, où le vice-président américain JD Vance a affirmé que les États-Unis resteraient la puissance dominante dans le domaine technologique.

Le mois dernier, le PDG d'OpenAI, Sam Altman, a reconnu qu'il avait sous-estimé l'importance des modèles open-source et a suggéré que son entreprise devait réviser sa stratégie en s'éloignant progressivement des modèles fermés onéreux. Malgré cette réflexion, OpenAI continue d'investir massivement dans l'IA, discutant notamment avec SoftBank d'un tour de table estimé à 260 milliards de dollars avant valorisation. Par ailleurs, d'autres géants américains comme Google et Amazon misent également sur des modèles propriétaires, qu'ils considèrent comme les plus rentables.

Schmidt a réagi à cette évolution en déclarant : « Je pense qu'Altman a été un peu trop prompt à juger. L'avenir de l'IA repose sur une combinaison entre modèles ouverts et fermés. »

Si les États-Unis ont dominé la première phase du développement de l'IA avec des modèles puissants comme GPT-4, l'Europe pourrait tirer son épingle du jeu en misant sur l'application de l'IA aux entreprises et en construisant des solutions innovantes à partir de ces technologies. « L'Europe doit réagir », a insisté Schmidt. « La couche applicative est une opportunité majeure qui pourrait accroître l'efficacité et la compétitivité du continent. »

Schmidt a annoncé un investissement de 10 millions de dollars dans un nouveau programme dédié à la sécurité de l'intelligence artificielle, lancé par l'intermédiaire de Schmidt Sciences, l'organisation à but non lucratif qu'il a fondée avec sa femme, Wendy.

Ce programme financera 27 projets de recherche fondamentale visant à améliorer la sécurité des systèmes d'IA. Parmi les bénéficiaires figurent Yoshua Bengio, lauréat du prix Turing, qui travaillera sur des technologies de réduction des risques liés à l'IA, ainsi que Zico Kolter, membre du conseil d'administration d'OpenAI et professeur à l’université Carnegie Mellon, qui se concentrera sur l’étude des vulnérabilités et des attaques ciblant l’IA.



La sécurité de l’intelligence artificielle est une problématique mondiale qui dépasse les rivalités géopolitiques. Comme l’a souligné Eric Schmidt, la Chine et l’Occident font face aux mêmes défis liés aux risques de l’IA, qu’il s’agisse de la désinformation, des biais algorithmiques ou de l’alignement des modèles sur des objectifs humains. Une coopération internationale permettrait de partager les meilleures pratiques et de développer des normes communes pour garantir une utilisation responsable de l’IA. Sans collaboration, chaque bloc travaillerait en vase clos, ce qui pourrait ralentir les avancées et accroître les risques d’erreurs critiques...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !