IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ingénieur sénior de Google affirme que l'entreprise est en train de perdre la course à l'IA au profit de la communauté open source
Et ajoute qu'OpenAI est également dans la même situation

Le , par Bill Fassinou

3PARTAGES

6  0 
Un document prétendument rédigé par un ingénieur sénior de Google affirme que Google perd progressivement son avance dans le domaine de l'IA au profit de la communauté open source. Le mémo explique que Google a concentré toute son attention sur sa rivalité avec OpenAI et a oublié de surveiller de près ce qui se passait dans la communauté des logiciels libres, mais qu'en fin de compte, ni Google ni OpenAI ne l'emportera. Il indique que, pendant que Google et OpenAI se querellaient, l'open source a pris les devants dans cette course. Le document a été divulgué jeudi dernier et suggère que les Big Tech sont loin d'avoir une mainmise sur le marché de l'IA.

Google serait en train de perdre la course à l'IA au profit de la communauté open source

Ce serait actuellement la confusion au sein des équipes spécialisées dans l'IA chez Google. Après que le PDG Sundar Pichai a lancé une alerte rouge en décembre afin de développer rapidement un concurrent à ChatGPT pour éviter que le chatbot d'IA d'OpenAI concentre toute l'attention du public, la réponse de Google - Bard - n'a pas répondu aux attentes de Wall Street et n'a pas suscité un grand enthousiasme comme son rival. Mais encore, certains ingénieurs affirment désormais que les produits d'IA de l'entreprise manquent de plus en plus d'une "sauce secrète" qui ferait la différence et conforterait sa position de leader dans la course à l'IA.

Sur la base de ce constat, un ingénieur sénior de Google a écrit dans un document ayant récemment fait l'objet de fuite que la firme de Redmond n'est tout simplement pas en mesure de gagner la course mondiale à l'IA. Le document a été publié anonymement par le soc SemiAnalysis, mais Bloomberg a ensuite identifié Luke Sernau, ingénieur chez Google, comme étant l'auteur du mémo. Le profil LinkedIn de Sernau montre qu'il est diplômé en mathématiques et qu'il travaille chez Google en tant qu'ingénieur principal depuis mars 2019. Il a auparavant passé quatre ans chez Meta sur les insights automatisés et l'infrastructure d'apprentissage automatique.


Selon l'ingénieur, l'IA open source pourrait finir par surpasser les modèles de langages propriétaires de Google, Meta et OpenAI. Le mémo met en cause la stratégie de Google pour freiner la montée en puissance du laboratoire d'IA OpenAI. Selon l'analyse de l'ingénieur, cette rivalité a aveuglé Google et a empêché l'entreprise de voir le travail qui s'abattait du côté de la communauté open source. Cette dernière aurait progressé rapidement, formant des modèles d'IA qui s'avèrent parfois plus intéressants que les modèles propriétaires de Google OpenAI. Le document suggère que Google et OpenAI pourraient payer très cher cette ignorance à l'avenir.

« Nous avons beaucoup regardé par-dessus nos épaules à OpenAI. Qui franchira la prochaine étape ? Quel sera le prochain mouvement ? Mais la vérité désagréable est que nous ne sommes pas en position de gagner cette course aux armements et qu'OpenAI non plus. Pendant que nous nous chamaillions, une troisième faction a tranquillement mangé notre déjeuner. Je parle, bien sûr, de l'open source », peut-on lire dans le document rédigé par l'ingénieur Sernau. Selon ce dernier, le géant de la recherche en ligne n'en fait pas assez pour maintenir son avance, ce qui lui fait prendre un retard considérable par rapport à la communauté des logiciels libres.

Le mémo indique que la poursuite du développement de modèles d'IA propriétaires pourrait rendre Google et OpenAI inutiles, car les modèles open source progressent rapidement. Il cite des exemples de progrès récents, tels que des modèles d'IA fonctionnant sur des téléphones, des modèles multimodaux s'entraînant en moins d'une heure et des réglages personnalisés de l'IA sur des ordinateurs portables. Il s'agirait des premiers signes de l'évolution rapide de l'aspect open source de l'IA générative. Ce paradigme de développement rapide et abordable est à l'opposé du système fermé dans lequel OpenAI et Google ont développé leurs modèles de langage.

La construction d'un modèle d'IA open source coûterait moins cher qu'un modèle propriétaire

OpenAI a dépensé 540 millions de dollars en 2022 pour développer et lancer ChatGPT. À tire de comparaison, des chercheurs de Stanford ont mis au point leur propre modèle d'IA, Alpaca, qui est semblable à ChatGPT avec seulement 600 dollars. L'expérience montre que les nouveaux systèmes d'IA avancés peuvent être facilement reproduits, et que cela ne nécessite même pas des coûts énormes. Bien que les chercheurs aient des difficultés à affiner leurs modèles pour les rendre moins toxiques, ils ont trouvé le moyen de les construire à moindres coûts, ce qui est un avantage majeur par rapport aux centaines de millions que coûtent les modèles propriétaires.


Selon l'analyse de Sernau, la genèse de cette innovation open source remonte à la fuite du grand modèle de de langage LLaMA de Meta. La version de LLaMA divulgué était relativement peu sophistiquée et manquait de fonctionnalités clés, mais un mois après sa publication, de nombreuses améliorations avaient été apportées. L'effort collectif d'"une planète entière de travail gratuit" consacré à l'innovation sur LLaMA a permis des progrès incroyables. Par exemple, le modèle Alpaca des chercheurs de Stanford a été conçu sur la base de la plateforme open source LLaMA de Meta. D'autres modèles open source, comme AutoGPT, sont également disponible.

Un autre modèle appelé Vicuna-13B a été entraîné pour seulement 300 dollars en utilisant un mécanisme de réglage fin très peu coûteux appelé "Low Rank Adaptation" (LoRA). Cette méthode, que Google et OpenAI n'utilisent pas pour l'instant, permet un réglage fin empilable plutôt qu'un réentraînement coûteux. Selon Sernau, ce qui est intéressant, c'est que Vicuna-13B a été publié trois semaines seulement après la fuite de LLaMA-13B. L'ingénieur juge le délai "extraordinairement" court et ajoute que cela met en évidence la vitesse de l'innovation dans le monde open source. Il aurait observé la même chose en ce qui concerne les IA de génération d'images.

Sernau affirme que les racines open source de Stable Diffusion lui ont permis de devancer Dall-E d'OpenAI. « Le modèle ouvert a permis des intégrations de produits, des places de marché, des interfaces utilisateur et des innovations qui n'ont pas eu lieu pour Dall-E », note-t-il. Le mémo de Sernau semble vouloir servir de rappel à l'ordre pour la stratégie de Google en matière d'IA. Il affirme que la concurrence directe avec la communauté open source est une proposition perdante et que Google devrait s'orienter vers une offre open source, un peu comme sa stratégie derrière le navigateur Chrome et le système d'exploitation Android.

« Plus nous contrôlons étroitement nos modèles de langage, plus nous rendons les alternatives ouvertes attrayantes. Google devrait s'imposer en tant que leader de la communauté open source, en prenant les devants et en coopérant avec le plus grand nombre, plutôt qu'en l'ignorant », a-t-il écrit. L'argument central du mémo rédigé par l'ingénieur de Google a divisé la communauté technologique. Certains se sont réjouis de son analyse et d'autres non. « Il serait inattendu et glorieux que Google soit le premier des grandes entreprises technologiques à être totalement décimé par la concurrence technologique », a tweeté un observateur.

Les défis auxquels la communauté open source pourrait faire face dans la course à l'IA

Si certains pensent que Google et ses rivaux Meta et OpenAI pourraient perdre la course à l'IA, d'autres sont sceptiques. Le PDG de Stability AI, Emad Mostaque, a réagi : « bien que cet article corresponde en grande partie à notre thèse, je pense qu'il ne comprend pas bien ce que sont réellement les fossés. Il est [très] difficile de construire une entreprise avec l'innovation comme douve, l'exigence de base est trop élevée. Les données, la distribution, les bons produits sont des douves. Microsoft et OpenAI peuvent très bien prospérer en raison de leur partenariat, car l'écosystème qui se construit autour des plug-ins OpenAI est fantastique ».

Elad Gil, investisseur et conseiller en startups, a partagé des idées similaires, se souvenant de ses jours chez Google lorsque les réseaux sociaux prenaient le monde d'assaut. « Je me souviens toujours de l'époque où j'étais chez Google, au milieu des années 2000, et où les réseaux sociaux étaient en plein essor. J'étais à une réunion où de nombreuses personnes (aujourd'hui connues sous le nom d'"experts" sociaux) tapaient du poing sur la table en disant que les produits sociaux n'avaient pas un avantage concurrentiel durable et qu'ils ne seraient jamais durables. En fin de compte, ce point de vue s'est avéré erroné », a-t-il déclaré.

Raj Singh, de Mozilla, n'est pas non plus d'accord avec la thèse de l'ingénieur de Google. « Posséder la relation avec la plateforme de développement de l'IA, comme le fait OpenAI, c'est la douve. C'est la même douve que MS avait avec les développeurs Windows. C'est le même fossé qu'AWS a avec les développeurs de cloud », a-t-il déclaré. Google est sous les feux de la rampe depuis un certain temps en raison de cette pression et de la popularité de ChatGPT, qui est très difficile à gérer. Ainsi, pour Sernau, Google a perdu son avantage dans la course à l'IA. Il note que cela constitue une préoccupation majeure sur lequel les dirigeants doivent travailler.

« Nous n'avons pas de recette secrète. Notre meilleur espoir est d'apprendre et de collaborer avec ce que d'autres font en dehors de Google », a-t-il déclaré. Google n'a pas commenté l'analyse de Sernau, mais la firme de Mountain View a déclaré précédemment qu'elle en bonne position sur le marché de l'IA. Lors d'une récente conférence téléphonique sur les résultats, Pichai a déclaré : « nos investissements et nos percées dans le domaine de l'IA au cours de la dernière décennie nous ont mis en bonne position », soulignant les progrès réalisés dans le développement de modèles et la collaboration avec des développeurs et d'autres partenaires.

Le mémo de Sernau a déclenché un débat intense sur l'avantage concurrentiel de l'IA, en mettant en évidence les innovations rapides en matière de logiciels libres et les alternatives rentables par rapport aux modèles fermés de Google et d'OpenAI. En outre, l'essor de l'IA libre suscite des inquiétudes quant à la diffusion responsable de l'IA et à son utilisation potentiellement abusive à des fins criminelles, ce qui remet en question les engagements pris par les entreprises d'IA en matière de sécurité.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'analyse de l'ingénieur de Google ?
Pensez-vous que Google et OpenAI sont en train de perdre la course à l'IA ?
Selon vous, les modèles d'OpenAI et de Google seraient-ils plus performants s'ils étaient open source ?
La communauté open source est-elle en mesure de devancer les grandes entreprises d'IA dans la course à l'IA ?

Voir aussi

Le génie est sorti de la bouteille : des chercheurs de Stanford ont répliqué le chatbot d'IA ChatGPT pour moins de 600 dollars, mais l'ont rapidement mis hors ligne en raison de ses "hallucinations"

Qu'est-ce que Auto-GPT, le nouvel outil d'IA "à tout faire", et comment fonctionne-t-il ? Voici ce qu'il faut savoir sur ce chatbot d'IA basé sur le modèle GPT-4 d'OpenAI

Meta dévoile son propre modèle de langage appelé LLaMA, fonctionnant comme un chatbot d'IA ordinaire, et indique qu'il est plus puissant et moins gourmand en ressources que ses concurrents

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 09/06/2023 à 13:53
Pas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public

Je modifierais par :

Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises

pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics

en gros effondrement de notre modèle.

Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.

Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.

Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.
7  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 07/06/2023 à 9:40
Citation Envoyé par totozor Voir le message
Il y a quelques années il était évident pour certains que le travail à domicile était la solution à terme, les grands groupes informatiques en reviennent au fur et à mesure.
non, le full remote n'a jamais été l'avenir.
c'est le travail hybride qui était l'avenir et clairement ca prends, je trouve aucune boite en it qui impose du 100% en présentiel (et heureusement sinon ils trouverait personne), c'est 2-3j de télétravail/semaines.
capgemini (la plus grosse esn) c'est 4 jours de télétravail/semaines par exemple.



Citation Envoyé par totozor Voir le message
Remplacer les profs, les médecins par les IA serait créer la société décadente que beaucoup regrettent déjà. Je n'ai aucune considérations pour les profs pourtant certains m'ont quasiment sauvé la vie et je suis incapable d'apprendre avec un IA (avec leur état de maturité actuelle), et quand je vais voir mon médecin je ne vais pas juste récupérer une prescription, je vais aussi trouver l'avis d'un professionnel, pouvoir lui expliquer en quoi pratiquer un sport de contact alors que j'ai des problèmes de dos est une préoccupation et qu'il me fasse un retour sur les choses à favoriser/éviter. Ces consultations sont d'ailleurs assez caucasses parce qu'on envisage des vraies situaitons de jeu.
tu raisonnes en mode "l'état me le finance gratos ou hj'ai les moyens de me le payer"

dans les pays anglo-saxons, les populations s'appauvrisses avec l'inflation, ils a des grande coupe budgétaire à faire. éduquer ces enfants par chatgpt et se faire soigner par chatgpt c'est leurs seul solution pour survivre hélas.

dans les pays disons plus "socialiste" comme la France, les gens sont pauvres aussi mais peuvent encore avoir accès a ces services gratos. Mais la dette explose et quand faudra la rembourser, l'état va devoir bien tailler dans les dépenses, donc les flics ce seront des drones de combats autonomes, les profs remplacer par des bots et les docteurs (y'a déjà une pénurie) remplacer par chatgpt.
Faut bien payer la dette.

les pays comme la Roumanie, la France leurs volent leurs médecins, eux n'ont donc plus le choix c'est chatgpt ou crève.

La 5G ou les voitures électriques sont des fiascos industriels car les gens n'ont pas les moyens de se payer ces technos. Je me demande qui va acheter les batteries qu'ils vont produire dans le nord. La moyenne d'âge pour l'achat une voiture neuve en france c'est...57ans
donc la relance par l'industrie c'est juste une grosse blague.

et en 2027 ce sera la taxe carbone ne qui va venir (450€/ans)

donc les gens n'ont plus les moyens d'aller voir un médecin, de se payer un avocat ou d'aller a l'école, aujourd'hui beaucoup de francais peuvent juste acheter des pates le soir (le midi ils sautent le repas) pour se nourrir et acheter une tablette wiko pour lancer chatgpt pour s'instruire et se soigner.

C'est extrême ce que je dis mais lentement et surement on y va. Actuellement l'état est tellement dans la merde niveau finance qu'il en est a réfléchir a devenir copropriétaire de tous les bien immobilier de France pour déduire la dette. Donc de t'expropriée à terme.
Les entreprises doivent absolument alimenter la croissance pour les actionnaires, a n'importe quel prix, donc licenciements massifs obligatoire, même si la qualité est mauvaise.
8  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/06/2023 à 15:41
Citation Envoyé par Ryu2000 Voir le message
Consulter la documentation ou demander à ChatGPT c'est un peu la même chose au final.
Faux. ChatGPT, comme toutes les IA génératives est capable de te raconter un tissu de mensonges. Tu as même un article aujourd'hui sur l'exploitation de ces IA pour inciter les devs à intégrer des packages malveillants dans leurs projets...

Citation Envoyé par Ryu2000 Voir le message
Ils ne sont pas tous si doué que ça.
C'est fréquent qu'un patient soit mal diagnostiqué.
Au moins une IA aurait plus de données.
Les données, il faut les classer correctement. L'argument des données, c'est celui utilisé par Tesla pour dire que leurs voitures autonomes sont au top, et plus sûres qu'une voiture conventionnelle. Et pourtant, il suffit de chercher sur ce forum (avec le leak Tesla récent) pour voir que ce n'est pas vrai et qu'ils cachent les problèmes sous le tapis...

Citation Envoyé par Ryu2000 Voir le message
Bon là d'un côté c'est inquiétant.
Parce que si les gros vendeurs d'opiacé arrivent à corrompre les IA comme ils ont corrompus les médecins, peut-être que les IA vont se mettre à prescrire des médicaments beaucoup trop dangereux, comme avec l'oxycodone et le fentanyl.
Pas besoin. Une IA générative = une grosse société derrière. Ils feront simplement des partenariats financiers et leur IA dira ce qu'il faudra. Pour le prochain scandale du Mediator, ce sera plus simple de corrompre quelqu'un de chez OpenAI (ou autre), que tout un tas de médecins.
8  2 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 08/06/2023 à 20:21
Je n'ai aucune idée des références de ce monsieur. Mais, avec toutes les prédictions sur les voitures autonomes, les cryptos, le métavers, les objets connectés, etc... , on voit qu'on est toujours ratrappé par la complexité de la réalité.
6  0