Un ingénieur sénior de Google affirme que l'entreprise est en train de perdre la course à l'IA au profit de la communauté open source
Et ajoute qu'OpenAI est également dans la même situation
Le 2023-05-08 17:39:49, par Bill Fassinou, Chroniqueur Actualités
Un document prétendument rédigé par un ingénieur sénior de Google affirme que Google perd progressivement son avance dans le domaine de l'IA au profit de la communauté open source. Le mémo explique que Google a concentré toute son attention sur sa rivalité avec OpenAI et a oublié de surveiller de près ce qui se passait dans la communauté des logiciels libres, mais qu'en fin de compte, ni Google ni OpenAI ne l'emportera. Il indique que, pendant que Google et OpenAI se querellaient, l'open source a pris les devants dans cette course. Le document a été divulgué jeudi dernier et suggère que les Big Tech sont loin d'avoir une mainmise sur le marché de l'IA.
Google serait en train de perdre la course à l'IA au profit de la communauté open source
Ce serait actuellement la confusion au sein des équipes spécialisées dans l'IA chez Google. Après que le PDG Sundar Pichai a lancé une alerte rouge en décembre afin de développer rapidement un concurrent à ChatGPT pour éviter que le chatbot d'IA d'OpenAI concentre toute l'attention du public, la réponse de Google - Bard - n'a pas répondu aux attentes de Wall Street et n'a pas suscité un grand enthousiasme comme son rival. Mais encore, certains ingénieurs affirment désormais que les produits d'IA de l'entreprise manquent de plus en plus d'une "sauce secrète" qui ferait la différence et conforterait sa position de leader dans la course à l'IA.
Sur la base de ce constat, un ingénieur sénior de Google a écrit dans un document ayant récemment fait l'objet de fuite que la firme de Redmond n'est tout simplement pas en mesure de gagner la course mondiale à l'IA. Le document a été publié anonymement par le soc SemiAnalysis, mais Bloomberg a ensuite identifié Luke Sernau, ingénieur chez Google, comme étant l'auteur du mémo. Le profil LinkedIn de Sernau montre qu'il est diplômé en mathématiques et qu'il travaille chez Google en tant qu'ingénieur principal depuis mars 2019. Il a auparavant passé quatre ans chez Meta sur les insights automatisés et l'infrastructure d'apprentissage automatique.
Selon l'ingénieur, l'IA open source pourrait finir par surpasser les modèles de langages propriétaires de Google, Meta et OpenAI. Le mémo met en cause la stratégie de Google pour freiner la montée en puissance du laboratoire d'IA OpenAI. Selon l'analyse de l'ingénieur, cette rivalité a aveuglé Google et a empêché l'entreprise de voir le travail qui s'abattait du côté de la communauté open source. Cette dernière aurait progressé rapidement, formant des modèles d'IA qui s'avèrent parfois plus intéressants que les modèles propriétaires de Google OpenAI. Le document suggère que Google et OpenAI pourraient payer très cher cette ignorance à l'avenir.
« Nous avons beaucoup regardé par-dessus nos épaules à OpenAI. Qui franchira la prochaine étape ? Quel sera le prochain mouvement ? Mais la vérité désagréable est que nous ne sommes pas en position de gagner cette course aux armements et qu'OpenAI non plus. Pendant que nous nous chamaillions, une troisième faction a tranquillement mangé notre déjeuner. Je parle, bien sûr, de l'open source », peut-on lire dans le document rédigé par l'ingénieur Sernau. Selon ce dernier, le géant de la recherche en ligne n'en fait pas assez pour maintenir son avance, ce qui lui fait prendre un retard considérable par rapport à la communauté des logiciels libres.
Le mémo indique que la poursuite du développement de modèles d'IA propriétaires pourrait rendre Google et OpenAI inutiles, car les modèles open source progressent rapidement. Il cite des exemples de progrès récents, tels que des modèles d'IA fonctionnant sur des téléphones, des modèles multimodaux s'entraînant en moins d'une heure et des réglages personnalisés de l'IA sur des ordinateurs portables. Il s'agirait des premiers signes de l'évolution rapide de l'aspect open source de l'IA générative. Ce paradigme de développement rapide et abordable est à l'opposé du système fermé dans lequel OpenAI et Google ont développé leurs modèles de langage.
La construction d'un modèle d'IA open source coûterait moins cher qu'un modèle propriétaire
OpenAI a dépensé 540 millions de dollars en 2022 pour développer et lancer ChatGPT. À tire de comparaison, des chercheurs de Stanford ont mis au point leur propre modèle d'IA, Alpaca, qui est semblable à ChatGPT avec seulement 600 dollars. L'expérience montre que les nouveaux systèmes d'IA avancés peuvent être facilement reproduits, et que cela ne nécessite même pas des coûts énormes. Bien que les chercheurs aient des difficultés à affiner leurs modèles pour les rendre moins toxiques, ils ont trouvé le moyen de les construire à moindres coûts, ce qui est un avantage majeur par rapport aux centaines de millions que coûtent les modèles propriétaires.
Selon l'analyse de Sernau, la genèse de cette innovation open source remonte à la fuite du grand modèle de de langage LLaMA de Meta. La version de LLaMA divulgué était relativement peu sophistiquée et manquait de fonctionnalités clés, mais un mois après sa publication, de nombreuses améliorations avaient été apportées. L'effort collectif d'"une planète entière de travail gratuit" consacré à l'innovation sur LLaMA a permis des progrès incroyables. Par exemple, le modèle Alpaca des chercheurs de Stanford a été conçu sur la base de la plateforme open source LLaMA de Meta. D'autres modèles open source, comme AutoGPT, sont également disponible.
Un autre modèle appelé Vicuna-13B a été entraîné pour seulement 300 dollars en utilisant un mécanisme de réglage fin très peu coûteux appelé "Low Rank Adaptation" (LoRA). Cette méthode, que Google et OpenAI n'utilisent pas pour l'instant, permet un réglage fin empilable plutôt qu'un réentraînement coûteux. Selon Sernau, ce qui est intéressant, c'est que Vicuna-13B a été publié trois semaines seulement après la fuite de LLaMA-13B. L'ingénieur juge le délai "extraordinairement" court et ajoute que cela met en évidence la vitesse de l'innovation dans le monde open source. Il aurait observé la même chose en ce qui concerne les IA de génération d'images.
Sernau affirme que les racines open source de Stable Diffusion lui ont permis de devancer Dall-E d'OpenAI. « Le modèle ouvert a permis des intégrations de produits, des places de marché, des interfaces utilisateur et des innovations qui n'ont pas eu lieu pour Dall-E », note-t-il. Le mémo de Sernau semble vouloir servir de rappel à l'ordre pour la stratégie de Google en matière d'IA. Il affirme que la concurrence directe avec la communauté open source est une proposition perdante et que Google devrait s'orienter vers une offre open source, un peu comme sa stratégie derrière le navigateur Chrome et le système d'exploitation Android.
« Plus nous contrôlons étroitement nos modèles de langage, plus nous rendons les alternatives ouvertes attrayantes. Google devrait s'imposer en tant que leader de la communauté open source, en prenant les devants et en coopérant avec le plus grand nombre, plutôt qu'en l'ignorant », a-t-il écrit. L'argument central du mémo rédigé par l'ingénieur de Google a divisé la communauté technologique. Certains se sont réjouis de son analyse et d'autres non. « Il serait inattendu et glorieux que Google soit le premier des grandes entreprises technologiques à être totalement décimé par la concurrence technologique », a tweeté un observateur.
Les défis auxquels la communauté open source pourrait faire face dans la course à l'IA
Si certains pensent que Google et ses rivaux Meta et OpenAI pourraient perdre la course à l'IA, d'autres sont sceptiques. Le PDG de Stability AI, Emad Mostaque, a réagi : « bien que cet article corresponde en grande partie à notre thèse, je pense qu'il ne comprend pas bien ce que sont réellement les fossés. Il est [très] difficile de construire une entreprise avec l'innovation comme douve, l'exigence de base est trop élevée. Les données, la distribution, les bons produits sont des douves. Microsoft et OpenAI peuvent très bien prospérer en raison de leur partenariat, car l'écosystème qui se construit autour des plug-ins OpenAI est fantastique ».
Raj Singh, de Mozilla, n'est pas non plus d'accord avec la thèse de l'ingénieur de Google. « Posséder la relation avec la plateforme de développement de l'IA, comme le fait OpenAI, c'est la douve. C'est la même douve que MS avait avec les développeurs Windows. C'est le même fossé qu'AWS a avec les développeurs de cloud », a-t-il déclaré. Google est sous les feux de la rampe depuis un certain temps en raison de cette pression et de la popularité de ChatGPT, qui est très difficile à gérer. Ainsi, pour Sernau, Google a perdu son avantage dans la course à l'IA. Il note que cela constitue une préoccupation majeure sur lequel les dirigeants doivent travailler.
« Nous n'avons pas de recette secrète. Notre meilleur espoir est d'apprendre et de collaborer avec ce que d'autres font en dehors de Google », a-t-il déclaré. Google n'a pas commenté l'analyse de Sernau, mais la firme de Mountain View a déclaré précédemment qu'elle en bonne position sur le marché de l'IA. Lors d'une récente conférence téléphonique sur les résultats, Pichai a déclaré : « nos investissements et nos percées dans le domaine de l'IA au cours de la dernière décennie nous ont mis en bonne position », soulignant les progrès réalisés dans le développement de modèles et la collaboration avec des développeurs et d'autres partenaires.
Le mémo de Sernau a déclenché un débat intense sur l'avantage concurrentiel de l'IA, en mettant en évidence les innovations rapides en matière de logiciels libres et les alternatives rentables par rapport aux modèles fermés de Google et d'OpenAI. En outre, l'essor de l'IA libre suscite des inquiétudes quant à la diffusion responsable de l'IA et à son utilisation potentiellement abusive à des fins criminelles, ce qui remet en question les engagements pris par les entreprises d'IA en matière de sécurité.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'analyse de l'ingénieur de Google ?
Pensez-vous que Google et OpenAI sont en train de perdre la course à l'IA ?
Selon vous, les modèles d'OpenAI et de Google seraient-ils plus performants s'ils étaient open source ?
La communauté open source est-elle en mesure de devancer les grandes entreprises d'IA dans la course à l'IA ?
Voir aussi
Le génie est sorti de la bouteille : des chercheurs de Stanford ont répliqué le chatbot d'IA ChatGPT pour moins de 600 dollars, mais l'ont rapidement mis hors ligne en raison de ses "hallucinations"
Qu'est-ce que Auto-GPT, le nouvel outil d'IA "à tout faire", et comment fonctionne-t-il ? Voici ce qu'il faut savoir sur ce chatbot d'IA basé sur le modèle GPT-4 d'OpenAI
Meta dévoile son propre modèle de langage appelé LLaMA, fonctionnant comme un chatbot d'IA ordinaire, et indique qu'il est plus puissant et moins gourmand en ressources que ses concurrents
Google serait en train de perdre la course à l'IA au profit de la communauté open source
Ce serait actuellement la confusion au sein des équipes spécialisées dans l'IA chez Google. Après que le PDG Sundar Pichai a lancé une alerte rouge en décembre afin de développer rapidement un concurrent à ChatGPT pour éviter que le chatbot d'IA d'OpenAI concentre toute l'attention du public, la réponse de Google - Bard - n'a pas répondu aux attentes de Wall Street et n'a pas suscité un grand enthousiasme comme son rival. Mais encore, certains ingénieurs affirment désormais que les produits d'IA de l'entreprise manquent de plus en plus d'une "sauce secrète" qui ferait la différence et conforterait sa position de leader dans la course à l'IA.
Sur la base de ce constat, un ingénieur sénior de Google a écrit dans un document ayant récemment fait l'objet de fuite que la firme de Redmond n'est tout simplement pas en mesure de gagner la course mondiale à l'IA. Le document a été publié anonymement par le soc SemiAnalysis, mais Bloomberg a ensuite identifié Luke Sernau, ingénieur chez Google, comme étant l'auteur du mémo. Le profil LinkedIn de Sernau montre qu'il est diplômé en mathématiques et qu'il travaille chez Google en tant qu'ingénieur principal depuis mars 2019. Il a auparavant passé quatre ans chez Meta sur les insights automatisés et l'infrastructure d'apprentissage automatique.
Leaked Google document: “We Have No Moat, And Neither Does OpenAI”
— Simon Willison (@simonw) May 4, 2023
The most interesting thing I've read recently about LLMs - a purportedly leaked document from a researcher at Google talking about the huge strategic impact open source models are havinghttps://t.co/q2lsjTHKGS
Selon l'ingénieur, l'IA open source pourrait finir par surpasser les modèles de langages propriétaires de Google, Meta et OpenAI. Le mémo met en cause la stratégie de Google pour freiner la montée en puissance du laboratoire d'IA OpenAI. Selon l'analyse de l'ingénieur, cette rivalité a aveuglé Google et a empêché l'entreprise de voir le travail qui s'abattait du côté de la communauté open source. Cette dernière aurait progressé rapidement, formant des modèles d'IA qui s'avèrent parfois plus intéressants que les modèles propriétaires de Google OpenAI. Le document suggère que Google et OpenAI pourraient payer très cher cette ignorance à l'avenir.
« Nous avons beaucoup regardé par-dessus nos épaules à OpenAI. Qui franchira la prochaine étape ? Quel sera le prochain mouvement ? Mais la vérité désagréable est que nous ne sommes pas en position de gagner cette course aux armements et qu'OpenAI non plus. Pendant que nous nous chamaillions, une troisième faction a tranquillement mangé notre déjeuner. Je parle, bien sûr, de l'open source », peut-on lire dans le document rédigé par l'ingénieur Sernau. Selon ce dernier, le géant de la recherche en ligne n'en fait pas assez pour maintenir son avance, ce qui lui fait prendre un retard considérable par rapport à la communauté des logiciels libres.
Le mémo indique que la poursuite du développement de modèles d'IA propriétaires pourrait rendre Google et OpenAI inutiles, car les modèles open source progressent rapidement. Il cite des exemples de progrès récents, tels que des modèles d'IA fonctionnant sur des téléphones, des modèles multimodaux s'entraînant en moins d'une heure et des réglages personnalisés de l'IA sur des ordinateurs portables. Il s'agirait des premiers signes de l'évolution rapide de l'aspect open source de l'IA générative. Ce paradigme de développement rapide et abordable est à l'opposé du système fermé dans lequel OpenAI et Google ont développé leurs modèles de langage.
La construction d'un modèle d'IA open source coûterait moins cher qu'un modèle propriétaire
OpenAI a dépensé 540 millions de dollars en 2022 pour développer et lancer ChatGPT. À tire de comparaison, des chercheurs de Stanford ont mis au point leur propre modèle d'IA, Alpaca, qui est semblable à ChatGPT avec seulement 600 dollars. L'expérience montre que les nouveaux systèmes d'IA avancés peuvent être facilement reproduits, et que cela ne nécessite même pas des coûts énormes. Bien que les chercheurs aient des difficultés à affiner leurs modèles pour les rendre moins toxiques, ils ont trouvé le moyen de les construire à moindres coûts, ce qui est un avantage majeur par rapport aux centaines de millions que coûtent les modèles propriétaires.
Selon l'analyse de Sernau, la genèse de cette innovation open source remonte à la fuite du grand modèle de de langage LLaMA de Meta. La version de LLaMA divulgué était relativement peu sophistiquée et manquait de fonctionnalités clés, mais un mois après sa publication, de nombreuses améliorations avaient été apportées. L'effort collectif d'"une planète entière de travail gratuit" consacré à l'innovation sur LLaMA a permis des progrès incroyables. Par exemple, le modèle Alpaca des chercheurs de Stanford a été conçu sur la base de la plateforme open source LLaMA de Meta. D'autres modèles open source, comme AutoGPT, sont également disponible.
Un autre modèle appelé Vicuna-13B a été entraîné pour seulement 300 dollars en utilisant un mécanisme de réglage fin très peu coûteux appelé "Low Rank Adaptation" (LoRA). Cette méthode, que Google et OpenAI n'utilisent pas pour l'instant, permet un réglage fin empilable plutôt qu'un réentraînement coûteux. Selon Sernau, ce qui est intéressant, c'est que Vicuna-13B a été publié trois semaines seulement après la fuite de LLaMA-13B. L'ingénieur juge le délai "extraordinairement" court et ajoute que cela met en évidence la vitesse de l'innovation dans le monde open source. Il aurait observé la même chose en ce qui concerne les IA de génération d'images.
Sernau affirme que les racines open source de Stable Diffusion lui ont permis de devancer Dall-E d'OpenAI. « Le modèle ouvert a permis des intégrations de produits, des places de marché, des interfaces utilisateur et des innovations qui n'ont pas eu lieu pour Dall-E », note-t-il. Le mémo de Sernau semble vouloir servir de rappel à l'ordre pour la stratégie de Google en matière d'IA. Il affirme que la concurrence directe avec la communauté open source est une proposition perdante et que Google devrait s'orienter vers une offre open source, un peu comme sa stratégie derrière le navigateur Chrome et le système d'exploitation Android.
« Plus nous contrôlons étroitement nos modèles de langage, plus nous rendons les alternatives ouvertes attrayantes. Google devrait s'imposer en tant que leader de la communauté open source, en prenant les devants et en coopérant avec le plus grand nombre, plutôt qu'en l'ignorant », a-t-il écrit. L'argument central du mémo rédigé par l'ingénieur de Google a divisé la communauté technologique. Certains se sont réjouis de son analyse et d'autres non. « Il serait inattendu et glorieux que Google soit le premier des grandes entreprises technologiques à être totalement décimé par la concurrence technologique », a tweeté un observateur.
Les défis auxquels la communauté open source pourrait faire face dans la course à l'IA
Si certains pensent que Google et ses rivaux Meta et OpenAI pourraient perdre la course à l'IA, d'autres sont sceptiques. Le PDG de Stability AI, Emad Mostaque, a réagi : « bien que cet article corresponde en grande partie à notre thèse, je pense qu'il ne comprend pas bien ce que sont réellement les fossés. Il est [très] difficile de construire une entreprise avec l'innovation comme douve, l'exigence de base est trop élevée. Les données, la distribution, les bons produits sont des douves. Microsoft et OpenAI peuvent très bien prospérer en raison de leur partenariat, car l'écosystème qui se construit autour des plug-ins OpenAI est fantastique ».
Elad Gil, investisseur et conseiller en startups, a partagé des idées similaires, se souvenant de ses jours chez Google lorsque les réseaux sociaux prenaient le monde d'assaut. « Je me souviens toujours de l'époque où j'étais chez Google, au milieu des années 2000, et où les réseaux sociaux étaient en plein essor. J'étais à une réunion où de nombreuses personnes (aujourd'hui connues sous le nom d'"experts" sociaux) tapaient du poing sur la table en disant que les produits sociaux n'avaient pas un avantage concurrentiel durable et qu'ils ne seraient jamais durables. En fin de compte, ce point de vue s'est avéré erroné », a-t-il déclaré.Google “We Have No Moat, And Neither Does OpenAI”
— hardmaru (@hardmaru) May 4, 2023
Leaked Internal Google Document Claims Open Source AI Will Outcompete Google & OpenAI
The leaked article is a good analysis of the current landscape of open-source models from a researcher within Google.https://t.co/V0CiaiByNx pic.twitter.com/GeIn5AFUbq
Raj Singh, de Mozilla, n'est pas non plus d'accord avec la thèse de l'ingénieur de Google. « Posséder la relation avec la plateforme de développement de l'IA, comme le fait OpenAI, c'est la douve. C'est la même douve que MS avait avec les développeurs Windows. C'est le même fossé qu'AWS a avec les développeurs de cloud », a-t-il déclaré. Google est sous les feux de la rampe depuis un certain temps en raison de cette pression et de la popularité de ChatGPT, qui est très difficile à gérer. Ainsi, pour Sernau, Google a perdu son avantage dans la course à l'IA. Il note que cela constitue une préoccupation majeure sur lequel les dirigeants doivent travailler.
« Nous n'avons pas de recette secrète. Notre meilleur espoir est d'apprendre et de collaborer avec ce que d'autres font en dehors de Google », a-t-il déclaré. Google n'a pas commenté l'analyse de Sernau, mais la firme de Mountain View a déclaré précédemment qu'elle en bonne position sur le marché de l'IA. Lors d'une récente conférence téléphonique sur les résultats, Pichai a déclaré : « nos investissements et nos percées dans le domaine de l'IA au cours de la dernière décennie nous ont mis en bonne position », soulignant les progrès réalisés dans le développement de modèles et la collaboration avec des développeurs et d'autres partenaires.
Le mémo de Sernau a déclenché un débat intense sur l'avantage concurrentiel de l'IA, en mettant en évidence les innovations rapides en matière de logiciels libres et les alternatives rentables par rapport aux modèles fermés de Google et d'OpenAI. En outre, l'essor de l'IA libre suscite des inquiétudes quant à la diffusion responsable de l'IA et à son utilisation potentiellement abusive à des fins criminelles, ce qui remet en question les engagements pris par les entreprises d'IA en matière de sécurité.
Et vous ?
Voir aussi
-
schlebeMembre actifLa moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.
Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.
Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.
Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.le 08/06/2023 à 19:26 -
Jon ShannowMembre extrêmement actifHeu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...le 09/06/2023 à 14:59
-
totozorMembre expertC'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)
Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient
Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.le 09/06/2023 à 15:48 -
e-ricMembre expertSalut à tous
Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.
tchüssle 16/06/2023 à 9:42 -
petitoursMembre chevronnéUne fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.le 31/01/2024 à 8:42 -
chrtopheResponsable SystèmesPas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public
Je modifierais par :
Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises
pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics
en gros effondrement de notre modèle.
Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.
Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.
Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.le 09/06/2023 à 13:53 -
xavier-PierreMembre éclairéSelon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecinele 21/07/2023 à 8:10
-
calvaireExpert confirménon, le full remote n'a jamais été l'avenir.
c'est le travail hybride qui était l'avenir et clairement ca prends, je trouve aucune boite en it qui impose du 100% en présentiel (et heureusement sinon ils trouverait personne), c'est 2-3j de télétravail/semaines.
capgemini (la plus grosse esn) c'est 4 jours de télétravail/semaines par exemple.
tu raisonnes en mode "l'état me le finance gratos ou hj'ai les moyens de me le payer"
dans les pays anglo-saxons, les populations s'appauvrisses avec l'inflation, ils a des grande coupe budgétaire à faire. éduquer ces enfants par chatgpt et se faire soigner par chatgpt c'est leurs seul solution pour survivre hélas.
dans les pays disons plus "socialiste" comme la France, les gens sont pauvres aussi mais peuvent encore avoir accès a ces services gratos. Mais la dette explose et quand faudra la rembourser, l'état va devoir bien tailler dans les dépenses, donc les flics ce seront des drones de combats autonomes, les profs remplacer par des bots et les docteurs (y'a déjà une pénurie) remplacer par chatgpt.
Faut bien payer la dette.
les pays comme la Roumanie, la France leurs volent leurs médecins, eux n'ont donc plus le choix c'est chatgpt ou crève.
La 5G ou les voitures électriques sont des fiascos industriels car les gens n'ont pas les moyens de se payer ces technos. Je me demande qui va acheter les batteries qu'ils vont produire dans le nord. La moyenne d'âge pour l'achat une voiture neuve en france c'est...57ans
donc la relance par l'industrie c'est juste une grosse blague.
et en 2027 ce sera la taxe carbone ne qui va venir (450€/ans)
donc les gens n'ont plus les moyens d'aller voir un médecin, de se payer un avocat ou d'aller a l'école, aujourd'hui beaucoup de francais peuvent juste acheter des pates le soir (le midi ils sautent le repas) pour se nourrir et acheter une tablette wiko pour lancer chatgpt pour s'instruire et se soigner.
C'est extrême ce que je dis mais lentement et surement on y va. Actuellement l'état est tellement dans la merde niveau finance qu'il en est a réfléchir a devenir copropriétaire de tous les bien immobilier de France pour déduire la dette. Donc de t'expropriée à terme.
Les entreprises doivent absolument alimenter la croissance pour les actionnaires, a n'importe quel prix, donc licenciements massifs obligatoire, même si la qualité est mauvaise.le 07/06/2023 à 9:40 -
kain_tnExpert éminentFaux. ChatGPT, comme toutes les IA génératives est capable de te raconter un tissu de mensonges. Tu as même un article aujourd'hui sur l'exploitation de ces IA pour inciter les devs à intégrer des packages malveillants dans leurs projets...
Les données, il faut les classer correctement. L'argument des données, c'est celui utilisé par Tesla pour dire que leurs voitures autonomes sont au top, et plus sûres qu'une voiture conventionnelle. Et pourtant, il suffit de chercher sur ce forum (avec le leak Tesla récent) pour voir que ce n'est pas vrai et qu'ils cachent les problèmes sous le tapis...
Pas besoin. Une IA générative = une grosse société derrière. Ils feront simplement des partenariats financiers et leur IA dira ce qu'il faudra. Pour le prochain scandale du Mediator, ce sera plus simple de corrompre quelqu'un de chez OpenAI (ou autre), que tout un tas de médecins.le 08/06/2023 à 15:41 -
PomFritzMembre confirméJe n'ai aucune idée des références de ce monsieur. Mais, avec toutes les prédictions sur les voitures autonomes, les cryptos, le métavers, les objets connectés, etc... , on voit qu'on est toujours ratrappé par la complexité de la réalité.le 08/06/2023 à 20:21