IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Goldman Sachs : l'IA ne pourra pas croître éternellement et un ralentissement pourrait coûter 20% au S&P 500
La banque alerte sur l'excès d'optimisme autour de l'IA, évoquant une désillusion financière massive

Le , par Stéphane le calme

30PARTAGES

13  0 
L’IA a porté Wall Street vers des sommets inédits, transformant Nvidia et les géants de la tech en locomotives boursières. Mais selon Goldman Sachs, cette course folle n’est pas éternelle. La banque anticipe un ralentissement inévitable de la productivité liée à l’IA, susceptible d’entraîner une correction brutale des marchés. Le S&P 500, dépendant de quelques valeurs phares, pourrait alors perdre jusqu’à 20 %. Un avertissement qui rappelle la fragilité des cycles d’innovation et l’importance de distinguer entre promesse technologique et réalité économique.

Depuis le lancement de ChatGPT il y a plus de deux ans, l'intelligence artificielle générative est sur toutes les lèvres. Des géants de la tech aux start-up les plus audacieuses, tout le monde s'est mis à rêver de cette nouvelle révolution. Les chiffres donnent le vertige : des milliards de dollars investis, des valorisations qui s'envolent et un marché boursier enivré par les promesses d'un futur radieux. Les promesses sont immenses : réinventer la productivité, automatiser la créativité, transformer la manière dont nous travaillons. Mais derrière l’emballement médiatique et financier, des signaux inquiétants s’accumulent.

Aussi, des voix de plus en plus nombreuses murmurent la même inquiétude : sommes-nous en train de vivre la formation d'une nouvelle bulle, prête à éclater ? Plusieurs analystes estiment que nous vivons actuellement une bulle spéculative comparable à celle des dot-com au début des années 2000.

Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.

Le mirage de la croissance infinie

L’intelligence artificielle est devenue le carburant le plus puissant de Wall Street. En l’espace de deux ans, elle a dopé les valorisations de Microsoft, Meta, Alphabet et surtout Nvidia, transformée en véritable totem boursier. Chaque trimestre, ces entreprises annoncent des résultats astronomiques, nourris par une demande insatiable en puissance de calcul et en solutions logicielles. Pour beaucoup d’investisseurs, la trajectoire semble tracée : une croissance sans frein, une révolution économique comparable à l’électricité ou à l’informatique personnelle.

Mais derrière cet optimisme quasi dogmatique, Goldman Sachs apporte une note de réalisme. Selon la banque, la dynamique actuelle repose sur une illusion de continuité. La productivité générée par l’IA (c’est-à-dire sa capacité à accroître l’efficacité des entreprises et à stimuler les profits) ne pourra pas rester éternellement exponentielle. Un ralentissement est « inévitable ». Et s’il intervient plus tôt que prévu, l’effet de correction pourrait être violent : jusqu’à 20 % de chute sur le S&P 500.

Pourquoi Goldman Sachs craint une secousse

L’argument central est lié à la manière dont les marchés fonctionnent. Les investisseurs ne paient pas seulement pour des bénéfices actuels mais pour des bénéfices futurs anticipés. Or, dans le cas de l’IA, ces anticipations ont atteint des niveaux vertigineux. Les multiples de valorisation appliqués aux entreprises de la tech reposent sur l’idée que les gains de productivité de l’IA vont continuer à se diffuser massivement, dans tous les secteurs de l’économie.

Si la diffusion ralentit – par exemple parce que certaines industries tardent à adopter ces technologies, ou parce que les coûts d’implémentation restent prohibitifs – la promesse de rentabilité pourrait se révéler en partie illusoire. Pour Goldman Sachs, ce scénario ne relève pas de la science-fiction : c’est une trajectoire classique d’innovation, où après une phase d’explosion vient une phase de consolidation, parfois brutale.


Des précédents historiques inquiétants

La comparaison avec la bulle Internet s’impose presque naturellement. À la fin des années 1990, les investisseurs misaient sur la révolution numérique sans toujours distinguer les modèles viables des mirages. Lorsque la réalité économique a rattrapé l’euphorie, le Nasdaq s’est effondré de près de 80 % en deux ans. Certains analystes rappellent aussi l’épisode des énergies renouvelables, où l’enthousiasme pour une transition énergétique rapide a propulsé certaines valeurs vers des sommets… avant que la rentabilité réelle ne déçoive. Dans les deux cas, le schéma était identique : un emballement spéculatif suivi d’un retour à la réalité.

Au tournant des années 2000, la bulle Internet avait vu les valorisations de jeunes pousses s’envoler à des niveaux absurdes. Beaucoup de ces sociétés ont ensuite disparu. Aujourd’hui, on retrouve les mêmes ingrédients avec l’IA :
  • Des investissements colossaux (plus de 500 milliards de dollars injectés en deux ans par les GAFAM).
  • Des revenus modestes en retour (35 milliards estimés en plus, soit un écart énorme).
  • Une frénésie médiatique où chaque entreprise se doit d’annoncer son « plan IA » pour rester crédible.

Les entreprises cotées en bourse se sont empressées d'annoncer des investissements dans l'IA ou de revendiquer des capacités d'IA pour leurs produits dans l'espoir de faire grimper le cours de leurs actions, tout comme la génération précédente d'entreprises s'était présentée comme des « dot-coms » dans les années 1990 afin de paraître plus attrayantes aux yeux des investisseurs.

Nvidia, le fabricant d'une puce haute performance alimentant la recherche en IA, joue presque le même rôle que celui joué par Intel Corp., un autre fabricant de puces, dans les années 1990 en tant que leader boursier, contribuant à soutenir le marché haussier des actions.

« Cela semble logique pour une bulle », a déclaré Marko Kolanovic, ancien directeur de recherche chez JP Morgan.

Le MIT a constaté que malgré des investissements massifs dans les logiciels d'IA, la moitié des projets se sont soldés par un échec. Il a indiqué que 80 % des entreprises avaient exploré la technologie de l'IA, mais que seulement 40 % l'avaient déployée. Il ajoute que les « systèmes de niveau entreprise » ont été « discrètement rejetés » par les grandes entreprises et que seulement « 20 % ont atteint le stade pilote et 5 % seulement ont atteint le stade de la production ».

La grande question est de savoir si l’IA connaîtra la même trajectoire, ou si elle saura éviter ce piège grâce à une adoption réellement transversale et durable.

La fragilité d’un marché concentré

Un autre facteur amplificateur est la concentration du S&P 500. Jamais dans l’histoire moderne des marchés américains un si petit nombre d’entreprises n’a autant pesé dans la capitalisation globale. Les « Magnificent Seven » – Microsoft, Apple, Nvidia, Alphabet, Meta, Tesla et Amazon – représentent à elles seules plus d’un quart de l’indice.

Dans ce contexte, tout ralentissement de la croissance liée à l’IA toucherait en priorité ces mastodontes. Et leur poids est tel que le reste du marché ne pourrait pas compenser. L’effet domino serait immédiat : un ajustement sur Nvidia, par exemple, pourrait suffire à déclencher une vague de ventes sur l’ensemble des valeurs technologiques, entraînant avec elles l’indice global.

Les incertitudes qui pèsent sur l’IA

Plusieurs éléments nourrissent le scepticisme de Goldman Sachs. D’abord, les contraintes matérielles : la fabrication des semi-conducteurs, concentrée entre quelques acteurs comme TSMC, reste vulnérable à des goulets d’étranglement. Ensuite, la consommation énergétique colossale des centres de données pose la question de la soutenabilité à long terme. Enfin, la régulation pourrait venir freiner la course à l’IA, avec des normes plus strictes sur la protection des données, la transparence des modèles et l’impact environnemental.

Au-delà de ces obstacles, il y a la question fondamentale de la diffusion des gains. Si les premiers adoptants – banques, médias, santé, logistique – profitent déjà de gains mesurables, beaucoup d’autres secteurs restent à la traîne. Les PME, notamment, peinent à absorber le coût et la complexité des solutions IA. Sans une adoption généralisée, les effets macroéconomiques resteront limités.

L'euphorie de l'IA face à la réalité économique : personne ne paie la facture

Le signal d’alerte le plus tangible se lit dans les états financiers. Amazon et Oracle ont affiché deux trimestres consécutifs de flux de trésorerie libre négatif. Alphabet et Meta, malgré des revenus publicitaires toujours colossaux, voient eux aussi cette métrique essentielle s’éroder. Cela ne veut pas dire que ces entreprises sont déficitaires au sens classique, mais que leur capacité à générer du cash disponible pour financer de nouveaux investissements se réduit fortement.

En cause : les dépenses astronomiques pour soutenir l’IA. Construction de data centers énergivores, achat massif de GPU NVIDIA, salaires à sept chiffres pour les chercheurs en IA, acquisitions de...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/09/2025 à 12:01
Citation Envoyé par JPBruneau Voir le message
Je n'ai pas le courage de répondre à tout cela, tu n'a pas de vision claire de ce qu'est l' IA sans internet, un Data-Center largement suffisant pour une mairie couterait environ 10.000 Euro . Alors chaque probléme aprés reçu en 1 seconde ,L'auto apprentissage c'est nous lui dison nous sommes OK avec ce que tu propose et le validon (comme je te l'écrit !) alors tu voi un avantage de plus de cette organisation !

Bonne fin de semaine.
Belle théorie mais "l'IA sans internet" n'est pas l'objectif des promoteurs de l'IA!!!

Les GAFAM et autres qui investissent des milliards dans l'IA veulent une IA connectée, seule solution pour récupérer et faire fructifier les sommes investies en faisant du vol de données à l'échelle planétaire sous couvert de la proverbiale excuse "... On récupère vos données pour améliorer les capacités de notre IA... Des capacités améliorées dont vous serez le premier bénéficiaire"

Est-ce que vous croyez vraiment qu'il y a sur cette terre des mecs qui dépensent des milliards dans le seul but de faire profiter gratuitement de l'IA la mairie de la sympathique bourgade française de NulPart-Le-Chateau-sur-Seine???
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/09/2025 à 12:16
Citation Envoyé par OuftiBoy Voir le message
Du tout, déjà il faudrait que la personne qui reçoit la réponse sache dire si la réponse est valable ou pas ? Si seul un spécialiste peut jugé la chose, alors il faut un "spécialiste" pour "valider" les réponses. C'est peut-être applicable dans certaines organisations, mais pas dans toute. Puis se demander si la réponde est mauvaise (ou pas) grâce au prompt au grâce à ce que l'IA a appris.

Au passage, si une IA qui a appris quelque chose de "correct", ne sera pas forcément toujours correct dans qlqs mois ou qlq années. C'est comme ça la science, on progresse et d'anciennes théories sont réfutées et de nouvelles apparaissent. Et comment dire à une IA "d'oublier" une ancienne théorie ? Plus le temps passe, plus je pense que l'IA est fausse-bonne idée. Et que la bulle finira par éclater (c'est le destin d'une bulle).
1. A terme, il n'y aura plus personne pour valider que l'IA ne dit pas des conneries... Qui va par exemple dans 20 ans faire de longues études pour apprendre le chinois ou la physique quantique quand une IA fait ou semble faire le job à sa place déjà aujourd'hui? Et il en va de même pour toutes les compétences qui prennent du temps à être assimilées.

2. Il est faux de croire que la qualité des réponses de l'IA ne dépend que de la qualité de son apprentissage. Au début de l'IA, on parlait de "mirage", aujourd'hui on parle "d'hallucination", 2 termes qui décrivent un comportement que toutes les IA ont et qu'aucun spécialiste en IA n'a pu expliqué, ni même prévoir, ni même empêché: Parfois l'IA déraille et répond n'importe quoi!!!

Vous en avez le parfait exemple dans une autre discussion récente de ce site: Des avocats américains ont eu la mauvaise idée d'utiliser l'IA pour élaborer leurs plaidoiries ou leur mémoires transmis aux tribunaux... L'IA a tout simplement inventé des lois qui n'existent pas ou fait référence à des cas de jurisprudence inventés de toute pièce (Dans un mémoire, 21 sur 23 références à des cas de jurisprudence étaient de l'invention pure)... Plus de 600 documents transmis par des avocats et vérolés par l'IA ont été détecté ce jour par les juges américains!!!
3  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 24/09/2025 à 13:51
Anseme45

Citation Envoyé par Anselme45 Voir le message
1. A terme, il n'y aura plus personne pour valider que l'IA ne dit pas des conneries... Qui va par exemple dans 20 ans faire de longues études pour apprendre le chinois ou la physique quantique quand une IA fait ou semble faire le job à sa place déjà aujourd'hui? Et il en va de même pour toutes les compétences qui prennent du temps à être assimilées.
C'est une évidence. Il suffit de regarder le film "Idiocracy" pour en être convaincu...

Citation Envoyé par Anselme45 Voir le message
2. Il est faux de croire que la qualité des réponse de l'IA ne dépend que de la qualité de son apprentissage. Au début de l'IA, on parlait de "mirage", aujourd'hui on parle "d'hallucination", 2 termes qui décrivent un comportement que toutes les IA ont et qu'aucun spécialiste en IA n'a pu expliqué, ni même prévoir, ni même empêché: Parfois l'IA déraille et répond n'importe quoi!!!
Si un outils quelconque, peut, s'en qu'on sache pourquoi, se mets a déconner, la seule réaction qu'il faut avoir, c'est de "SAVOIR" pourquoi. L'IAG (avec grand modèles de LLM) construit sa réponse en puissant dans son immense base de donnée, le mot qui est le plus "pertinent". Aucun humain ne fait ainsi, il y a un contexte dont il doit tenir. Si mon voisin me dit "ça va toi ?" je lui répond "oui", mais si c'est le Président De Votre beau pays, je lui répond "oui, Monsieur le Président". A ce que je sache, l'IA ne sais pas à qui elle répond. Il n'y a pas une vérité "unique", cela dépend de qui pose la question, comment la question est posée, et la réponse doit tenir compte du contexte. Les IA "boite noire" n'ont et n'aurons jamais la moindre utilité, l'IA est une escroquerie. Certains s'y accroche comme une moule à un rocher, mais dans ce cas, la moule ne bouge plus... L'IA reste et restera un mirage, car elle n'a de sens que si elle est infaillible, et rien dans ce bas monde n'est infaillible. Ce que l'on accepte d'un humain, les erreurs qu'il fait, sont "tolérées", mais l'erreur est reconnue et on essaye de faire mieux la fois suivante, ou on demande de l'aide à quelqu'un de plus qualifié.

J'ajouterai quelque chose qu'on oublie trop souvent, c'est comment l'humain peut trouver une quelconque gratification en utilisant une IA. C'est reconnaitre qu'on a pas le niveau, qu'on a pas envie de s'améliorer, qu'on veux juste rester une moule. Bien vite que cette "hype" éclate (et ça fera mal car l'argent engloutit dans ce délire est délirant), et qu'on en revienne aux bases et permettre à l'humain de progresser par sa réflexion, son expérience, sa soif de savoir, son envie d'avancer.

Citation Envoyé par Anselme45 Voir le message
Vous en avez le parfait exemple dans une autre discussion récente de ce site: Des avocats américains ont eu la mauvaise idée d'utiliser l'IA pour élaborer leurs plaidoiries ou leur mémoires transmis aux tribunaux... L'IA a tout simplement inventé des lois qui n'existent pas ou fait référence à des cas de jurisprudence inventés de toute pièce (Dans un mémoire, 21 sur 23 références à des cas de jurisprudence étaient de l'invention pure)... Plus de 600 documents transmis par des avocats et vérolés par l'IA ont été détecté ce jour par les juges américains!!!
C'est ce qui arrive lorsqu'on accorde trop vite sa confiance à "quelqu'un" ou à "quelque chose"... Une simple anecdote.

  • Gamin, j'allais à la bibliothèque du village, et un bibliothécaire était là pour m'aider a trouver ce que je voulais, puis sortait un simple petit cartons et un crayons, notait qui avait emprunté quoi, quand et la date de retour du livre.
  • Quelques années plus tard, plus de bibliothécaire, mais une dame dernière son écran, se débattant avec un "programme" mal fait. Elle évidemment, elle n'avait pas de 1/10 de la culture de mon ancien bibliothécaire, et ne m'était d'aucune aide.
  • Idée génial de je ne sais qui, on remplace la dame par une borne, borne qui finissait par dire (en me donnant un ticket) : Aller voir la dame. Bon, elle n'obtenait pas plus de réponse de la borne, et retournait derrière son ordi...
  • Une fois mon livre trouvé, impossible pour elle d'utiliser le "programme" qui plantait toute les 3 minutes, car fait à la va vite par un sous-traitant qui évidemment avait fait le minimum pour optimiser ses gains.
  • On a finit par mettre une dame qui savait utiliser le borne, lorsque cette dernière n'était pas en panne.
  • On a donc noté sur un bout de papier ce que faisait mon bibliothécaire avant, sauf qu'entre temps, on avait 2 dames, un ordi et une borne ne servant à rien, coûtant une blinde en "mise à jour" (çàd correction des bugs).


Bref, on est passé d'une solution simple et performante offrant un vrai service, ne nécessitant qu'on bon bibliothécaire, 1 fiche et 1 crayon à une solution compliquée, peut performante, n'offrant aucun service mais nécessitant 2 dames, un ordi et une borne.

Vive le progrès

BàT et Peace & Love.
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 24/09/2025 à 14:24
Citation Envoyé par JPBruneau Voir le message
Les Amis, avant de quitter le présent sujet ou je me suis investi, je voudrais préciser quelques points établis et contrôlables:
Faut pas abandonner aussi vite, faut argumenter lorsqu'on est certains d'avoir raison. Il n'y a donc plus d'arguments ?

Citation Envoyé par JPBruneau Voir le message
Si je prend l'hipothése que AI n'exisqte pas, et mon exemple des gestions de mairies:
Hier , et encore à ce jour pour savoir si je dois renouveler une carte d'identitée je connait la liste de tout ce que je dois faire, je connait
toutes les étapes dans l'ordre à réaliser, je sais tout de A à Z et c'est pour ma partie ce que j'ais demandé à notre programeur IA de décrire .
Si tu sais comment faire, quel est le gain apporter par l'IA, si en plus il te faut un "programmeur IA". ? ET quand tu ne sera plus là, qui va faire les ajustement nécessaires si une règle ou loi change. Il y a une bonne raison pour laquelle le système bancaire repose toujours sur du vieux code COBOL. Il n'y a plus énormément de "programmeur COBOL", et les tentatives pour le remplacer on toute échouées, il doit bien y avoir une raison...

Citation Envoyé par JPBruneau Voir le message
Donc il y a tant à faire que le gain sera énorme !
Je ne vois là aucun gain, juste des complications en plus...

Citation Envoyé par JPBruneau Voir le message
Mon nouveau rôle est lorsque les étapes se déroulent de valider chaque étape comme si je me relisait, ou contrôlait le nombre de photos et leur validité (pas rire regard de face etc.. si l'IA me donne un document ou acte incorecte je lui dirait (sans avoir a le faire en tapant par exemple: Nons il faut reprendre cette etape car les régles on changer en date du 18-02-2025, ne détruit pas la régle actuelle si tu reçoit un dossier antérieur au 17-02-2025. enregistre cette remarque, la régle a apliquée est déjas sur ton datacenter.
Si ton nouveau rôle te convient, tant mieux... Passer de "faire quelque chose" à "surveiller quelque chose", perso, ça me déprimerait Mais s'il faut une IA, un ordi, et un Datacenter pour faire un simple renouvellement d'une carte d'identité, il faudrait d'abord revenir à des "processus" plus simple, que tout le monde peut "facilement" comprendre. Là tu fais le rôle du "spécialiste", qui "ne se trompe jamais" , et qui un jour (le plus tard possible, je te le souhaite) finira par partir. Ton remplaçant n'aura pas forcément ton niveau , et l'IA pourrait bien partir à la dérive très vite...

Citation Envoyé par JPBruneau Voir le message
Mais vouallez écrire pour ceux qui suivent ce sujet ...
C'est bien beau tout ça mais son texte qui va corriger las fautes d' orthographe ? sans internet ?
C'est bien beau tout ça mais qui va comprendre ce texte ? sans internet !
Alors sachez q'il existe tout les éléments GRATUITS , assez volumineux mais loin de la capacitée de notre mini data serveur ....

BON ALLEZ a++ et bon courage. (je reste à l'écoute tout de même)
Cela n'a rien avoir, tu as juste optimisé un système qui aurait d'abord du être simplifié...

Ce n'est que mon avis, qui ne vaut ni plus ni moins que le tiens. Il n'y a de "solution miracle" a rien. Il faut réfléchir (tant qu'on nous apprend a réfléchir à l'école, ce qui est de moins en moins le cas) AVANT, simplifier AVANT et voir si après ces simplifications il est nécessaire d'ajouter une IA. C'est à se demandé comment on faisait avant...

Surtout qu'il y a certainement des fonctionnaires qui ont du temp pour faire ce genre de choses. Je ne pense pas que "l'administration" soit le meilleur endroit pour ajouter une IA, tout étant déjà sur-administré...

Mais bon, comme je dis, ce n'est que mon avis avec lequel je suis d'accord.
Après, chacun fait comme il veut.

BàT et Peace & Love.
2  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 17/09/2025 à 1:00
Je te recite :
Citation Envoyé par JPBruneau Voir le message
il n'y a pas qu' AlphaZero 👌mais lui tu vois il n'avait aucune base de données
Si tu inclus les paramètres du modèle dans la base de données, cette phrase est fausse. C'est pourquoi j'ai interprété ton terme "base de données" comme données externes au modèle. Et c'est sur la base de cette interprétation que je t'ai répondu pour les datacenters, en gardant cette interpétation de données externes au modèle. Question de cohérence, sinon on ne se comprend plus.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 24/09/2025 à 11:47


J'ai un peu du mal à te suivre...

Citation Envoyé par JPBruneau Voir le message
Je n'ai pas le courage de répondre à tout cela, tu n'a pas de vision claire de ce qu'est l' IA sans internet.
Ce n'est pas grave. Tu pense que je n'ai pas de vision claire de ce qu'est l'IA sans internet, mais le problème n'est pas là. Que les données viennent d'Internet, d'un "spécialiste" (qui peut aussi se tromper, personne n'est parfait), d'une secrétaire ou d'un membre d'une secte, cela ne change rien au fait que ton "entrée" est jugée "valide" ou pas. Tant mieux si elle est validable et validée, c'est une bonne chose, mais tu n'auras jamais du 100%. Tout comme avec un humain...

Citation Envoyé par JPBruneau Voir le message
Un Data-Center largement suffisant pour une mairie couterait environ 10.000 Euro.
Mais en quoi une maire aurait elle besoin d'utiliser l'IA ? Il serait plus productif d'utiliser ces 10.000€ et faire un audit pour "simplifier" cette "sur-administration"...

Citation Envoyé par JPBruneau Voir le message
Alors chaque problème après reçu en 1 seconde ,L'auto apprentissage c'est nous lui disons nous sommes OK avec ce que tu propose et le validons (comme je te l'écrit !) alors tu vois un avantage de plus de cette organisation !
Du tout, déjà il faudrait que la personne qui reçoit la réponse sache dire si la réponse est valable ou pas ? Si seul un spécialiste peut jugé la chose, alors il faut un "spécialiste" pour "valider" les réponses. C'est peut-être applicable dans certaines organisations, mais pas dans toute. Puis se demander si la réponde est mauvaise (ou pas) grâce au prompt au grâce à ce que l'IA a appris.

Au passage, si une IA qui a appris quelque chose de "correct", ne sera pas forcément toujours correct dans qlqs mois ou qlq années. C'est comme ça la science, on progresse et d'anciennes théories sont réfutées et de nouvelles apparaissent. Et comment dire à une IA "d'oublier" une ancienne théorie ? Plus le temps passe, plus je pense que l'IA est fausse-bonne idée. Et que la bulle finira par éclater (c'est le destin d'une bulle).

Citation Envoyé par JPBruneau Voir le message
Bonne fin de semaine.
A toi aussi.

Peace & Love.
1  0 
Avatar de MisterMoa
Nouveau Candidat au Club https://www.developpez.com
Le 08/09/2025 à 10:11
Citation Envoyé par marsupial Voir le message
on ne peut plus se rendre compte quand ces formidables machines hallucinent ou pas. En bref, qu'elles racontent des salmigondis incompréhensibles et donc inutilisables. Là se trouve le véritable danger des LLM en plus de leur coût effréné en énergie.
Qui hallucinent, racontent des salmigondis, ont un besoin effréné d'énergie... On aurait pu croire que tu parlais des êtres humains...
0  0 
Avatar de JPBruneau
Membre éprouvé https://www.developpez.com
Le 16/09/2025 à 18:07
Citation Envoyé par Matthieu Vergne Voir le message

La où la confusion intervient, c'est qu'un datacenter comme une base de données peuvent être utilisés pour stocker autre chose que les données pertinentes pour la question. Données qui peuvent servir à la simple exécution du programme faisant tourner le LLM. Auquel cas, même AlphaZero s'appuie sur une base de données. Mais ce n'est juste pas le sens pertinent pour comprendre (et répondre) à tes messages. Copilot et ChatGPT ont donc raison d'un point de vue général (un LLM non local revient nécessairement à utiliser un datacenter, celui-ci devant forcément s'exécuter quelque part). Par contre, cette définition générale n'est pas pertinente ici, où j'utilise "datacenter" dans le sens de "source externe de données liées à la question". Et sur ce point, je campe sur ma position : un LLM n'en a pas besoin pour faire son inférence.
Houla, mon Ami je me permet de repréciser ce que nous avons trouvé dans notre IBM lors de la fin du chantier en irak, nos besoins et nos obligation nos interdits, nos régles concernant les calculs (l'usine qui faisait les paneaux (murs planchers etc...) ) exigeait 7 jours pour être sec et rigide.Prets à posés sur le site. l'IA avait bien laissée ces régles mais les avait renvoyer à sa zone .
Je simplifie, pour te présiser que tout cela n'était pas des bases de données, mais des faits avérés !
Pour être plus technique je dirait :
Oui, les acquis sont bel et bien physiquement écrits dans les datacenters
les IA comme celles qui jouent au Go ou aux échecs apprennent en perdant,
en testant, en ajustant… et chaque apprentissage modifie des milliards de paramètres dans leur réseau de neurones.
Ces paramètres sont stockés dans les serveurs des datacenters, sous forme de vecteurs numériques.

Je penses que c'est également ton avis !
Chaque neurone du réseau est connecté à d’autres par des poids (des nombres).
Ces poids sont modifiés pendant l’apprentissage.
Une fois l’apprentissage terminé, ces poids sont enregistrés dans des fichiers (souvent appelés modèles).
Ces fichiers sont stockés sur des disques durs dans les datacenters — comme n’importe quel fichier informatique.

Ce sont ces fichiers de poids qui contiennent toute la mémoire de l’IA. Pas des phrases, pas des règles écrites,
mais des nombres qui traduisent des milliards d’expériences.

Allez j'ai préféré étre plus précis , A++ au plaisir de te croiser à nouveau.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 17/09/2025 à 7:31
Citation Envoyé par Stéphane le calme Voir le message
Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.
C'est pas facile de mettre en place un modèle rentable.
0  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/09/2025 à 12:59
Citation Envoyé par JPBruneau Voir le message
Ceux qui parlent de TchatGPT 5 sur nos antenes n'on même pas dit (et je suis ça de pret..)
1) que ChatGPT 5 est bouré de fautes, et répond de travers ! son créateur à dit sur Arté que 2 ans aprés ChatGPT4 ,il regrétait cette sortie beugée et irréparable il s'est engagé à sortir la "6" avant un an !
2) Jamais les émissions de télévisions ne parle de COPILOTE de Microsft qui est passé en tête chez les PROS. il est super bien intégré dans windows11.
Ce n'est pas pour rien que cela fait des années que j'ai arrêté de regarder la TV. Si je veux m'informer, je vais voir sur le net. La TV, ça sert à avoir un fond sonore quand tu passes l'aspirateur et à passer le temps avant d'aller se coucher. Deux activités où elle est intégralement remplaçable, cela dit en passant.
1  1