IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Dites adieu à la bulle de l'IA et préparez-vous au krach : plusieurs analystes soulignent les signes avant-coureurs de son éclatement imminent
Sam Altman lui-même le reconnait à demi-mot

Le , par Stéphane le calme

196PARTAGES

17  0 
Dites adieu à la bulle de l'IA et préparez-vous au krach : plusieurs analystes soulignent les signes avant-coureurs de son éclatement imminent,
Sam Altman lui-même le reconnait à demi-mot

Depuis le lancement de ChatGPT il y a plus de deux ans, l'intelligence artificielle générative est sur toutes les lèvres. Des géants de la tech aux start-up les plus audacieuses, tout le monde s'est mis à rêver de cette nouvelle révolution. Les chiffres donnent le vertige : des milliards de dollars investis, des valorisations qui s'envolent et un marché boursier enivré par les promesses d'un futur radieux. Les promesses sont immenses : réinventer la productivité, automatiser la créativité, transformer la manière dont nous travaillons. Mais derrière l’emballement médiatique et financier, des signaux inquiétants s’accumulent.

Aussi, des voix de plus en plus nombreuses murmurent la même inquiétude : sommes-nous en train de vivre la formation d'une nouvelle bulle, prête à éclater ? Plusieurs analystes estiment que nous vivons actuellement une bulle spéculative comparable à celle des dot-com au début des années 2000.


Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.

Suite à ce rapport, les actions de Nvidia, l'entreprise évalué à 4 000 milliards de dollars qui a alimenté le boom de l'IA, ont chuté de 3,5 %, tandis que celles du géant des données Palantir ont baissé de 9 %. Les conclusions du MIT risquent de faire éclater la bulle boursière technologique, qui a ajouté des milliers de milliards de dollars à la valeur des actions américaines.

La fascination pour l'IA n'est pas infondée. Les progrès sont réels et spectaculaires. Les modèles de langage comme GPT ou les générateurs d'images ont démontré des capacités impressionnantes, ouvrant la voie à des applications autrefois inimaginables. Mais cet engouement a entraîné une course folle qui présente plusieurs points de fragilité :
  • Des valorisations déconnectées de la réalité : Des start-up, parfois avec peu ou pas de revenus, atteignent le statut de licorne et des valorisations astronomiques. Le marché parie sur un potentiel futur, sans se soucier du présent. C'est le miroir de l'ère de la bulle Internet, où l'audience et la « croissance à tout prix » l'emportaient sur la rentabilité.
  • Le modèle économique en question : Produire et faire fonctionner des modèles d'IA à grande échelle coûte une fortune. Ces systèmes nécessitent une puissance de calcul colossale (GPU) et des investissements massifs. Pour l'instant, les coûts de fonctionnement pour les entreprises dépassent souvent les revenus générés. La rentabilité est un horizon lointain, voire incertain.
  • La surenchère du talent et de la puissance de calcul : La bataille pour attirer les meilleurs ingénieurs en IA fait grimper les salaires de manière déraisonnable. En parallèle, la pénurie de puces spécialisées comme celles de Nvidia crée une dépendance et des coûts d'infrastructure qui pèsent lourdement sur les bilans.

La plupart des entreprises se retrouvent donc face à trois obstacles majeurs :
  • Des coûts massifs en infrastructure et en expertise.
  • Une complexité d’intégration dans des processus métier souvent mal préparés.
  • Des bénéfices limités en comparaison avec les promesses marketing.

Pour de nombreuses organisations, l’IA générative est encore perçue comme un gadget spectaculaire, mais difficile à industrialiser.


GPT-5 et la déception technologique

La plupart des personnes qui ne sont pas profondément impliquées dans la frénésie autour de l'intelligence artificielle ne l'ont peut-être pas remarqué, mais l'idée selon laquelle l'IA progresserait inexorablement vers une intelligence supérieure à celle des humains, voire deviendrait une menace pour l'humanité, a pris fin brutalement le 7 août.

C'est ce jour-là que la société d'IA la plus suivie, OpenAI, a lancé GPT-5, un produit avancé qui, selon les promesses de longue date de l'entreprise, allait faire honte à ses concurrents et déclencher une nouvelle révolution dans cette technologie prétendument révolutionnaire.

En réalité, GPT-5 s'est révélé être un échec. Il s'est avéré moins convivial et, à bien des égards, moins performant que ses prédécesseurs dans l'arsenal d'OpenAI. Il a commis le même type d'erreurs risibles en répondant aux demandes des utilisateurs, n'était pas meilleur en mathématiques (voire pire) et ne représentait en rien l'avancée dont OpenAI et son directeur général, Sam Altman, avaient tant vanté les mérites.

« On pensait que cette croissance serait exponentielle », explique Alex Hanna, critique technologique et coauteur (avec Emily M. Bender de l'université de Washington) du nouvel ouvrage incontournable The AI Con: How to Fight Big Tech's Hype and Create the Future We Want (L'arnaque de l'IA : comment lutter contre le battage médiatique des géants de la technologie et créer l'avenir que nous voulons). Au lieu de cela, selon Hanna, « nous nous heurtons à un mur ».

Les conséquences vont au-delà de ce que tant de personnes ont été amenés à attendre (chefs d'entreprise), voire à craindre (travailleurs), de la pénétration de l'IA dans nos vies. Des centaines de milliards de dollars ont été investis par des capital-risqueurs et de grandes entreprises telles que Google, Amazon et Microsoft dans OpenAI et ses nombreux laboratoires d'IA, même si aucun de ces laboratoires n'a encore réalisé de bénéfices.

Une bulle rappelant celle des dot-com

L’histoire se répète. Au tournant des années 2000, la bulle Internet avait vu les valorisations de jeunes pousses s’envoler à des niveaux absurdes. Beaucoup de ces sociétés ont ensuite disparu.

Aujourd’hui, on retrouve les mêmes ingrédients avec l’IA :
  • Des investissements colossaux (plus de 500 milliards de dollars injectés en deux ans par les GAFAM).
  • Des revenus modestes en retour (35 milliards estimés en plus, soit un écart énorme).
  • Une frénésie médiatique où chaque entreprise se doit d’annoncer son « plan IA » pour rester crédible.

Les entreprises cotées en bourse se sont empressées d'annoncer des investissements dans l'IA ou de revendiquer des capacités d'IA pour leurs produits dans l'espoir de faire grimper le cours de leurs actions, tout comme la génération précédente d'entreprises s'était présentée comme des « dot-coms » dans les années 1990 afin de paraître plus attrayantes aux yeux des investisseurs.

Nvidia, le fabricant d'une puce haute performance alimentant la recherche en IA, joue presque le même rôle que celui joué par Intel Corp., un autre fabricant de puces, dans les années 1990 en tant que leader boursier, contribuant à soutenir le marché haussier des actions.

« Cela semble logique pour une bulle », a déclaré Marko Kolanovic, ancien directeur de recherche chez JP Morgan.

Le MIT a constaté que malgré des investissements massifs dans les logiciels d'IA, la moitié des projets se sont soldés par un échec. Il a indiqué que 80 % des entreprises avaient exploré la technologie de l'IA, mais que seulement 40 % l'avaient déployée. Il ajoute que les « systèmes de niveau entreprise » ont été « discrètement rejetés » par les grandes entreprises et que seulement « 20 % ont atteint le stade pilote et 5 % seulement ont atteint le stade de la production ».

Le rapport, issu du projet Nanda AI de l'université américaine, poursuit en affirmant que de nombreux employés souhaitent en fait utiliser l'IA, mais se tournent vers des produits grand public tels que ChatGPT à leurs propres frais, plutôt que de s'appuyer sur des outils d'IA d'entreprise coûteux ou peu maniables. Le rapport insiste sur le fait que « l'IA transforme déjà le travail, mais pas par les voies officielles », mais sa conclusion principale, selon laquelle la quasi-totalité des investissements des entreprises sont gaspillés, n'aurait pas pu tomber à un moment plus délicat.


Sam Altman, PDG d'OpenAI, admet à demi-mot

Bien qu'il soit l'un des principaux bénéficiaires du boom de l'IA (les investisseurs envisageraient une valorisation de 500 milliards de dollars pour sa start-up OpenAI), Sam Altman a refusé, le week-end dernier, d'écarter les inquiétudes selon lesquelles les actions technologiques seraient dans une bulle. « Les investisseurs sont-ils trop enthousiastes ? Je pense que oui », a déclaré le directeur général d'OpenAI aux journalistes lors d'un dîner privé, ajoutant que certaines personnes risquaient de perdre « des sommes colossales ».

Citation Envoyé par Sam Altman
Ce n'est pas un comportement rationnel. Je pense que quelqu'un va y laisser des plumes. Quelqu'un va perdre une somme d'argent colossale. Nous ne savons pas qui ; et beaucoup de gens vont gagner une somme d'argent phénoménale. Ma conviction personnelle, même si je peux me tromper, est que, dans l'ensemble, cela représenterait un énorme gain net pour l'économie.
Les investisseurs craignent que l'un de ces perdants ne soit SoftBank, le géant japonais de la technologie qui a investi des milliards dans OpenAI. Ses actions ont chuté de 7 % mardi.


Si les promesses de l'IA s'avèrent être aussi illusoires que celles des dot-coms, les investisseurs boursiers pourraient être confrontés à une douloureuse prise de conscience.

Le lancement peu encourageant de GPT-5 pourrait précipiter cette prise de conscience. « Les entreprises spécialisées dans l'IA soutiennent actuellement l'économie américaine, mais cela ressemble beaucoup à une bulle », a déclaré Hanna.

Le lancement a été si décevant qu'il a mis en lumière à quel point l'ensemble du secteur de l'IA dépendait du battage médiatique.

Voici ce qu'a déclaré Altman juste avant le dévoilement de GPT-5, en le comparant à son prédécesseur immédiat, GPT-4o : « GPT-4o, c'était peut-être comme parler à un étudiant », a-t-il déclaré. « Avec GPT-5, c'est maintenant comme parler à un expert, un véritable expert titulaire d'un doctorat dans n'importe quel domaine dont vous avez besoin à la demande... quels que soient vos objectifs. »

Eh bien, pas vraiment. Lorsqu'un utilisateur lui a demandé de produire une carte des États-Unis avec tous les États indiqués, GPT-5 a généré un monde imaginaire, comprenant des États tels que Tonnessee, Mississipo et West Wigina. Un autre utilisateur a demandé au modèle de lui fournir une liste des 12 premiers présidents, avec leurs noms et leurs photos. Il n'en a trouvé que neuf, dont les présidents Gearge Washington, John Quincy Adama et Thomason Jefferson.

Les utilisateurs expérimentés des modèles précédents de la nouvelle version ont été consternés, notamment par la décision d'OpenAI de fermer l'accès à ses anciennes versions et d'obliger les utilisateurs à se fier à la nouvelle. « GPT5 est horrible », a écrit un utilisateur sur Reddit. « Des réponses courtes et insuffisantes, un langage stylisé plus désagréable, moins de « personnalité »... et nous n'avons pas la possibilité d'utiliser simplement d'autres modèles. » OpenAI a rapidement cédé et a rouvert l'accès aux anciennes versions.

Conclusion

Depuis le lancement de ChatGPT en 2022, la Silicon Valley prêche que les chatbots IA vont transformer l'économie. Les dirigeants ont donc dépensé des milliards pour équiper leur personnel et prédit des économies massives.

Mais la révolution promise de l'IA est au point mort, selon le rapport du MIT.

Après avoir interrogé 150 chefs d'entreprise et 350 employés, le MIT a constaté que « seuls 5 % des projets pilotes intégrant l'IA génèrent des millions de dollars de valeur, tandis que la grande majorité reste bloquée sans impact mesurable sur le compte de résultat ».

Le constat est clair : l’IA traverse une phase d’emballement qui ne pourra pas durer. Les marchés, les chercheurs et même les dirigeants des géants du secteur en conviennent.

Alors, faut-il s'attendre à une catastrophe ? Non. Le "krach" d'une bulle n'est pas la fin de la technologie, mais la fin d'une période d'excès et de spéculation. La bulle, tôt ou tard, se dégonflera. Mais pour les professionnels de l’informatique, ce n’est pas une menace insurmontable : c’est une occasion de prendre du recul, de sélectionner les bons cas d’usage et de préparer l’avenir.

Les entreprises ne seront plus jugées sur leurs promesses, mais sur leur capacité à générer de la valeur réelle et à résoudre des problèmes concrets. Ce sera le moment idéal pour :
  • Se concentrer sur les fondamentaux. Mettre l'accent sur les projets qui offrent un ROI clair et tangible.
  • Adopter une approche pragmatique. Tester les solutions d'IA en se concentrant sur les cas d'usage qui améliorent véritablement l'efficacité ou créent de nouveaux services.
  • Séparer le bon grain de l'ivraie. Les entreprises viables et les technologies robustes survivront, laissant derrière elles le bruit et le marketing surfait.

La véritable révolution de l’IA n’a sans doute pas encore commencé. Et c’est peut-être seulement après l’éclatement de la bulle actuelle que nous verrons émerger les applications qui transformeront vraiment nos métiers et nos sociétés.

Source : Rapport du Center for Information Systems Research du MIT

Et vous ?

Pensez-vous que l’IA générative est une véritable révolution technologique, ou simplement une mode passagère alimentée par le marketing ?

Selon vous, quels secteurs métier tireront réellement profit de l’IA, même après un éventuel éclatement de la bulle ?

Dans vos propres projets, avez-vous constaté un retour sur investissement concret grâce à l’IA, ou plutôt une déception ?

Faut-il selon vous continuer à investir massivement dans l’IA, ou adopter une approche plus sobre et ciblée ?

L’obsession pour les modèles géants est-elle la bonne voie, ou devrait-on privilégier des modèles spécialisés plus petits mais plus efficaces ?

Pensez-vous que les PME auront réellement accès à des solutions IA utiles, ou que cette technologie restera réservée aux grands groupes capables d’investir lourdement ?
Vous avez lu gratuitement 1 824 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de calvaire
Expert éminent https://www.developpez.com
Le 22/08/2025 à 8:30
Citation Envoyé par totozor Voir le message
Les jeunes bossez à MacDo en attendant que vos ainés crèvent pour vous laisser de le place.
A ce moment vous aurez autant de compétences que les jeunes diplômés et des plus grosses ambitions salariales donc ne démissionnez pas trop vite de MacDo.
Et dans 5 ans on aura des articles sur la pénurie de développeurs expérimentés...
Quand un secteur se tire une balle dans le pied mais cours quand même.
c'est un cycle, il y'a eu des périodes de sur abondance de dev et des périodes de pénuries.
c'est valable dans tous les métiers.

Il suffit de regarder l'année du bac ou il y'a du besoins et aller dans les bons cursus.
Il y'a pleins de métiers bien payé (pour la france) en tensions: médecins spécialistes, conducteur de travaux, soudeur spécialisé (nucléaire, aéronautique, offshore), technicien de maintenance industrielle... c'est tous des métiers ou atteindre 3000€ net en France est possible (pas a la sortie d'école mais après 5ans max d'xp).

Bon nombres d'étudiants vont dans des voies de garages (fac d'histoire de l'art...etc) ou y'en a trop dans certains secteurs (fac de droits....) forcément ça fait des chômeurs en puissance et des études financé et compétences apprises inutile pour la société.

Sans parler des primes d'astreintes dans certains métiers qui sont des bon coup de boost, en france et a singapour c'est 1/4 de mon salaire en plus en net. En france c'était 600€/mois, a singapour 4000€, personne ne cracherait dessus.
600€ d'investie sur un etf world à 5% de rendement en moyenne, ca donne sur 40ans de carrière 888915€, pas encore millionnaire mais presque, assez pour se faire une belle retraite et avec 800k c'est même assez pour partir à 60ans (voir avant) avec sa propre retraite par capitalisation.
Meme avec une bulle ia, sur 40ans ce sera invisible.
4  0 
Avatar de doriphore4545
Nouveau Candidat au Club https://www.developpez.com
Le 21/08/2025 à 18:45
.... le but c'est de faire de l'argent, pas de l'utile
et là, faut bien dire que les investissements gigantesques accouchent d'une souris pas bien grosse
comme d'habitude, ca va secouer grave, la plupart des boîtes qui gravitent autour de ces technologies vont disparaitrent
et cela va s'appaiser jusqu'au prochain coup de chaud (genre la boîte qui sortira le 1er ordinateur "quantique")
mais entre temps quelques happyfew auront empocher des $ par brouettes entières.
bref rien de bien nouveau sous le soleil capitalistique
6  3 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 21/08/2025 à 18:32
KRACH/BULL sont des grands mots quand même.
On est sur une un outil utilisé par au moins facile 90% des métiers de bureaux.
L'outil est utile et apporte des gains de productivités et permets quand même de réduire la masse salariale. La ou il y'avait besoin de 10dev + 2 stagiaires, il n'y a plus besoin que de 8 dev et 0 stagiaires.
C'est un cycle, quand les seniors seront en retraite/mort, il faudra bien re embaucher des juniors, pendant ce temps les jeunes doivent aller ailleurs que dans l'informatique.

l'outil n'existe que depuis 3ans.... il y'a encore pleins de chose que l'ia ne fait pas, dans le jeux videos par exemple et la génération d'asset 3d, je n'ai rien trouvé, meme en low poly y'a rien.
5  3 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 22/08/2025 à 23:57
Citation Envoyé par Stéphane le calme Voir le message
La véritable révolution de l’IA n’a sans doute pas encore commencé.
Au contraire. La révolution "attendue" de l'IA n'a pas eu lieu, mais la révolution "véritable" a eu lieu : les LLM et désormais les agents ont eu un impact significatif sur nos sociétés, et ça va rester. Car oui ils apportent une réelle valeur ajoutée. Mais tant qu'on sait les utiliser correctement. Les usages vont arrêter de partir dans tous les sens, donc ça va se stabiliser, mais ce qui marche va rester.
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 26/08/2025 à 13:15
JPBruneau

Citation Envoyé par JPBruneau Voir le message
Presque OK avec toi 100% sauf ton dernier paragraphe, L' IA restera incontournable dans des cas trés précis , médical , météo , militaire et renseignements etc.. Bref tout ceux qui ont les moyens de payer et participer à l' enrichissement des gros Datacenters, c'est le cas des des centre d'aide des dermatologues, puisqu'ils peuvent envoyer aux hopitaux spécialisés, un photo de peau ayant un petit bouton douteux, le systéme IA arrive à détecter un an avant nos spécialistes, si le petit bouton est clairement cancérigéne. environ 2 ans de cette méthode et zéro erreurs !
Oui, je suis d'accord sur ce point, c'est ce que je disais en parlant des "traces" que laissera l'IA. L'anlyse d'image médicale en fait partie. Une IA bien spécifique, entrainée avec des données bien spécifiques, et validées auparavant par des spécialistes.

Citation Envoyé par JPBruneau Voir le message
Par contre pour la grande majoritée des PME, Mairies etc... un petit plus est sans doute bien venue qui se baserait sur des données locales donc sans Data-centeurs, sauf éventuélement un petit datacenter tel que "it-planet.com" 3500 € !
Cette discution de vieux n'éfleurera pas nos enfants ...
Dans ces cas là, il faudrait peut-être avant passer par une phase de simplication de toute les couches et des paperasses inutiles... L'informatique aurait du aider a "limiter" cette paperasse (bien avant l'IA), mais là où un simple carton et un crayon suffisaient pour emprunter un livre dans une bibliothéque, il faut maintenant passer par une borne, qui marche au pas, qui consomme, et génère plus de papier qu'avant. Pourquoi ? Parce c'est plus simple de "produire une copie", alors on le fait même si pas nécessaire...

Citation Envoyé par JPBruneau Voir le message
l' IA Tu as connu les premiers tel portables ?
Oui, évidemment. Même si on s'en passait bien avant, c'est un progrès. Mais un progrès qui a dévié vers des "smartphones" (que je n'ai jamais voulu, par choix). Smartphones qui permettent à n'importe qui de faire des photos de n'importe quoi, et qui s'entassent dans des datacenters. Je ne sais plus où j'ai lu que la majorité des photos stockées étaient des photos de chat... Sans compter que ces "smartphones" t'espionnent, te bombardent de pub, et abrutissent nos enfants avec des débilités sans nom.

Je "hais" les smartphones et les dérivent qui viennent avec. Un des gros point que je reproche à ceux-ci, c'est qu'ils nous ont plongés dans l'ère de "l'instantané", où l'on publie "sans réflexion" des vidéos et des images sans leurs "contexte", et qui peuvent se terminer en drame. J'ai un amis qui a eu le cas. Sans rentrer dans le détail, on a publier une vidéo qui a première vue le rendait coupable (alors qu'il ne l'était pas), et des idiots sans noms on fait brûler sa maison "en représsaille".

Cette ère de l'instantané fait de nos enfants des "frustrés" lorsqu'ils n'ont pas immédiatement ce qu'ils désirent, car habitués dès le biberon. Il n'y a plus de recul. Plus de refexion.

C'est pareil sur internet. Au début, on y trouvait des informations qu'on aurait jamais pu avoir autrement, mais maintenant c'est innondé de "bousses" idiotes, de fausses informations, et, bien évidemment de publicité, nous poussant à consommer alors qu'on nous dit dans le même temps qu'il faut "en vouloir moins" pour "sauver la planère". Triste époque...

BàT et Peace & Love.
2  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 02/09/2025 à 21:31
JPBruneau, la partie que tu cites est au sujet de code généré par IA. Donc de l'IA générative, style ChatGPT, Claude, etc. Ce à quoi tu compares n'a rien à voir : ce sont des réseaux de neurones entraînées sur de la reconnaissance d'image (pas de la génération) qui plus avec un entraînement dédié (spécifiquement pour cet usage médical). Ce genre de techno est effectivement utilisé depuis longtemps et fonctionne très bien, mais cela ne remet pas en cause ce que j'ai dit.

Dans ce que tu dis ensuite, je ne suis d'ailleurs même pas sûr que tu parles de réseaux de neurones. IBM a par exemple fait Watson qui n'a rien à voir avec des réseaux de neurones. Et des systèmes d'inférence on en a fait bien avant avec du symbolique, ce qu'on appelle usuellement des systèmes experts, qui sont effectivement très bons (c'est leur spécialité) pour établir des raisonnements démontrés, mais difficile à produire car nécessitant d'expliciter des règles précises grâce à des experts du domaine. Les réseaux de neurones sont justement venu "régler" ce problème car ils n'ont pas besoin de règles pré-établies, mais en échange n'apprennent pas de règles clairement identifiables dès lors que le réseau devient grand.

Le soucis quand on parle d'IA est que ça peut qualifier énormément de choses, même des IA de jeu vidéo. Il est important de garder le contexte en tête pour interpréter le terme correctement et ne pas tout mélanger.
2  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 22/08/2025 à 7:41
Citation Envoyé par Stéphane le calme Voir le message
Une étude récente du MIT fait l’effet d’une douche froide : 95 % des projets en intelligence artificielle générative échouent à créer de la valeur mesurable. Autrement dit, seule une poignée de cas d’usage parvient réellement à générer un retour sur investissement tangible. « Malgré les 30 à 40 milliards de dollars investis par les entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », ont écrit les chercheurs du MIT.
Ouais pour l'instant ça coute cher et ça ne rapporte rien.
Les investissements sont massifs parce qu'il faut que les entreprises se dépêchent, il faut prendre de l'avance sur les autres, il n'y aura pas beaucoup de gagnants.

2, 3 entreprises vont devenir rentable, les autres feront faillite.
Quand l'IA sera réellement performante il faudra faire payer les utilisateurs. (il faut bien que de l'argent rentre)
1  0 
Avatar de RVLF56
Nouveau Candidat au Club https://www.developpez.com
Le 22/08/2025 à 10:04
Et l'article oublie l'impact que pourrait avoir sur les marchés actions l'explosion des IA chinoise "bon marché".
Donc oui tous les ingrédients sont réunis pour un krach...
A savoir quand ?
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 23/08/2025 à 13:54
KilVaiDeN

Citation Envoyé par KiLVaiDeN Voir le message
La "bulle" internet a éclaté, et au final, son développement et son déploiement n'a cessé d'augmenter. Cela n'a pas fait disparaitre l'internet, bien au contraire. Il en sera de même pour l'IA.
Je ne dis pas le contraire, mais la bulle IA explosera (tout comme la bulle internet), puis ce sera une autre étape. Je ne suis pas devin, et rien ne prouve qu'après l'explosion de la bulle IA, cette technologie pourra évoluer dans le bon sens. Tout ne se déroule pas toujours de la même manière. D'autres "bulles" ont explosés, et rien de bon n'en est sorti par la suite...

Citation Envoyé par KiLVaiDeN Voir le message
Dès qu'une technologie est prometteuse, des investisseurs misent dessus de manière inconsidérée, et cela est tout à fait normal, c'est l'occasion de prendre de l'avance sur les autres. Ils y perdront financièrement, mais l'expérience gagnée sur ces technologies leur sera acquise et utile lorsque les outils s'amélioreront encore, car l'amélioration est continue, les modèles deviennent de plus en plus performant, contrairement à ce que certains prédisaient sur un "plateau" : il n'est pas arrivé, et ma prédiction est qu'il n'arrivera pas.
Là encore, je suis d'accord, mais beaucoup de ces investisseurs, qui "misent dessus de manière inconsidérée", n'y trouveront pas leur compte. Certains gagneront beaucoups, certes, mais d'autres y perderont également. Le soucis, comme toute "bulle" est de savoir d'où vient l'argent des investisseurs (groupe, fond de pensions, ...) et que les personnes concernées risquent également d'en souffrir. Une "bulle" n'est jamais bonne pour le citoyen "lambda", car au final, c'est ce citoyen "lambda" qui sera impacté.

Citation Envoyé par KiLVaiDeN Voir le message
Aussi, ne pas mettre dans le même panier les IA génératives et les IA plus "concrètes". Le machine learning par exemple est déployé dès aujourd'hui et avec succès dans de nombreuses entreprises, on ne parle pas de ChatGPT mais bien de modèles entrainés dans des contextes spécifiques où leur apport est indéniable.
Je suis encore tout à fait d'accord, une IA, entrainée avec de bonnes données, se limitant à un "champ" d'action bien spécifique, donnera un bien meilleur résultat qu'une IA alimentée avec tout et n'importe quoi, dans le but de répondre à tout et n'importe quoi...

Citation Envoyé par KiLVaiDeN Voir le message
Je vois de nombreux commentaires sur "l'incapacité" supposée des LLMs (comme ChatGPT) à coder, non mais allo ? Il y a encore quelques années, imaginer un outil qui puisse analyser du code "intelligemment", produire de la valeur ajoutée, était impensable, aujourd'hui c'est une réalité
C'est une réalité ? Il y a pourtant nombre d'exemples qui montrent le contraire. Certains font "marche arrière", l'IA (peut-être mal utilisée, mais un bon outil ne devra se laisser "mal utiliser"). Si un compilateur sort un mauvais code car mal conçu, il faut connaître l'assembleur pour le remarquer.

Citation Envoyé par KiLVaiDeN Voir le message
je pense que la "hype" du moment est justement dans le camp des détracteurs de l'IA, qui font un prompt en une ligne pour soi-disant "prouver" que les LLMs échouent, c'est de la malhonnêteté intellectuelle. Regarder du côté de OpenAI, il y a un outil qui s'appelle "Prompt Optimizer". Testez un prompt "classique", comme vous pourriez le faire, puis passez-le dans la moulinette du "Prompt Optimizer", réessayez, et vous verrez la différence de résultat entre les deux, et vous comprendrez que si vous vous basez sur vos capacités, souvent médiocres, de prompteur, pour juger de l'efficacité d'un LLM, vous n'avez qu'un avis à la hauteur de cette médiocrité car le résultat obtenu le sera également.
Le monde n'est ni blanc, ni noir. Il y a du mépris dans vos propos. Ils sont "execifs", donc insignifiant. Il faudrait être un "génie" tel que vous pour savoir utiliser "correctement" une IA ? Nous sommes trop médiocres, nous ne savons pas faire les "bons" prompts... C'est certains que si l'on pose la mauvaise question, la réponse le sera tout autant...

Citation Envoyé par KiLVaiDeN Voir le message
Ayant personnellement interagit des milliers de fois avec les LLMs, sur de nombreux sujets, ayant même crée des outils spécifiques pour prompter, je peux vous dire que les LLMs sont bien plus capables que vous le pensez pour le développement. Un LLM a besoin d'un contexte, d'un plan, de précision, selon mon expérience on peut obtenir des résultats optimaux en appliquant ces règles, mais encore faut-il apprendre à utiliser les bons outils, et surtout à comprendre ce qu'est un bon d'un mauvais prompt.
Je cite "Selon votre expérience". Une affirmation basée sur 1 expérience, fusse-t-elle de vous, n'a pas de valeur. Comme tout dev à qui l'on donne de mauvaises spécifications, il a lui aussi besoin d'un contexte, d'un plan, de précision... Avec ces éléments en main, il produit un travail meilleur que sans. Rien de nouveau. J'attend toujours de voir une application un peu sérieuse, développée uniquement via des (bons) prompts... Si on me donne une mauvaise spécification, je le vois, je le dis, et cet spécifation est apdatée, réécrite. Que fait l'IA dans ce cas ? Elle "accepte" la mauvaise spécification (le mauvais prompt), et "sort" quelque chose, même si ce quelque chose est mauvais, puisque venant d'une mauvaise entrée. L'IA n'a pas de "réflection". C'est un simple outil pour faciliter certaines tâche. Elle va détruire des emplois, et en créer de nouveau. Sauf que parfois, elle donnera un résultat catastrophique, pouvant avoir un "impact" sur le monde réel. Des ingénieurs se trompent, et des IA se tromperont.

Citation Envoyé par KiLVaiDeN Voir le message
Pour vous donner un exemple, GPT-5, le dernier modèle d'OpenAI, si vous ne prenez pas le temps de concevoir un prompt sérieux, il va vous répondre également à la va-vite, mais si vous vous appliquez à le questionner, il est bien plus puissant que GPT-4o, ou même qu'un o3, mais pour en apprécier la puissance il faut aller jusqu'à produire un prompt digne de nos attentes.
Si le métier de développeur disparaît et est remplacé par le métier de "prompteur", qui va vérifier que le "prompteur" a bien fait son taf ? Et que la réponse donnée est mauvaise ? Il n'y aura plus de assez de devs "compétents" pour faire ce travail, et il faudra faire une confiance aveugle dans l'IA... Certains le feront, il y'a bien des gens qui dorment dans leur tesla avant qu'elle ne s'encastre sous un camion de pompier...

Citation Envoyé par KiLVaiDeN Voir le message
Pour finir, je dirais que non seulement les LLMs s'améliorent en continue et ne sont pas prêt de rencontrer un quelconque plateau, mais j'irais encore plus loin, je dirais que oui le métier de développeur va évoluer inexorablement, nous ne sommes plus dans un monde où un développeur doit coder lui-même son application, nous sommes déjà dans un monde où le développeur qui sait prompter, qui sait se doter des bons outils, qui sait bien utiliser les LLMs, va non seulement savoir se servir convenablement des LLMs pour améliorer son travail, mais va en faire des véritables compagnons qui vont le placer bien au-dessus en terme d'efficacité et de qualité qu'un développeur qui fermerait les yeux sur ces technologies, et cet écart va se faire sentir de plus en plus en entreprise, et la compétence consistant à savoir utiliser un LLM sera de plus en plus demandée, bien plus que de savoir coder dans un quelconque langage. Alors bien entendu, il est hors de question d'être un inculte en développement, il faut savoir poser les bonnes questions, connaitre les bonnes pratiques, savoir tester convenablement les retours des LLMs, mais le gain en efficacité est là
Bref, tout cela pour dire que le métier de développeur va évoluer ? Euh, c'est un des paramètres du métier, un développeur évolue en permanance tout ou long de sa carrière, ce ne sera qu'une autre sorte d'évolution, ou pas.

Je vous cite : les LLMs s'améliorent en continue et ne sont pas prêt de rencontrer un quelconque plateau.. Si vous le dite, je veux bien vous croire. Vous allez peut-être être étonné, mais d'autres personnes ne pensent pas comme vous, si si, je vous l'assure. Mais qui "croire" ? Madame Irma n'est plus de ce monde pour me donner la réponse, zut alors...

Citation Envoyé par KiLVaiDeN Voir le message
et ça va faire toute la différence, alors mon conseil, n'écoutez pas les prédicateurs qui vantent un "krash" de l'IA, ni même ceux qui à l'autre bout du spectre des avis sont tout feu tout flamme sur ces technologies sans apporter les vraies bonnes pratiques, soyez celui ou celle qui sait reconnaitre l'efficacité d'un outil et qui sait que plus l'outil est complexe plus il faut investir de temps dans l'apprentissage de son utilisation plutôt que de continuer à travailler "manuellement", c'est ce que font les vrais pros.
N'écoutons pas les prédicateurs dites-vous ? Cela s'applique-t-il à vous ? Aurais-je perdu mon temps à vous lire ?

Vous disiez au début que la bulle IA finira par éclater, et vous dites maintenant qu'il n'y aura pas de "krash", il faudrait être un peu plus clair, Monsieur le vrai Pros, non ?

Pour terminer, je ne suis ni pour ni contre l'IA, mais j'ai tendance a me méfier des "experts", de ceux qui prétendre détenir "LA" vérité, les autres étant pour eux des ploucs qui de toute manière ne comprennent rien à rien. On en voit tous les jours des "experts", qui délivrent leur "expertise", quitte à dire le contraire 24h plus tard.

Il y a quand même des "expert" qui ont jugé lors du covid, que boire un café assis ou debout changeaient la dangereusité du buveur de café.

Et de toute façon, chacun fait comme il veut. Certains ont "industrialisé" un domaine, et d'autres sont restés des "artisants" du même domaine. Chacun apporte une chose différente, et c'est très bien ainsi. Je préfère un bon resto qu'un plat sortant de chez Tricatel...

Sur ce, Bonne journée.

BàV et Peace & Love.
2  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 23/08/2025 à 14:03
JPBruneau

Citation Envoyé par JPBruneau Voir le message
Ah quel plaisir de te lire OUI OUI loin de ta compétence, je pense déjas cela, cette révolution sera pour nos enfant comme une évidence et il n'y aura plus de comparaison entre : un neurone biologique, un neurone artificiel, un “LLM” géant fait de milliards de neurones
Il va être joyeux le monde que nous laisserons à nos enfants. Il faudrait peut-être regarder le film "Idiocratie" avant qu'il ne soit trop tard, et "Brazil" aussi, une erreur est si vite arrivée... Tout système, poussé à l'extrême, mène à la catastrophe...

BàV et Peace & Love.
1  0