L'IA générative a connu une ascension fulgurante au cours des deux dernières années et a mobilisé des investissements colossaux. Mais la ferveur commence à baisser. Le cours des actions des sociétés à l'origine de la révolution de l'IA a chuté de 15 % depuis le sommet atteint le mois dernier. Un nombre croissant d'investisseurs craignent que le rendement ne soit pas à la hauteur des milliards injectés. En outre, les experts s'interrogent sur les limites des grands modèles de langage (LLM). Toutefois, certains disent que les applications à forte valeur ajoutée arrivent et que le ralentissement est la preuve que cette technologie finira par s'imposer. Ont-ils raison ?L'IA générative ne parvient pas à suivre le rythme intense du battage médiatique
Il apparaît de plus en plus clairement que la machine à faire du battage médiatique sur l'IA générative commence à ralentir. Les grandes entreprises technologiques ont dépensé des dizaines de milliards de dollars pour développer de modèles d'IA depuis le début du boom de l'IA, mais très peu d'entreprises les utilisent réellement. Selon les chiffres du Bureau du recensement des États-Unis, seuls 4,8 % des entreprises utilisent des modèles d'IA pour produire des biens et des services, contre 5,4 % au début de l'année. C'est à peu près la même proportion qui a l'intention de le faire au cours au cours de l'année prochaine.
Les percées réalisées dans le domaine de l'IA générative, en particulier dans les LLM, ont captivé l'imagination du monde entier et donné lieu à des affirmations extravagantes sur les capacités et le potentiel de l'IA. Cela dit, le problème de nombreux modèles actuels est qu'ils ne sont tout simplement pas assez puissants pour être tangibles. Une étude publiée la semaine dernière par le groupe de réflexion RAND révèle que 80 % des projets d'IA échouent, soit plus du double du taux enregistré pour les autres projets. De nombreux dirigeants se plaignent, expliquant que les retombées des projets d'IA sont "lamentables".
Le rapport énumère des difficultés liées à l'IA générative, allant des investissements élevés dans les données et l'infrastructure de l'IA au manque de talents humains nécessaires. Les systèmes d'IA générative arrivent à résoudre des tests très complexes d'admission à l'université, mais échouent à des tâches très simples. Il est donc difficile de juger du potentiel de ces technologies, ce qui conduit à une fausse confiance dans l'IA et, en fin de compte, à l'échec des projets.
Prenons l'exemple de la tentative de McDonald's d'automatiser les commandes au volant à l'aide de l'IA, qui est devenue virale sur TikTok après avoir échoué de manière spectaculaire. Il y a également eu les efforts du gouvernement américain pour créer des systèmes permettant de résumer les soumissions publiques et de calculer les droits à l'aide sociale, qui ont également été abandonnés. Les LLM ne sont tout simplement pas fiables en raison des hallucinations.
Une autre étude de l'université Cornell a montré que les capacités des LLM tels que le GPT-4 ne correspondent pas toujours à ce que les gens attendent d'eux. En particulier, les modèles les plus performants n'ont pas obtenu les résultats escomptés dans des situations à fort enjeu où des réponses incorrectes pouvaient être catastrophiques. L'étude a également montré que les modèles peuvent induire une fausse confiance chez leurs utilisateurs, ce qui peut être dangereux.
En raison du fait que les LLM répondent couramment aux requêtes, les humains peuvent tirer des conclusions trop optimistes sur leurs capacités et les déployer dans des situations pour lesquelles ils ne sont pas adaptés. L'expérience des projets réussis montre qu'il est difficile de faire en sorte qu'un modèle génératif donne réellement des réponses précises à l'aide d'invites humaines. En effet, l'interrogation des LLM a introduit une nouvelle aptitude imprévue.
Par exemple, le système de tutorat Khanmigo de la Khan Academy a souvent révélé les bonnes réponses à des questions alors qu'on lui avait demandé de ne pas le faire. Bien que l'IA ait fait des progrès étonnants, il est essentiel de se rappeler qu'il s'agit toujours d'une technologie dotée de capacités et de contraintes dans des domaines tels que le raisonnement de bon sens, la compréhension du contexte et la généralisation des connaissances à d'autres tâches.
L'évolution de l'IA répond-elle au "cycle de l'engouement" des innovations ?
Le cycle de l'engouement (hype cycle) est un terme popularisé par le cabinet d'études Gartner et qui est bien connu dans la Silicon Valley. Après une période initiale d'euphorie irrationnelle et de surinvestissement, les nouvelles technologies en vogue entrent dans le "creux de la désillusion" où les sentiments se dégradent. Tout le monde commence à s'inquiéter du fait que l'adoption de la technologie se fait trop lentement, alors que les bénéfices sont difficiles à obtenir. Cependant, comme la nuit succède au jour, la technologie fait son grand retour. Les applications ayant une forte valeur ajoutée commencent à apparaître.
Les investissements qui ont accompagné la vague d'euphorie permettent de développer massivement les infrastructures, ce qui pousse la technologie vers l'adoption par le grand public. Alors, le cycle de l'engouement est-il un guide utile pour l'avenir de l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

à tous,