IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Seuls trois types de produits d'IA fonctionnent réellement
Par Sean Goedecke

Le , par Sean Goedecke

3PARTAGES

4  0 
Seuls trois types de produits d'IA fonctionnent réellement, par Sean Goedecke

Le tout premier produit basé sur le LLM, ChatGPT, offrait simplement la possibilité de discuter avec le modèle lui-même : en d'autres termes, il s'agissait d'un simple chatbot. Ce produit reste de loin le produit LLM le plus populaire.

En réalité, compte tenu des sommes investies dans ce secteur, il est surprenant de constater que tant de « nouveaux produits IA » ne sont que des chatbots. À ma connaissance, seuls trois types de produits IA fonctionnent actuellement.

Les chatbots

Au cours des deux premières années du boom de l'IA, tous les produits LLM étaient des chatbots. Ils étaient commercialisés sous différentes marques (le LLM connaissait peut-être vos e-mails ou les articles du service d'assistance d'une entreprise), mais le produit de base était simplement la possibilité de parler en langage naturel à un LLM.

Le problème avec les chatbots, c'est que le meilleur produit chatbot est le modèle lui-même. La plupart des raisons pour lesquelles les utilisateurs veulent parler à un LLM sont génériques : ils veulent poser des questions, obtenir des conseils, confesser leurs péchés ou faire l'une des centaines de choses qui n'ont rien à voir avec votre produit en particulier.

En d'autres termes, vos utilisateurs se contenteront d'utiliser ChatGPT. Les laboratoires d'IA ont deux avantages décisifs sur vous : premièrement, ils auront toujours accès aux modèles les plus avancés avant vous ; deuxièmement, ils peuvent développer leur chatbot en même temps que le modèle lui-même (à l'instar d'Anthropic qui forme spécifiquement ses modèles pour qu'ils soient utilisés dans Claude Code, ou d'OpenAI qui forme ses modèles pour qu'ils soient utilisés dans Codex).

Jeu de rôle explicite

Une façon pour votre chatbot de battre ChatGPT est de faire ce qu'OpenAI ne fera pas : par exemple, jouer joyeusement le rôle d'un petit ami IA ou générer du contenu pornographique. Il existe actuellement un créneau très lucratif pour ce type de produits, qui s'appuient généralement sur des modèles open source moins performants mais moins restrictifs.

Ces produits présentent les problèmes que j'ai évoqués plus haut. Mais peu importe que leurs chatbots soient moins performants que ChatGPT ou Claude : si vous êtes à la recherche d'un jeu de rôle sexuellement explicite avec une IA, et que ChatGPT et Claude ne le proposent pas, vous prendrez ce que vous trouverez.

Je pense que ce type de produit pose de sérieux problèmes éthiques. Mais même d'un point de vue pratique, il s'agit d'un segment de l'industrie susceptible d'être phagocyté par les grands laboratoires d'IA, qui n'hésitent plus à repousser les limites du contenu pour adultes. Grok Companions s'est déjà engagé dans cette voie, et Sam Altman a déclaré que les modèles OpenAI seraient plus ouverts à la génération de contenu pour adultes à l'avenir.

Chatbots avec outils

Il existe une légère variante des chatbots qui donne des outils au modèle : ainsi, au lieu de simplement discuter avec votre calendrier, vous pouvez demander au chatbot de réserver des réunions, etc. Ce type de produit est généralement appelé « assistant IA ».

Cela ne fonctionne pas bien, car les utilisateurs avertis peuvent manipuler le chatbot pour qu'il utilise des outils. Vous ne pouvez donc jamais donner à un chatbot d'assistance de véritables pouvoirs d'assistance tels que « rembourser ce client », car dès que vous le ferez, des milliers de personnes trouveront immédiatement le moyen de pirater votre chatbot pour qu'il leur donne de l'argent. Vous ne pouvez donner à vos chatbots que des outils que l'utilisateur pourrait utiliser lui-même. Dans ce cas, votre chatbot est en concurrence avec la facilité d'utilisation de votre produit réel et risque fort de perdre.

Pourquoi votre chatbot perdra-t-il ? Parce que le chat n'est pas une bonne interface utilisateur. Les utilisateurs ne veulent tout simplement pas taper « hé, pouvez-vous augmenter la taille de la police pour moi » alors qu'ils pourraient simplement appuyer sur « ctrl-plus » ou cliquer sur un seul bouton3.

Je pense que c'est une leçon difficile à apprendre pour les ingénieurs. Il est tentant de croire que, puisque les chatbots se sont améliorés de 100 fois, ils doivent désormais être la meilleure interface utilisateur pour de nombreuses tâches. Malheureusement, ils ont commencé par être 200 fois moins performants qu'une interface utilisateur classique, ils sont donc toujours deux fois moins performants.

Complétion

Le deuxième véritable produit d'IA est en fait sorti avant ChatGPT : GitHub Copilot. L'idée derrière le produit Copilot original (et tous ses imitateurs, comme Cursor Tab) est qu'un LLM rapide peut agir comme une fonction d'autocomplétion intelligente. En alimentant le modèle avec le code que vous tapez au fur et à mesure, un éditeur de code peut suggérer des autocomplétions qui écrivent réellement le reste de la fonction (ou du fichier) à votre place.

Le génie de ce type de produit réside dans le fait que les utilisateurs n'ont jamais à communiquer avec le modèle. Comme je l'ai dit plus haut, le chat est une mauvaise interface utilisateur. Les complétions générées par LLM permettent aux utilisateurs d'accéder à la puissance des modèles d'IA sans avoir à modifier leur flux de travail actuel : ils voient simplement le type de suggestions de saisie automatique que leur éditeur leur proposait déjà, mais en beaucoup plus puissant.

Je suis un peu surpris que les produits basés sur les complétions n'aient pas décollé en dehors du domaine du codage (où ils ont immédiatement généré un marché de plusieurs milliards de dollars). Google Docs et Microsoft Word proposent tous deux quelque chose de similaire. Pourquoi n'y a-t-il pas plus d'engouement autour de cela ?

- Peut-être que la réponse est que les personnes qui utilisent ce produit ne s'engagent pas dans les espaces IA en ligne et utilisent simplement le produit en silence ?

- Peut-être que la rédaction professionnelle normale se prête moins à l'autocomplétion que le code ? J'en doute, car une grande partie de la rédaction professionnelle normale est copiée à partir d'une fenêtre ChatGPT.

- Il se peut que les éditeurs de code disposaient déjà d'une fonction d'autocomplétion, et que les utilisateurs y étaient donc habitués. Je parie que la saisie automatique est toute nouvelle et déroutante pour de nombreux utilisateurs de Word.

Agents

Le troisième véritable produit d'IA est l'agent de codage. Les gens en parlent depuis des années, mais ce n'est qu'en 2025 que la technologie derrière les agents de codage est devenue viable (avec Claude Sonnet 3.7, puis GPT-5-Codex).

Les agents sont en quelque sorte similaires aux chatbots, dans la mesure où les utilisateurs interagissent avec eux en tapant du texte en langage naturel. Mais ils diffèrent des chatbots en ce sens que vous n'avez à le faire qu'une seule fois : le modèle prend votre demande initiale et s'en va pour la mettre en œuvre et la tester tout seul.

La raison pour laquelle les agents fonctionnent et les chatbots avec outils ne fonctionnent pas est la différence entre demander à un LLM d'appuyer sur un seul bouton pour vous et lui demander d'appuyer sur une centaine de boutons dans un ordre spécifique. Même si chaque action individuelle serait plus facile à réaliser pour un humain, les LLM agents sont désormais suffisamment intelligents pour prendre en charge l'ensemble du processus.

Les agents de codage sont tout naturellement adaptés aux agents IA pour deux raisons :

- Il est facile de vérifier les modifications en effectuant des tests ou en vérifiant si le code compile.

- Les laboratoires d'IA sont incités à produire des modèles de codage efficaces afin d'accélérer leur propre travail.

À mon avis, la question qui se pose actuellement et qui vaut plusieurs milliards de dollars est la suivante : les agents IA peuvent-ils être utiles pour d'autres tâches que le codage ? N'oubliez pas que Claude Sonnet 3.7 a été lancé il y a un peu moins de neuf mois. Pendant cette période, l'industrie technologique a réussi à créer des produits agents liés à son propre travail. Ils commencent tout juste à créer des produits agentifs pour d'autres tâches. Il reste à voir si cela sera couronné de succès et à quoi ressembleront ces produits.

Recherche

Il existe un autre type d'agent qui n'est pas lié au codage : l'agent de recherche. Les LLM sont particulièrement performants pour des tâches telles que « parcourir dix pages de résultats de recherche » ou « rechercher des mots-clés dans cet énorme ensemble de données pour trouver des informations sur un sujet particulier ». J'utilise beaucoup cette fonctionnalité pour toutes sortes de choses.

Il existe quelques exemples de produits d'IA basés sur cette capacité, comme Perplexity. Dans les grands laboratoires d'IA, cette fonctionnalité a été intégrée aux produits de chatbot : la « recherche approfondie » d'OpenAI est passée d'une fonctionnalité distincte à une fonctionnalité automatique de GPT-5-Thinking, par exemple.

Je pense qu'il y a très certainement un potentiel ici pour des agents de recherche spécialisés dans un domaine particulier (par exemple, en médecine ou en droit).

Flux

Si les agents sont le produit d'IA le plus récent à avoir connu le succès, les flux générés par l'IA pourraient bien être la prochaine étape. Les laboratoires d'IA expérimentent actuellement des moyens de produire des flux infinis de contenu personnalisé pour leurs utilisateurs :

- Mark Zuckerberg a évoqué la possibilité de remplir Instagram avec du contenu généré automatiquement

- OpenAI a récemment lancé un flux vidéo basé sur Sora.

- OpenAI a également commencé à orienter les utilisateurs vers « Pulse », une mise à jour quotidienne personnalisée intégrée au produit ChatGPT.

- xAI travaille à l'intégration d'un flux infini d'images et de vidéos dans Twitter.

Jusqu'à présent, aucun de ces projets n'a encore décollé. Mais le défilement des flux est devenu le principal moyen d'interaction des utilisateurs avec la technologie en général, ce qui représente un potentiel énorme. Il ne me semble pas du tout improbable que dans cinq ans, la plupart des internautes passeront une grande partie de leur journée à faire défiler un flux généré par l'IA.

À l'instar d'un produit basé sur les complétions, l'avantage d'un flux est que les utilisateurs n'ont pas à interagir avec un chatbot. Les données entrées dans le modèle proviennent de la manière dont l'utilisateur interagit avec le flux (likes, vitesse de défilement, temps passé à regarder un élément, etc.). Les utilisateurs peuvent profiter des avantages d'un flux généré par un LLM (le cas échéant) sans avoir à modifier leurs habitudes de consommation.

La technologie qui sous-tend les flux infinis générés par l'homme est déjà une application mature de l'apprentissage automatique de pointe. Lorsque vous interagissez avec Twitter ou LinkedIn, vous interagissez avec un modèle, sauf qu'au lieu de générer du texte, il génère des listes de publications d'autres personnes. En d'autres termes, les flux intègrent déjà de manière sophistiquée vos goûts et vos aversions personnels. Le passage de « l'utilisation de cette intégration pour faire apparaître du contenu pertinent » à « l'utilisation de cette intégration pour générer du contenu pertinent » pourrait en effet être très court.

Je suis assez méfiant à l'égard des flux infinis de vidéos générées par l'IA, mais je pense que d'autres types de flux infinis sont un type de produit sous-exploré. En fait, j'ai moi-même créé un projet amateur basé sur un flux, appelé Autodeck. L'idée était d'utiliser un flux généré par l'IA pour créer des cartes de répétition espacée pour l'apprentissage. Cela fonctionne plutôt bien ! Il est encore assez utilisé par les personnes qui l'ont découvert via mon blog (ainsi que par moi-même et mon partenaire).

Jeux

Les jeux vidéo basés sur l'IA constituent un autre type de produit généré par l'IA dont on parle depuis des années. Les efforts les plus spéculatifs dans ce domaine ont été des simulations de mondes complets comme Genie de DeepMind, mais des recherches ont également été menées pour utiliser l'IA afin de générer un sous-ensemble de contenu de jeu, comme les jeux purement textuels tels que AI Dungeon ou ce mod Skyrim qui ajoute des dialogues générés par l'IA. De nombreux autres développeurs de jeux ont intégré des ressources artistiques ou audio générées par l'IA dans leurs jeux.

Pourrait-il y avoir un produit transformateur qui intègre les LLM dans les jeux vidéo ? Je ne pense pas qu'ARC Raiders puisse être considéré comme un « produit IA » simplement parce qu'il utilise des lignes vocales générées par l'IA, et les projets plus ambitieux n'ont pas encore vraiment décollé. Pourquoi ?

Une des raisons pourrait être que le développement des jeux prend tout simplement beaucoup de temps. Lorsque Stardew Valley a conquis le monde en 2016, je m'attendais à une avalanche de jeux de ferme pixel art similaires, mais cela n'a vraiment commencé à se produire qu'en 2018 et 2019. C'est le temps qu'il faut pour créer un jeu ! Ainsi, même si quelqu'un a une très bonne idée pour un jeu vidéo basé sur un LLM, il faudra probablement encore attendre un an ou deux avant sa sortie.

Une autre raison est que de nombreux joueurs n'aiment vraiment pas l'IA. Intégrer l'IA générative dans votre jeu est une controverse garantie (même si cela ne semble pas être fatal, comme le montre le succès d'ARC Raiders). Je ne serais pas surpris que certains développeurs de jeux pensent simplement que cela ne vaut pas la peine de prendre le risque d'essayer une idée de jeu basée sur l'IA.

Une troisième raison pourrait être que le contenu généré n'est tout simplement pas adapté aux jeux vidéo. Il est certain que les dialogues de type ChatGPT détonnent dans la plupart des jeux vidéo. Les chatbots IA sont également assez mauvais pour mettre l'utilisateur au défi : leur post-entraînement vise uniquement à les rendre capables de satisfaire immédiatement l'utilisateur7. Néanmoins, je ne pense pas qu'il s'agisse d'un problème technique insurmontable. Il suffirait de former un modèle linguistique dans une autre direction (même si les ressources nécessaires à cela ne sont peut-être pas encore à la disposition des sociétés de jeux vidéo).

Résumé

À mon avis, il existe trois types de produits basés sur des modèles linguistiques qui ont du succès :

- Les chatbots comme ChatGPT, qui sont utilisés par des centaines de millions de personnes pour une grande variété de tâches.

- Les produits complétion de code tels que Copilot ou Cursor Tab, qui sont très spécialisés mais dont la valeur est immédiatement perceptible

- Les produits agentifs tels que Claude Code, Codex, Cursor et Copilot Agent mode, qui n'ont vraiment commencé à fonctionner qu'au cours des six derniers mois

En outre, il existe deux types de produits basés sur le LLM qui ne fonctionnent pas encore mais qui pourraient bientôt le faire :

- Les flux générés par LLM

- Les jeux vidéo basés sur du contenu généré par l'IA

Presque tous les produits d'IA ne sont que des chatbots (par exemple, le service client alimenté par l'IA). Ceux-ci souffrent de devoir rivaliser avec ChatGPT, qui est un produit général supérieur, et de ne pas pouvoir utiliser d'outils puissants, car les utilisateurs peuvent facilement pirater le modèle.

Les produits agentifs sont nouveaux et ont connu un succès fulgurant dans le domaine du codage. Il reste à voir à quoi ils ressembleront dans d'autres domaines, mais nous verrons très certainement apparaître des agents de recherche spécifiques à certains domaines, comme le droit. Les agents de recherche dans le domaine du codage ont également connu un certain succès (par exemple, les produits de révision de code ou d'analyse de sécurité automatisée).

Les flux infinis générés par l'IA n'ont pas encore rencontré le succès, mais des centaines de millions de dollars y sont actuellement investis. Sora d'OpenAI sera-t-il un véritable concurrent de Twitter ou d'Instagram, ou ces entreprises lanceront-elles leur propre produit de flux généré par l'IA ?

Les jeux générés par l'IA semblent être une bonne idée, mais il n'existe toujours pas de stratégie claire sur la manière d'intégrer les LLM dans un jeu vidéo. Les modèles de monde purs, où l'ensemble du jeu est généré image par image, sont des démonstrations intéressantes, mais ils sont loin d'être des produits.

Je n'ai pas encore mentionné la génération d'images. S'agit-il d'une fonctionnalité d'un chatbot ou d'un outil à part entière ? Franchement, je pense que la génération d'images par IA relève encore davantage du jouet que du produit, mais elle est très largement utilisée. Il existe probablement un terrain fertile pour des produits dans ce domaine, à condition qu'ils parviennent à se différencier de la génération d'images intégrée à ChatGPT.

D'une manière générale, on a l'impression d'être aux débuts de l'internet. Les LLM ont un énorme potentiel, mais nous continuons pour l'essentiel à créer des copies du même produit. Il doit y avoir des idées de produits vraiment simples qui, avec le recul, nous feront dire « c'est tellement évident, je me demande pourquoi ils ne l'ont pas fait tout de suite ».

Source : "Only three kinds of AI products actually work"

Et vous ?

Pensez-vous que ces affirmations sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Pourquoi les mauvais contenus générés par l'IA ou "AI slop" sont-ils si désagréables à lire ? par Sean Goedecke

Mon nouvel EDI IA préféré : Cursor, par Mensur Durakovic

L'IA agentique expliquée : Un cadre philosophique pour comprendre les agents d'IA, par David Barkol
Vous avez lu gratuitement 14 084 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !