
Je n'aime pas lire les contenus manifestement générés par l'IA sur Twitter. Il existe un terme péjoratif pour désigner ce phénomène : « AI slop », qui signifie en gros « contenu généré par l'IA se présentant comme humain », ou même simplement « contenu indésirable généré par l'IA ». Mais je n'ai aucun problème à lire des contenus générés par l'IA lorsque je discute avec Copilot ou ChatGPT. Pourquoi ?
Il est important d'avoir une bonne théorie sur l'AI slop pour plusieurs raisons. Tout d'abord, il est intéressant de se demander pourquoi les réponses de l'IA semblent acceptables ou grossières selon le contexte. Ensuite, si vous développez des produits avec l'IA, il est préférable de ne pas les présenter comme de l'AI slop.
Qu'est-ce que le slop ?
Tout le monde n'est pas gêné par le slop de l'IA. On peut supposer que les personnes qui créent ou achètent des machines de slop de l'IA (des bots automatisés d'engagement LinkedIn, par exemple) ne trouvent pas cela dégoûtant, sinon elles ne les trouveraient pas utiles. Il semble également y avoir un groupe de personnes sur Reddit et ailleurs qui se font un plaisir de se copier-coller du contenu généré par l'IA. Pourquoi certaines personnes détestent-elles le slop de l'IA et d'autres non ?
Personnellement, je suis très gêné par les contenus médiocres écrits, mais pas par l'art généré par l'IA. Je n'aime pas particulièrement la plupart des œuvres d'art générées par l'IA que j'ai vues, mais elles ne me dégoûtent pas autant que les écrits générés par l'IA. Pourquoi ? Je pense que je n'ai tout simplement pas une façon particulièrement attentive de regarder l'art, qu'il soit humain ou généré par l'IA. Cependant, je lis les contenus générés par l'IA très différemment des contenus générés par des humains. Je consacre beaucoup plus d'efforts à la lecture de contenus humains : j'essaie de me faire une idée de l'auteur, de son point de vue et de son style, et de ce qu'il pourrait dire sur d'autres sujets. Lorsque je lis un contenu dont je sais qu'il est généré par l'IA, je le lis beaucoup plus rapidement et je ne prête aucune attention à la personnalité derrière l'écriture (car il n'y en a pas). Au lieu de cela, je me contente de parcourir les points clés et les idées principales.
Commencer par lire du contenu humain, puis devoir passer à la lecture de contenu généré par l'IA est un changement mental désagréable. Je me sens dupé : comme si on m'avait demandé de consacrer beaucoup d'efforts à quelque chose qui, au final, n'avait aucune importance. Pire encore, il y a un effet « uncanny valley », où quelque chose qui m'intéressait sur le plan humain s'avère ne pas être tout à fait humain. Je pense que les personnes qui sont gênées par l'art généré par l'IA abordent l'art généré par l'homme de manière plus délibérée, et sont donc rebutées par l'art généré par l'IA par surprise pour la même raison.
En résumé : le slop est mauvais parce qu'il est très désagréable de passer mentalement d'une interaction humain-humain à une interaction humain-machine. Si vous partez d'un état d'esprit humain-machine (comme lorsque vous utilisez ChatGPT), ou si vous n'êtes jamais dans un état d'esprit humain-humain (comme moi lorsque je ne m'intéresse que superficiellement à l'art), il n'y a pas de problème.
Pourquoi le contenu généré par l'IA ne peut pas être abordé à un niveau humain
Un défenseur de l'IA pourrait répondre ici qu'un bon contenu généré par l'IA mérite d'être abordé, qu'il y ait ou non un humain derrière. Le fait qu'un texte soit écrit par un humain n'a rien de magique qui le rende meilleur ou pire. C'est vrai ! Mais un bon contenu généré par l'IA ne semble toujours pas assez humain pour sortir de la vallée dérangeante. Je pense que cela est assez évident, mais je vais tout de même donner trois raisons pour l'expliquer.
Premièrement, le comportement naturel des modèles d'IA est de vous donner la réponse médiane à votre question, c'est-à-dire la réponse la plus conventionnelle et la moins controversée. C'est très bien lorsque vous découvrez un nouveau domaine (par exemple, le fonctionnement de l'anatomie des mouches). Mais ce n'est pas ainsi que s'exprime un être humain intéressant.
Deuxièmement, les modèles d'IA - probablement en raison du processus RLHF - ont historiquement tendance à commencer et à terminer leurs réponses par des platitudes verbeuses. C'est comme la blague des Simpsons où Bart improvise complètement son exposé scolaire et dit « en conclusion, la Libye est une terre de contrastes ». Dans un bon texte humain, le début et la fin d'un article sont les parties les plus denses en contenu ; dans les réponses de l'IA, ce sont les parties les moins riches en contenu. Je pense en fait que cela s'est amélioré, car les laboratoires d'IA ont déployé des efforts considérables pour éviter ce problème particulier. Lorsque vous posez des questions à GPT-4o aujourd'hui, il va droit au but. Mais de nombreux modèles open source continuent de s'exprimer ainsi, et c'est encore le cas des bots IA actuels.
Troisièmement, il est impossible de construire un modèle cohérent de l'auteur lorsque l'on lit plusieurs contenus générés par l'IA. Lorsque je lis un blog que j'aime, par exemple celui de Dan Luu, je me fais une idée de qui il est (ou du moins de la façon dont il se présente dans ses articles). Je développe un modèle de ce que je pense être son domaine d'expertise (travail dans de grandes entreprises, optimisation, travail sur la performance) et de ce qui, selon moi, ne relève pas de son expertise (création de start-ups, front-end). Je prête beaucoup d'attention aux points sur lesquels je suis toujours d'accord avec lui et à ceux sur lesquels je ne le suis pas. Lorsqu'il écrit sur un domaine dans lequel il est expert, mais sur lequel j'ai tendance à ne pas être d'accord avec lui, je suis enthousiaste, car je suis presque certain d'apprendre quelque chose. Vous ne pouvez rien faire de tout cela avec du contenu généré par l'IA, car il n'y a personne derrière. Les réponses proviennent de différentes parties d'un espace latent massif et incompréhensible, sans aucune garantie de cohérence.
Je pense que de meilleurs modèles pourraient éviter les deux premiers problèmes. Mais j'ai du mal à voir comment le contenu généré par l'IA pourrait éviter le troisième. Je pense que le point de vue le plus optimiste à cet égard est que cela n'aura pas d'importance, car la résolution des deux premiers problèmes rendra le contenu généré par l'IA suffisamment humain. Peut-être !
Résumé
- Il est étrange que lire les bots IA sur Twitter soit tellement moins agréable que de discuter avec ChatGPT.
- Je pense que cela s'explique par le fait que le passage d'une interaction homme-homme à une interaction homme-machine donne une impression désagréable, comme dans le phénomène de la vallée dérangeante.
- Si vous développez des produits dans lesquels les utilisateurs liront les réponses de l'IA, je vous recommande de bien mettre en évidence le fait qu'ils discutent avec une IA (par exemple, en utilisant des avatars de robots plutôt que des avatars humains, etc.).
Source : "Why does AI slop feel so bad to read?"
Et vous ?


Voir aussi :



Vous avez lu gratuitement 1 857 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.