
Alors que la technologie de l'IA franchit les barrières à une vitesse qui fascine encore la plupart d'entre nous, une nouvelle enquête souligne à quel point cette technologie est brillante pour confondre les gens.
Le nouveau rapport de ToolTester indique que les rédacteurs doivent être vigilants car des outils comme ChatGPT et d'autres dans le domaine de l'IA produisent du contenu aussi bien que des humains normaux. Et ce, à un niveau tel que l'adulte américain moyen a du mal à distinguer le contenu de l'IA des autres.
Nous sommes convaincus que ce n'est pas le genre de commentaires qu'un rédacteur professionnel aimerait entendre, compte tenu des efforts considérables qu'il déploie pour perfectionner son art.
ToolTester a récemment mené deux enquêtes différentes qui ont pris en compte les textes générés par des humains et ceux produits par des outils d'IA et édités par des humains. À la surprise générale, c'est la version 3.5 de la technologie ChatGPT qui a été utilisée pour mener à bien cette tâche.
Ensuite, une autre enquête a été réalisée en prenant en compte la dernière génération de ChatGPT. Une fois de plus, une comparaison similaire a été faite, en utilisant des invites similaires. C'est alors que nous avons constaté que plus de 50 % des personnes interrogées pensaient que le contenu produit par la version 3.5 de ChatGPT avait été générée par un être humain. Ce chiffre est passé à 63,5 % avec la technologie GPT-4. Ces résultats prouvent que la technologie GPT-4 est beaucoup plus susceptible de convaincre ou de tromper les gens que la technologie 3.5.
L'étude a également montré que les copies générées par une technologie d'IA sont beaucoup plus difficiles à détecter, en fonction du format d'écriture utilisé. Un grand nombre de contenus liés à la santé sont ceux qui ont le mieux réussi à tromper les internautes et qui donnent l'impression d'avoir été rédigés par des humains.
Cela montre bien que de nombreuses personnes ont cru que le texte rédigé par l'IA était en fait écrit par des humains, alors que ce n'était pas le cas. En revanche, les personnes qui sont plus familiarisées avec l'utilisation des outils d'IA sont nettement moins susceptibles de se laisser abuser. Elles finissent par être induites en erreur dans la plupart des cas. Et ceux qui n'utilisent jamais de tels outils d'IA générative ont encore plus de mal à voir la différence entre le contenu de l'IA et celui produit par les humains.
Avec l'âge, on acquiert de la sagesse et cela vaut également la peine d'être remarqué. Les personnes âgées de plus de 65 ans sont celles qui ont le plus de chances de distinguer un contenu d'IA d'un texte écrit par un humain. En revanche, les personnes âgées de 18 à 24 ans ont tendance à penser que les écrits de l'IA sont produits par des humains.
Il s'agit également de faire confiance à un plus grand nombre d'éditeurs de contenu qu'à d'autres. Aujourd'hui, beaucoup de gens ont confiance dans le fait que les principaux médias produiront des articles rédigés par des humains, et beaucoup ne veulent pas abuser de cette confiance. La confiance joue donc un rôle important dans ce domaine également.
Source : ToolTester
Et vous ?




Voir aussi




Vous avez lu gratuitement 9 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.