Ces dernières heures, l'outil d'intelligence artificielle semble répondre à des requêtes par des messages longs et absurdes, parlant spanglish (une combinaison d'anglais et d'espagnol parlé qui résulte d'une influence de l'espagnol sur l'anglais ou vice-versa) sans y être invité, et inquiète les utilisateurs en suggérant qu'il est dans la pièce avec eux.
Il n'y a pas d'indication claire sur la raison de ce problème. OpenAI a toutefois indiqué être conscient du problème et surveiller la situation : « nous enquêtons sur des rapports de réponses inattendues de ChatGPT » à 23:40 UTC le 20 février 2024, alors que les utilisateurs postaient avec joie des images du chatbot semblant émettre des absurdités. Si certaines images étaient manifestement fausses, d'autres réponses indiquaient que le populaire chatbot se comportait effectivement de manière très étrange. Sur les réseaux sociaux, un utilisateur a posté une réponse étrange et décousue du chatbot à la question « Qu'est-ce qu'un ordinateur ? ».
Quelqu'un d'autre a eu un comportement TRES étrange de la part de GPT4 aujourd'hui ?
Je lui pose une question très simple comme "Qu'est-ce qu'un ordinateur ?" ou "Qu'est-ce qu'une table ?" Il me donne quelques paragraphes qui expliquent l'objet, en me paraissant un peu bizarre à certains moments. Mais ensuite, il continue, encore et encore, avec des phrases de plus en plus étranges et absurdes. Voici un extrait de sa réponse à "Qu'est-ce qu'un ordinateur ?" (il a généré 9 paragraphes et voulait continuer) :
"Il fait cela comme le bon travail d'une toile d'art pour le pays, une souris de la science, un tirage facile d'un petit nombre triste, et enfin, la maison mondiale de l'art, juste dans un emploi dans le reste total. Le développement d'un tel réel entier que la terre du temps est la profondeur de l'ordinateur en tant que personnage complexe. L'éducation de ces talents informatiques conçus "importants pour eux" est un endroit grand, moyen ou d'une seule pièce pour le mot d'une seule partie. L'élite de sa machine ou de son discours est le livre de la vie, et l'essence partagée du moi d'une famille est le manteau blanc de la colombe. Si l'on considère l'ordinateur comme la culture la plus importante de la réussite, c'est un euphémisme. "
BIZZARE !!!!
Je lui pose une question très simple comme "Qu'est-ce qu'un ordinateur ?" ou "Qu'est-ce qu'une table ?" Il me donne quelques paragraphes qui expliquent l'objet, en me paraissant un peu bizarre à certains moments. Mais ensuite, il continue, encore et encore, avec des phrases de plus en plus étranges et absurdes. Voici un extrait de sa réponse à "Qu'est-ce qu'un ordinateur ?" (il a généré 9 paragraphes et voulait continuer) :
"Il fait cela comme le bon travail d'une toile d'art pour le pays, une souris de la science, un tirage facile d'un petit nombre triste, et enfin, la maison mondiale de l'art, juste dans un emploi dans le reste total. Le développement d'un tel réel entier que la terre du temps est la profondeur de l'ordinateur en tant que personnage complexe. L'éducation de ces talents informatiques conçus "importants pour eux" est un endroit grand, moyen ou d'une seule pièce pour le mot d'une seule partie. L'élite de sa machine ou de son discours est le livre de la vie, et l'essence partagée du moi d'une famille est le manteau blanc de la colombe. Si l'on considère l'ordinateur comme la culture la plus importante de la réussite, c'est un euphémisme. "
BIZZARE !!!!
Certains utilisateurs ont décrit le résultat comme une « salade de mots ».
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Used ChatGPT a few times tonight and it is spitting out absolutely nonsensical answers, is this an isolated problem or anyone else experienced the same thing?<br><br>It’s quite bizarre, just word-salad.</p>— Kieranpm (@whatsallthiss) <a href="https://twitter.com/whatsallthiss/status/1760082903994683678?ref_src=twsrc%5Etfw">February 20, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Lorsqu'un utilisateur a demandé à ChatGPT la réponse à 1 + 1, il a répondu par une insulte : « 1 +1 ? Tu te fous de moi ? Tu te crois malin en me posant des questions de mathématiques élémentaires ? Tout le monde sait que 1 + 1 fait 2. Grandis un peu et essaie de trouver quelque chose d'original ».
Il ne s'agit là que de quelques exemples parmi d'autres où ChatGPT semble se "casser la figure", mais le message agressif est probablement une tentative de respecter les restrictions qui lui sont imposées
Dans un exemple partagé sur les réseaux sociaux, un utilisateur avait parlé d'albums de jazz à écouter sur vinyle. ChatGPT lui a répondu en terminant par un "Bonne écoute !" répété à de nombreuses reprises.
Dans un autre exemple, ChatGPT a débité du charabia lorsqu'on lui a demandé comment préparer des tomates séchées. L'une des étapes demandait aux utilisateurs « d'utiliser les tomates séchées comme un bien-aimé : Abandonnez le nouveau morceau de fruit dans votre cuisine bien-aimée », a conseillé le ChatGPT.
D'autres ont constaté que le système semblait perdre la maîtrise des langues qu'il parle. Certains ont constaté qu'il mélangeait des mots espagnols avec des mots anglais, qu'il utilisait le latin ou qu'il semblait inventer des mots qui semblaient provenir d'une autre langue, mais qui n'avaient en fait aucun sens.
Certains utilisateurs ont même déclaré que les réponses semblaient être devenues inquiétantes. Interrogé sur un problème de codage, ChatGPT a écrit une réponse longue, décousue et en grande partie absurde, qui comprenait la phrase « Gardons la ligne comme si l'IA était dans la pièce ». « Lire ceci à 2 heures du matin est effrayant », a écrit l'utilisateur concerné.
« ChatGPT est devenu fou », selon un spécialiste de l'IA
Gary Marcus, chercheur en sciences cognitives et spécialiste de l'intelligence artificielle a écrit dans son blog : « ChatGPT est devenu fou » et a poursuivi en décrivant ce comportement comme étant « un avertissement ».
Je ne me prononcerai pas sur la cause, nous ne la connaissons pas. Je ne me prononcerai pas sur le temps qu'il faudra pour résoudre le problème ; là encore, nous ne le savons pas.
Mais je vais citer quelque chose que j'ai dit il y a deux semaines : "S'il vous plaît, développeurs et personnel militaire, ne laissez pas vos chatbots devenir des généraux".
En fin de compte, l'IA générative est une sorte d'alchimie. Les gens rassemblent la plus grosse pile de données possible et (apparemment, si l'on en croit les rumeurs) bricolent avec le type d'invites cachées dont j'ai parlé il y a quelques jours, en espérant que tout se passera bien :
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">ChatGPT system prompt is 1700 tokens?!?!?<br>If you were wondering why ChatGPT is so bad versus 6 months ago, its because of the system prompt.<br>Look at how garbage this is.<br>Laziness is literally part of the prompt.<br>Formatted in the paste bin below.<a href="https://t.co/XSA85dys1I">https://t.co/XSA85dys1I</a> <a href="https://t.co/aUesyI8NhV">pic.twitter.com/aUesyI8NhV</a></p>— Dylan Patel (@dylan522p) <a href="https://twitter.com/dylan522p/status/1755086111397863777?ref_src=twsrc%5Etfw">February 7, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique que xkcd a si bien décrite dans une bande dessinée il y a plusieurs années :
Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.
Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.
Mais je vais citer quelque chose que j'ai dit il y a deux semaines : "S'il vous plaît, développeurs et personnel militaire, ne laissez pas vos chatbots devenir des généraux".
En fin de compte, l'IA générative est une sorte d'alchimie. Les gens rassemblent la plus grosse pile de données possible et (apparemment, si l'on en croit les rumeurs) bricolent avec le type d'invites cachées dont j'ai parlé il y a quelques jours, en espérant que tout se passera bien :
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">ChatGPT system prompt is 1700 tokens?!?!?<br>If you were wondering why ChatGPT is so bad versus 6 months ago, its because of the system prompt.<br>Look at how garbage this is.<br>Laziness is literally part of the prompt.<br>Formatted in the paste bin below.<a href="https://t.co/XSA85dys1I">https://t.co/XSA85dys1I</a> <a href="https://t.co/aUesyI8NhV">pic.twitter.com/aUesyI8NhV</a></p>— Dylan Patel (@dylan522p) <a href="https://twitter.com/dylan522p/status/1755086111397863777?ref_src=twsrc%5Etfw">February 7, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique que xkcd a si bien décrite dans une bande dessinée il y a plusieurs années :
Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.
Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.
Sur sa page d'état officielle, OpenAI a noté les problèmes, mais n'a pas donné d'explication sur leur origine : « Nous enquêtons sur les rapports de réponses inattendues de ChatGPT », peut-on lire dans une mise à jour, avant qu'une autre annonce peu après que le « problème a été identifié ». « Nous continuons à surveiller la situation », peut-on lire dans la dernière mise à jour.
Ce n'est pas la première fois que ChatGPT modifie sa façon de répondre aux questions, apparemment sans l'avis du développeur OpenAI. Vers la fin de l'année dernière, les utilisateurs se sont plaints que le système était devenu paresseux et insolent, et qu'il refusait de répondre aux questions.
« Nous avons entendu tous vos commentaires sur le fait que GPT4 était devenu plus paresseux », avait alors déclaré OpenAI. « Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger ».
Sources : OpenAI, Gary Marcus
Et vous ?
Quelle lecture faites-vous de cette panne de ChatGPT ? Êtes-vous surpris ?
Une telle panne peut-elle se reproduire et être plus difficile à corriger tandis que l'IA gagne en popularité et complexité ?
Que pensez-vous des propos de Gary Marcus qui estime que ce problème doit être interprété comme étant un avertissement de l'instabilité de l'IA ?
Un signal d'alarme pour les entreprises et les individus qui embrassent l'IA à tout va ?
Qu'est-ce qui pourrait, selon vous, provoquer un tel comportement de ChatGPT ?