IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Réponses inattendues de ChatGPT : OpenAI pointe du doigt une optimisation de l'expérience utilisateur
Qui a « introduit un bogue dans la manière dont le modèle traite le langage »

Le , par Stéphane le calme

1PARTAGES

9  0 
ChatGPT, l'outil de génération de texte dl'OpenAI, a connu un mystérieux problème mardi. Les résultats étaient parfois amusants, rarement terrifiants, mais ils montrent les dangers d'une trop grande confiance dans les nouvelles technologies, qui peuvent se dérégler de manière inattendue. OpenAI indique avoir corrigé l'incident et a communiqué les résultats de son enquête.

Mardi, des utilisateurs ont commencé à publier sur les réseaux sociaux des captures d'écran de ce qu'ils considèrent comme des réponses étranges à des questions posées au chatbot. Certaines réponses étaient rédigées en "spanglish", un mélange d'espagnol et d'anglais, tandis que d'autres répétaient des phrases ou étaient complètement absurdes.

ChatGPT a été créé par OpenAI, la startup d'intelligence artificielle basée à San Francisco et dirigée par Sam Altman, dont la valeur est aujourd'hui estimée à 80 milliards de dollars. Il s'agit d'une évolution surprenante pour un produit aussi populaire, qui survient quelques jours seulement après qu'OpenAI a dévoilé Sora, un outil de génération de vidéo à partir d'une entrée texte.

ChatGPT est alimenté par un grand modèle de langage, un système d'intelligence artificielle qui est entraîné sur des quantités massives de texte jusqu'à ce qu'il soit capable de générer lui-même un texte réaliste à partir d'une invite. De nombreuses entreprises l'ont adopté dans divers processus métiers, par exemple pour créer des chatbots de service à la clientèle.

Quelques heures après les signalements d'incidents sur les réseaux sociaux, la page d'état d'OpenAI indiquait : « Nous enquêtons sur des rapports de réponses inattendues de ChatGPT ». Puis, la société a déclaré qu'elle avait remédié au problème et qu'elle continuerait à surveiller la situation.

Il y a quelques heures, l'entreprise a expliqué ce qui s'est passé :

Le 20 février 2024, une optimisation de l'expérience utilisateur a introduit un bogue dans la manière dont le modèle traite le langage.

Les LLM génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur "langage" consiste en des nombres qui correspondent à des jetons.

Dans ce cas, le problème se situe à l'étape où le modèle choisit ces nombres. Comme s'il s'agissait d'une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n'avaient aucun sens. Plus techniquement, les noyaux d'inférence produisaient des résultats incorrects lorsqu'ils étaient utilisés dans certaines configurations de GPU.

Après avoir identifié la cause de cet incident, nous avons déployé un correctif et confirmé que l'incident était résolu.
Une explication loin d'être satisfaisante

Pour un incident de cette ampleur, OpenAI n'a pratiquement pas communiqué d'informations réelles.

Quelle est l'hypothèse erronée que le code a faite et qui a provoqué ce comportement erroné ? Pourquoi n'a-t-elle pas été détectée dans les nombreuses couches de tests automatisés avant qu'elle ne soit introduite dans la production ? Quels sont les changements de processus et de procédures mis en œuvre pour réduire le risque que ce type de bogue se reproduise ?

On peut supposer que tout cela se joue en interne, mais si le post-mortem d'incident est censé inspirer confiance, il faut partager certains détails, sinon cela n'a plus aucun sens. Un post-mortem d'incident rassemble les personnes pour évoquer les détails d'un incident : pourquoi il s'est produit, son impact, quelles actions ont été entreprises pour l'atténuer et le résoudre, et les actions à entreprendre pour éviter qu'un tel incident ne se reproduise.


D'ailleurs, plusieurs utilisateurs trouvent cette explication extrêmement vague :

Pour être honnête

"Le 20 février 2024, une optimisation de l'expérience utilisateur"

À ce stade, après environ 10 mots, j'ai déjà voulu arrêter de lire parce que cela commence par le "nous ne voulons que le meilleur pour nos clients", une langue de bois à la con. Quelqu'un d'autre s'est lancé dans ce genre d'exercice ? Je suis déjà conditionné à m'attendre à ce que l'entreprise qui m'envoie ce genre de message me retire une fonctionnalité, augmente ses prix ou m'énerve d'une manière ou d'une autre. Dans ce cas, c'était "ne pas donner de détails intéressants".
D'autres estiment qu'OpenAI n'a pas besoin d'aller plus loin dans les explications : « Honnêtement, je ne pense pas que nous ayons droit à une description technique approfondie. Nous sommes des utilisateurs de leur produit, ils ont fait une erreur et c'est tout. À moins qu'ils n'aient signé un accord de niveau de service, c'est juste de la merde qui arrive. Ils ne sont pas obligés de donner un aperçu technique de leur cuisine interne s'ils ne le veulent pas ».

Certains pensent que l'entreprise d'IA a suffisamment communiqué : « "dans certaines configurations de GPU", cela donne un indice sur la raison pour laquelle il n'a pas été détecté dans les tests automatisés. Il semblerait qu'il s'agisse d'un bogue de Mandel, qui est difficile à détecter dans un environnement de test ».

Quoiqu'il en soit, le problème a été suffisamment préoccupant pour que Gary Marcus, chercheur en sciences cognitives et spécialiste de l'intelligence artificielle estime que ChatGPT est « devenu fou » et que l'épisode doit être interprété comme étant un avertissement :

Je ne me prononcerai pas sur la cause, nous ne la connaissons pas. Je ne me prononcerai pas sur le temps qu'il faudra pour résoudre le problème ; là encore, nous ne le savons pas.

Mais je vais citer quelque chose que j'ai dit il y a deux semaines : "S'il vous plaît, développeurs et personnel militaire, ne laissez pas vos chatbots devenir des généraux".

En fin de compte, l'IA générative est une sorte d'alchimie. Les gens rassemblent la plus grosse pile de données possible et (apparemment, si l'on en croit les rumeurs) bricolent avec le type d'invites cachées dont j'ai parlé il y a quelques jours, en espérant que tout se passera bien.

En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique que xkcd a si bien décrite dans une bande dessinée il y a plusieurs années :


Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.

Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.
Ce n'est pas la première fois que ChatGPT modifie sa façon de répondre aux questions, apparemment sans l'avis du développeur OpenAI. Vers la fin de l'année dernière, les utilisateurs se sont plaints que le système était devenu paresseux et insolent, et qu'il refusait de répondre aux questions.

« Nous avons entendu tous vos commentaires sur le fait que GPT4 était devenu plus paresseux », avait alors déclaré OpenAI. « Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger ».

Conclusion

L'incident de mardi nous rappelle qu'une dépendance excessive à l'égard d'une technologie nouvelle et expérimentale peut parfois mal tourner. Les résultats des grands modèles de langages peuvent être peu fiables, ou relativement inutiles, d'après certains retours. Les systèmes sont également connus pour leur capacité à "halluciner" ou à produire des résultats erronés.

Source : OpenAI

Et vous ?

Que pensez-vous des explications fournies par OpenAI ? Les trouvez-vous satisfaisantes ou pas ? Pourquoi ?
Partagez-vous le point de vue de Gary Marcus qui pense que cet incident doit être interprété comme étant un avertissement ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 08/04/2024 à 17:27
Citation Envoyé par Stéphane le calme Voir le message

« L'IA pourrait remplacer toutes les formes de travail », selon Larry Summers, membre du conseil d'administration d'OpenAI
Et dire qu'il y a des gens qui vont le croire... Pour rappel, on nous avait vendu des voitures volantes et des robots pour faire les corvées à la maison pour l'an 2000, on a eu le 11 septembre. Vivement la fin de cette bulle ridicule et un retour des GPU accessible, parce qu'on sait tous qu'on va devoir travailler encore plus, pour un salaire toujours plus bas. Sauf ceux qui sont biens nés, eux ils vont apprécier
4  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/02/2024 à 20:23
M Rochain, que cela vous plaise ou pas, les définitions que j'ai donné sont des définitions de l'intelligence (la seconde étant donnée par 52 chercheurs experts dans le domaine, excusez du peu). Au même titre que 35940 autres définitions qui ne vous satisferont de toute manière jamais car, et cela m'est tout aussi frustrant, le seul consensus qu'on ait sur la question est qu'on n'en sait rien. C'est bien pour ça qu'on y met tout et n'importe quoi, et le domaine de l'IA en a hérité.

Ma réponse visait de manière indirecte à vous dire que vous n'aurez pas de réponse satisfaisante sans la chercher vous-même.

Pour ma part, les technologies d'IA dont on dispose aujourd'hui n'ont rien d'intelligent. Il s'agit d'expertise artificielle (très bon pour des tâches spécifiques) et non d'intelligence artificielle.
2  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 26/02/2024 à 17:33
Citation Envoyé par petitours Voir le message
--snip--
Donc nous sommes tous bien d'accord, ici : il faut que les téloches et autres radios arrêtent de nous bassiner en nous servant de l'IA à toutes les sauces et sur tous les sujets ou presque car
  1. c'est vraiment lassant ;
  2. on sait bien que c'est un immense foutage de gueule, juste monté en mayonnaise par les marketeux, qu'il faudrait passer par les armes.
2  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 10/03/2024 à 20:53
L'exemple de la doc Microsoft est très bon, excellente en C# avant l'arrivée de la mouture actuelle ni faite ni à faire.

On parle des difficultés, de ce que change l'IA et j'en passe mais jamais n'est abordé la question qui devrait pourtant être à la base de tout : Why ?
2  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 22/02/2024 à 23:14
Citation Envoyé par Serge Rochain Voir le message
Qu'est ce que l'intelligence selon vous tous ?
Au choix :

- un terme sans définition car aucun consensus n'a été établit, donc où chacun y met ce qu'il veut

- une capacité mentale très générale qui, entre autres, implique la capacité de raisonner, plannifier, résoudre des problèmes, penser de manière abstraite, comprendre des idées complexes, apprendre rapidement et par l'expérience. Ce n'est pas seulement du par coeur, une compétence académique spécifique, ou être bon à des tests. Cela reflète plutôt une capacité plus large et profonde pour appréhender notre environnement, se rendre compte, donner du sens aux choses, trouver ce qu'il faut faire (Gottfredson, L. S. 1997. Mainstream science on intelligence: An editorial with 52 signatories, history, and bibliography. Intelligence 24(1):13–23.)

- avoir ou montrer des compétences et connaissances génériques grace à ce qui nous a été enseigné ou ce qu'on a expérimenté (Matthieu Vergne, « Artificial Intelligence and Expertise: the Two Faces of the Same Artificial Performance Coin », technical report in Workshops at the Thirty-First AAAI Conference on Artificial Intelligence, 2017.)
1  0 
Avatar de Serge Rochain
Membre du Club https://www.developpez.com
Le 23/02/2024 à 11:07
@petit tours et autres compères
Tout cela ne présente aucun interet. prétendre référer à l'intelligence en tirant au hasard des suites de mots orientées par une statistique indiquant leur frequence d'apparition avant ou après tel autre mot n'a rien à voir avec l'intelligence. J'avais d'ailleurs déjà réaliser dans les années 60 un truc basé sur un tel principe mais évidemment beaucoup plus rustique avec une tabulatrice électromécanique Bull aussi intelligente que la chaine+plateau+pignons de roue arriere de mon vélo. La vraie supposée intelligence se trouvaient dans un jeu de cartes perforées contenant des mots qui étaient codées comme étant suceptibles de suivre certains autres mots ou pas. Je battais les cartes comme on le fait avant une partie de bellote, puis je les passais dans le lecteur de carte de la "tabu" équipée du tableau de connexion adhoc qui autorisait l'impression du mot porté sur la carte si elle suivait une autre carte qui s'était imprimée car elle avait le bon code de succession à cette dernière. Ca donnait quelquefois des résultats louffoques et d'autre fois quelque chose qui semblait être une phrase à peu près "intelligente". Et surtout ça épatait les collègues un peu naïfs qui y voyaient vraiment une intelligence de la tabulatrice électromécanique ! Mais la bonne société se faisait bien bluffé deux siècles auparavent par le canard de Vaucanson ou le joueur d'échec de la machine de "je ne sais plus qui" qui battait de bon joueurs humain, alors ?
Moi, au moins j'expliquais à qui en était interessé, le "secret" de cette "intelligence".
2  1 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 23/02/2024 à 12:27
Citation Envoyé par Serge Rochain Voir le message
Qu'est ce que l'intelligence selon vous tous ?
La capacité à "inventer une solution" à un problème.

Ex : chatGPT récite des recettes connues dans sa base, avec ± de bonheur et d'hallucination. Pas d'intelligence pour moi. ça récite du code ou des règles de chifoumi mais ça ne sait pas y jouer de manière fiable.

Une souris arrive à vous chaparder votre nourriture que vous croyiez en sécurité. Voilà de l'intelligence. Elle a dû découvrir le chemin, déjouer les protections, et s'enfuir avec le butin. Pas mal pour une petite bête. Pas facile à coder.
1  0 
Avatar de Serge Rochain
Membre du Club https://www.developpez.com
Le 26/02/2024 à 16:45
Le débat sur ce qu’est l’intelligence ne restera philosophique que tant que l’on gardera dissocié les notions de vie et d’intelligence. Je pense que l’on est devant un mur qu’il nous faut oser franchir : L’intelligence elle-même n’est que la vie. Savoir ce qu’est l’intelligence revient à savoir ce qu’est la vie.
Cela nous amène à un second mur qu’il faut aussi oser franchir :
Tant que l’on sera persuadé que la vie est apparue un beau jour à partir de matières inertes dans un milieu et des conditions très particulières on se fracassera sur ce mur car il faut oser une autre approche, très différente, infiniment différente.
Serge Rochain
2  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 26/02/2024 à 17:01
Citation Envoyé par Serge Rochain Voir le message
pas du tout ! ChatGPT n'apprend rien du tout, comme je l'ai démontré dans un message précédent.
0 je lui pose une question vérifiable en consultant une base de donnée officielle d'un organisme seul compétent sur la question
1 il affirme quelque chose de faux et pourtant vérifiable par des moyens accessibles à tout le monde
2 Je corrige sa réponse et il admet s'etre trompé et accepte la correction
3 Je lui repose la même question.
4 il repond à nouveau quelque chose de faux mais différent de la fois précédente !
Conclusion : il n'apprend rien et quant à dire qu'il est abouti, vous n'êtes pas très exigent !
Serge Rochain
Je suis le premier à critiquer ChatGPT mais si ce qu'il fait, via le machine learning, c'est apprendre.
Le problème c'est qu'il n'a pas l'intelligence pour comprendre ce qu'il apprend et répète a qui veut l'entendre.

Outre qu'il n'a pas la capacité de se corriger il se contente de faire ce pourquoi il est fait : répondre et converser et par conséquent il accepte de faire la correction, qu'il ne comprend pas plus que ce qu'il a appris avant.
Et comme en plus il n'a pas de raison de considérer votre correction comme plus juste que les âneries qu'il a lu de partout précédemment, pourquoi dépenserait il des ressources à l'apprendre alors qu'il est déjà capable de rédiger une réponse ?
1  0 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 26/02/2024 à 17:47
Citation Envoyé par Jipété Voir le message
on sait bien que c'est un immense foutage de gueule, juste monté en mayonnaise par les marketeux, qu'il faudrait passer par les armes.
Vrai, mais j'ai peur de quelque chose, c'est que bien que ce sois inutile cela devienne un prérequis. J'ai toujours en travers quand windows 11 est sorti, qu'on m'ai dit "Vraiment désolé, pas de TPM 2.0 pas de Windows 11". Alors que c'est absolument pas obligatoire, ça a poussé BEAUCOUP de monde à changer le matériel et créer ainsi un gros volume de déchets. On commence à entendre parler d'un Windows IA Ready (Win 12 ?) qui nécessiterai 40 TOPS de processeur. Il n'y a aujourd'hui aucun processeur grand public, intel ou amd, capable d'atteindre de telles puissances.
J'espère au fond de moi que le souffle va redescendre avant la PS6, auquel cas j'ai peur que l'IA deviennent incontournable pour le jeux vidéo et forcer énormément de renouvellement de matériel.
1  0