IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Réponses inattendues de ChatGPT : OpenAI pointe du doigt une optimisation de l'expérience utilisateur
Qui a « introduit un bogue dans la manière dont le modèle traite le langage »

Le , par Stéphane le calme

16PARTAGES

9  0 
ChatGPT, l'outil de génération de texte dl'OpenAI, a connu un mystérieux problème mardi. Les résultats étaient parfois amusants, rarement terrifiants, mais ils montrent les dangers d'une trop grande confiance dans les nouvelles technologies, qui peuvent se dérégler de manière inattendue. OpenAI indique avoir corrigé l'incident et a communiqué les résultats de son enquête.

Mardi, des utilisateurs ont commencé à publier sur les réseaux sociaux des captures d'écran de ce qu'ils considèrent comme des réponses étranges à des questions posées au chatbot. Certaines réponses étaient rédigées en "spanglish", un mélange d'espagnol et d'anglais, tandis que d'autres répétaient des phrases ou étaient complètement absurdes.

ChatGPT a été créé par OpenAI, la startup d'intelligence artificielle basée à San Francisco et dirigée par Sam Altman, dont la valeur est aujourd'hui estimée à 80 milliards de dollars. Il s'agit d'une évolution surprenante pour un produit aussi populaire, qui survient quelques jours seulement après qu'OpenAI a dévoilé Sora, un outil de génération de vidéo à partir d'une entrée texte.

ChatGPT est alimenté par un grand modèle de langage, un système d'intelligence artificielle qui est entraîné sur des quantités massives de texte jusqu'à ce qu'il soit capable de générer lui-même un texte réaliste à partir d'une invite. De nombreuses entreprises l'ont adopté dans divers processus métiers, par exemple pour créer des chatbots de service à la clientèle.

Quelques heures après les signalements d'incidents sur les réseaux sociaux, la page d'état d'OpenAI indiquait : « Nous enquêtons sur des rapports de réponses inattendues de ChatGPT ». Puis, la société a déclaré qu'elle avait remédié au problème et qu'elle continuerait à surveiller la situation.

Il y a quelques heures, l'entreprise a expliqué ce qui s'est passé :

Le 20 février 2024, une optimisation de l'expérience utilisateur a introduit un bogue dans la manière dont le modèle traite le langage.

Les LLM génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur "langage" consiste en des nombres qui correspondent à des jetons.

Dans ce cas, le problème se situe à l'étape où le modèle choisit ces nombres. Comme s'il s'agissait d'une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n'avaient aucun sens. Plus techniquement, les noyaux d'inférence produisaient des résultats incorrects lorsqu'ils étaient utilisés dans certaines configurations de GPU.

Après avoir identifié la cause de cet incident, nous avons déployé un correctif et confirmé que l'incident était résolu.
Une explication loin d'être satisfaisante

Pour un incident de cette ampleur, OpenAI n'a pratiquement pas communiqué d'informations réelles.

Quelle est l'hypothèse erronée que le code a faite et qui a provoqué ce comportement erroné ? Pourquoi n'a-t-elle pas été détectée dans les nombreuses couches de tests automatisés avant qu'elle ne soit introduite dans la production ? Quels sont les changements de processus et de procédures mis en œuvre pour réduire le risque que ce type de bogue se reproduise ?

On peut supposer que tout cela se joue en interne, mais si le post-mortem d'incident est censé inspirer confiance, il faut partager certains détails, sinon cela n'a plus aucun sens. Un post-mortem d'incident rassemble les personnes pour évoquer les détails d'un incident : pourquoi il s'est produit, son impact, quelles actions ont été entreprises pour l'atténuer et le résoudre, et les actions à entreprendre pour éviter qu'un tel incident ne se reproduise.


D'ailleurs, plusieurs utilisateurs trouvent cette explication extrêmement vague :

Pour être honnête

"Le 20 février 2024, une optimisation de l'expérience utilisateur"

À ce stade, après environ 10 mots, j'ai déjà voulu arrêter de lire parce que cela commence par le "nous ne voulons que le meilleur pour nos clients", une langue de bois à la con. Quelqu'un d'autre s'est lancé dans ce genre d'exercice ? Je suis déjà conditionné à m'attendre à ce que l'entreprise qui m'envoie ce genre de message me retire une fonctionnalité, augmente ses prix ou m'énerve d'une manière ou d'une autre. Dans ce cas, c'était "ne pas donner de détails intéressants".
D'autres estiment qu'OpenAI n'a pas besoin d'aller plus loin dans les explications : « Honnêtement, je ne pense pas que nous ayons droit à une description technique approfondie. Nous sommes des utilisateurs de leur produit, ils ont fait une erreur et c'est tout. À moins qu'ils n'aient signé un accord de niveau de service, c'est juste de la merde qui arrive. Ils ne sont pas obligés de donner un aperçu technique de leur cuisine interne s'ils ne le veulent pas ».

Certains pensent que l'entreprise d'IA a suffisamment communiqué : « "dans certaines configurations de GPU", cela donne un indice sur la raison pour laquelle il n'a pas été détecté dans les tests automatisés. Il semblerait qu'il s'agisse d'un bogue de Mandel, qui est difficile à détecter dans un environnement de test ».

Quoiqu'il en soit, le problème a été suffisamment préoccupant pour que Gary Marcus, chercheur en sciences cognitives et spécialiste de l'intelligence artificielle estime que ChatGPT est « devenu fou » et que l'épisode doit être interprété comme étant un avertissement :

Je ne me prononcerai pas sur la cause, nous ne la connaissons pas. Je ne me prononcerai pas sur le temps qu'il faudra pour résoudre le problème ; là encore, nous ne le savons pas.

Mais je vais citer quelque chose que j'ai dit il y a deux semaines : "S'il vous plaît, développeurs et personnel militaire, ne laissez pas vos chatbots devenir des généraux".

En fin de compte, l'IA générative est une sorte d'alchimie. Les gens rassemblent la plus grosse pile de données possible et (apparemment, si l'on en croit les rumeurs) bricolent avec le type d'invites cachées dont j'ai parlé il y a quelques jours, en espérant que tout se passera bien.

En réalité, ces systèmes n'ont jamais été stables. Personne n'a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes. Nous vivons toujours à l'ère de l'alchimie de l'apprentissage automatique que xkcd a si bien décrite dans une bande dessinée il y a plusieurs années :


Le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer - et donc plus faciles à mettre en œuvre - reste primordial.

Le problème d'aujourd'hui pourrait bien être résolu rapidement, mais j'espère qu'il sera perçu comme le signal d'alarme qu'il est.

Ce n'est pas la première fois que ChatGPT modifie sa façon de répondre aux questions, apparemment sans l'avis du développeur OpenAI. Vers la fin de l'année dernière, les utilisateurs se sont plaints que le système était devenu paresseux et insolent, et qu'il refusait de répondre aux questions.

« Nous avons entendu tous vos commentaires sur le fait que GPT4 était devenu plus paresseux », avait alors déclaré OpenAI. « Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger ».

Conclusion

L'incident de mardi nous rappelle qu'une dépendance excessive à l'égard d'une technologie nouvelle et expérimentale peut parfois mal tourner. Les résultats des grands modèles de langages peuvent être peu fiables, ou relativement inutiles, d'après certains retours. Les systèmes sont également connus pour leur capacité à "halluciner" ou à produire des résultats erronés.

Source : OpenAI

Et vous ?

Que pensez-vous des explications fournies par OpenAI ? Les trouvez-vous satisfaisantes ou pas ? Pourquoi ?
Partagez-vous le point de vue de Gary Marcus qui pense que cet incident doit être interprété comme étant un avertissement ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message

Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message

L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message

Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2024 à 15:52
Moi si je dis, il faut bien que cambriole 25 maisons par ans, sinon je ne sais pas partir en vacances, je suis certains que ça finira mal pour moi. Mais lui, le Altman, la nouvelle coqueluche du moment, il peut se permettre de dire qu'il ne peut gagner des millions qu'en volant le travail des autres, et ça passe crème.
7  0 
Avatar de Seb33300
Membre émérite https://www.developpez.com
Le 10/06/2024 à 11:35
L’erreur de ChatGPT qui a coûté 10 000 dollars
ChatGPT c'est un outils, le responsable ça reste le développeur...

Sinon, la prochaine fois que je déploie un bug je dirais que c'est la faute de mon clavier...
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2024 à 16:21
Citation Envoyé par Stéphane le calme Voir le message

La controverse autour de l’utilisation des matériaux protégés par le droit d’auteur par OpenAI soulève des questions cruciales sur l’équilibre entre l’innovation technologique et la protection des droits des créateurs. Alors que l’IA continue de progresser, il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.
Je suis en total déssacord. C'est un principe utilisée vieux comment le monde. La question pose il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.

C'est déjà éliminer la question du vol de donnée, pour qu'on accepte un "état de fait", et que la seule question qu'on se pose, soit de savoir si on doit choisr entre X ou Y pour régler le problème. C'est pourtant simple, tout vol est interdit. Et TOUS les acteurs de l'IA on procédé de la sorte, ils devraient selon en répondre devant un tribunal.

Parce que si on trouve normal que des entreprisent vol le contenus générer par d'autre, et que leur argument c'est "on ne peut pas faire autrement que de voler" pour faire fructifier notre buisness, alors, on doit accepter qu'on rentre dans un magasin, qu'on vole de dont en a envie besoin, et si on se fait choper à sortie, dire "je ne peux pas faire autrement que de voler" pour ne pas crever la dalle, et on ne devrait pas avoir de soucis. Et ça m'étonnerait très fort qu'une solution du type "comment règler le soucis entre ne pas crever" tout en laissant les magasin faire du pognon me sera proposée.

Si l'IA ne peux fonctionner qu'en volant, et bien on devrait tout simplement interdire ces dernières, sous peine de prison. Je ne vois pas pourquoi on ferait une exception "par ce que ça empêcherait l'innovation". Que ces messieurs, puisse qu'ils ne vont pas en prison, retourne dans leur entreprise et développe "une vrai" IA, sans devoir voler le contenu générer par d'autres. Mais c'est impossible en l'état actuelle de la technologie. Et qu'on ferme ces entreprises ne fera pas arrêter le monde de tourner, on vivait bien avant cette "ridicule technologie", et on vivra bien sans. Leur seul but, c'est de faire du pognon, et en plus en se basant sur le travail d'autres. C'est des méthodes de gangster et les gangster, on les mets en Prison.

Source : OpenAI (1, 2)

Citation Envoyé par Stéphane le calme Voir le message

Et vous ?
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun. Si l'IA était une innovation, elle devrait faire son taf sans voler les créateurs de contenus. Je vous pose la question à vous "Stéphane le calme", que feriez-vous si je récupérait l'ensemble de ce site, et que je l'utilise avec un autre emballage, que je fais du pognon avec, et que si vous n'êtes pas d'accord, je puisse vous répondre "je suis obligé de voler ce site, parce qu'aussi non, je ne sais pas faire du pognon ?" Quelle réaction auriez vous ? Tenteriez vous de "proposer une solution" qui nous satisface tous les deux ? Je ne pense pas, vous m'attaquerier en juste et je passerais surement par la case "prison".

J'aimerai bien avoir votre réponse.

Cordialement.

BàV et Peace & Love.
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2024 à 23:38


Citation Envoyé par floyer Voir le message
Dire « c’est du vol » est un peu rapide…
Je ne trouve pas, d'autant plus que certains "grand patron" osent même dire ouvertement (la je cite l'ex-PDG de Google) :
Ne vous préoccupez pas des droits d'auteur, et prenez (volez) tous ce dont vous avez besoin, vous gagnerez tellement d'argent, que vous pourrez vous payer les meilleurs avocat du monde pour vous évités des soucis par la suite.

Citation Envoyé par floyer Voir le message

le vol est défini par la loi et une loi peut se changer (par le législateur bien sûr). En l’occurrence ce n’est pas du vol, mais une contrefaçon.
En fait, c'est les 2 ensembles. D'abord du vole de données, puis de la contrefaçon en régurgitant ce qui a été volé.

Citation Envoyé par floyer Voir le message

Le code de propriété intellectuelle définit d’ailleurs des modalités qui réduisent le droit d’auteur (courtes citations, parodie, pour les logiciels, copie de sauvegarde, etc…). Sur les brevets, il y a une expiration… on pourrait imaginer une clause d’exclusion pour l’IA.
Si on ne parle même que du code (sans parler des mucisiens ou autres artiste), on ne parle pas de "courtes" citations (mais d'écriture d'une énorme majorité de code en se basant sur ce qui a été volé au départ), ce n'est pas non plus de la parodie, ce n'est pas une copie de sauvegarde, etc...

Citation Envoyé par floyer Voir le message
Ainsi, la question est que gagnerait ou que perdrait-on à réduire les droits d’auteur au profit de l’IA. Je pense plutôt que la concurrence de l’IA est déloyale est mènerait à un appauvrissement de notre capital culturel à moyen terme. Légiférer pour permettre des « œuvres » imitant trop facilement ce qui est produit actuellement ou simplement ne permettant pas à beaucoup d’artistes de vivre ne me semble pas une bonne idée.
Il ne faut pas voir le problème sous cet angle, sinon ça veut dire qu'on négocie avec des voleurs. La question n'est pas de savoir ce qu'on gagnerait ou perdrait à réduire les droits d'auteur au profit de l'IA.

Si les "IA" était vraiment des "IA", et qu'elles produisent un contenus "original", je n'ai rien à redire, je n'ai rien contre la concurrence.

Mais on est très loin de ça ici. Et tous ceux qui se sont engoufrés dans cette voie en étaient parfaitement au courant.

Un peintre qui fait une copie d'un Rubens et la vend comme si c'était un authentique Rubens, c'est la prison. Point.

Si l'IA régurgite du code volé, c'est la prison pour les responsable. Point.

quand tu dis : Je pense plutôt que la concurrence de l’IA est déloyale est mènerait à un appauvrissement de notre capital culturel à moyen terme. Légiférer pour permettre des « œuvres » imitant trop facilement ce qui est produit actuellement ou simplement ne permettant pas à beaucoup d’artistes de vivre ne me semble pas une bonne idée.

Oui, ce serait un appauvrissement du capital culturel, quoique, en matière de musique, le niveau global et l'innovation est déjà tellement réduite, que les musiciens se sont déjà chargé eux-même de cela tout seuls . Tout se ressemble, tout est d'un niveau au rat des paquerette, fade, etc.

Il y bien longtemps qu'on a plus entendu un artiste produire quelque chose qu'un Balavoine, un Sardou auraient pu produire, ou qu'un artiste comme Coluche aurait pu dire. Tout cela n'est plus "autorisé", sous peine d'être directement taxé d'être d'extrême droite.

Il en faut aussi de la "variété", mais on manque cruellement de chanteur ou de personnalité public qui dérengeraient la pensée unique à laquel on nous soumet depuis la fin des 80's. Un vianey, un christophe maé, un Bioley, Pagni, Bruel, et tout ces artistes "bien dans le rang de la pensée unique bobo", a un moment ça finit par être soulant, pour rester poli.

Légiférer ne servirait à rien. Le point de départ, c'est le vol des données pour alimenter les LLM. Rien d'innovant ne peut sortir d'une IA. Il y aura dans tous les domaines un nivellement par le bas, plus d'originalité, de nouveau concept, de nouvelles idées.

Si une IA sort un disque "à la beattles" ou "à la ABBA", ça devrait au minimum être mentionné. On fait chanter macron, avec sa voix, mais déformée pour qu'elle reprenne le "style" d'Aznavour. Ce n'est rien de nouveau, c'est juste une contrefaçons faites avec des données volée. Chercher plus loin, c'est déjà accepter le vol initiale. Je ne vois pourquoi on ferait une exception pour l'IA.

BàT. et Peace & Love.
6  0 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 08/04/2024 à 17:27
Citation Envoyé par Stéphane le calme Voir le message


« L'IA pourrait remplacer toutes les formes de travail », selon Larry Summers, membre du conseil d'administration d'OpenAI
Et dire qu'il y a des gens qui vont le croire... Pour rappel, on nous avait vendu des voitures volantes et des robots pour faire les corvées à la maison pour l'an 2000, on a eu le 11 septembre. Vivement la fin de cette bulle ridicule et un retour des GPU accessible, parce qu'on sait tous qu'on va devoir travailler encore plus, pour un salaire toujours plus bas. Sauf ceux qui sont biens nés, eux ils vont apprécier
5  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 11/07/2024 à 7:13
Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
Pendant que les société d'IA lèvent des millions de dollar d'investissement.
5  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 11/07/2024 à 11:20
Citation Envoyé par totozor Voir le message
Les travailleurs africains à l'origine de la révolution de l'IA : une réalité de conditions éprouvantes et [...] pour environ un dollar de l'heure
Pendant que les société d'IA lèvent des millions de dollar d'investissement.
Si je lis bien, l'émergence de l'IA est basée sur l'esclavage.
4  0