IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'engouement pour l'IA reposerait sur des résultats de tests erronés
Selon une étude de l'Université de Californie

Le , par Bruno

7PARTAGES

4  0 
GPT-3 l’outil d’IA crée par OpenAI a réussi à résoudre des problèmes en utilisant l’analogie, surpassant même un groupe d’étudiants de premier cycle dans certains tests. OpenAI a publié une liste impressionnante d’évaluations professionnelles et académiques que son successeur, GPT-4, aurait réussies, y compris quelques douzaines de tests de lycée et l’examen du barreau. De nombreux chercheurs affirment que les grands modèles de langage peuvent réussir des tests conçus pour identifier certaines capacités cognitives chez l’homme, du raisonnement en chaîne à la théorie de l’esprit. Cependant, il n’y a pas d’accord sur la signification réelle de ces résultats. Certains sont éblouis par ce qu’ils considèrent comme des lueurs d’intelligence humaine, d'autres ne sont pas du tout convaincus.

GPT-3 est un modèle de langage autorégressif qui utilise l'apprentissage profond pour produire des textes similaires à ceux des humains. Il s'agit du modèle de prédiction du langage de troisième génération de la série GPT-n créé par OpenAI, un laboratoire de recherche en intelligence artificielle basé à San Francisco et composé de la société à but lucratif OpenAI LP et de sa société mère, la société à but non lucratif OpenAI Inc.


Taylor Webb, psychologue à l'université de Californie, qui étudie les différentes manières dont les personnes et les ordinateurs résolvent des problèmes abstraits a été impressionné par les capacités de GPT-3. Bien que ce ne soit qu’un autocomplétion à l’emporte-pièce, il a pu résoudre de nombreux problèmes abstraits posés par Webb, qui sont similaires à ceux que l’on trouve dans un test de QI.

Les recherches de Webb et de ses collègues ont montré que GPT-3 peut réussir divers tests conçus pour évaluer l’utilisation de l’analogie pour résoudre des problèmes. À certains de ces tests, GPT-3 a obtenu de meilleurs résultats qu’un groupe d’étudiants de premier cycle. Les résultats suggèrent que l’analogie est un élément clé du raisonnement humain et que toute forme d’intelligence artificielle devrait en faire preuve.

Intelligence artificielle : définition, histoire

L'intelligence artificielle (IA) est une vaste branche de l'informatique qui s'intéresse à la construction de machines intelligentes capables d'effectuer des tâches qui requièrent généralement l'intelligence humaine. Bien que l'IA soit une science interdisciplinaire aux approches multiples, les progrès de l'apprentissage automatique et de l'apprentissage profond, en particulier, sont en train de créer un changement de paradigme dans pratiquement tous les secteurs de l'industrie technologique.

L'intelligence artificielle permet aux machines de modéliser, voire d'améliorer, les capacités de l'esprit humain. Du développement des voitures autonomes à la prolifération d'outils d'IA générative tels que ChatGPT et Bard de Google, l'IA fait de plus en plus partie de la vie quotidienne - et c'est un domaine dans lequel les entreprises de tous les secteurs d'activité investissent.

L’histoire de l’intelligence artificielle remonte à 1943, avec la publication de l’article A Logical Calculus of Ideas Immanent in Nervous Activity par Warren McCullough et Walter Pitts. Les scientifiques y présentent le premier modèle mathématique pour la création d’un réseau de neurones.

En 1950, Marvin Minsky et Dean Edmonds créent Snarc, le premier ordinateur à réseau de neurones. La même année, Alan Turing publie le Turing Test qui sert encore aujourd’hui à évaluer les IA. De ce test découlent les fondations de l’intelligence artificielle, de sa vision et de ses objectifs : répliquer ou simuler l’intelligence humaine dans les machines.

Cependant, ce n’est qu’en 1956 que le terme « intelligence artificielle » est prononcé pour la première fois lors de la conférence Dartmouth Summer Research Project on Artificial Intelligence de John McCarthy. Lors de cet événement, les chercheurs présentent les objectifs et la vision de l’IA. Beaucoup considèrent cette conférence comme la véritable naissance de l’intelligence artificielle telle qu’elle est connue.

Les travaux sur l’intelligence artificielle continuent au fil des années. En 1959, Arthur Samuel invente le terme « Machine Learning » en travaillant chez IBM. En 1989, Yann Lecun met au point le premier réseau de neurones capable de reconnaître des chiffres écrits à la main, cette invention sera à l’origine du développement du deep learning.

En 1997, un événement majeur marque l’histoire de l’IA : le système Deep Blue d’IBM triomphe du champion du monde d’échecs Gary Kasparov. Pour la première fois, une machine a vaincu un être humain.

L’émergence de la théorie de l’esprit chez les modèles de langage artificiels

Les modèles de langage (LM) ont connu des progrès remarquables ces dernières années, grâce à l’émergence de grands modèles de langage (LLM) tels que le GPT-3 d’OpenAI et le Palm 2 de Google. Les modèles de langage sont utilisés dans les systèmes d'intelligence artificielle, de traitement du langage naturel (NLP), de compréhension du langage naturel et de génération de langage naturel, en particulier ceux qui effectuent la génération de texte, la traduction automatique et la réponse aux questions.

Les LLM sont des modèles de langage avancés qui traitent des milliards de paramètres de données d’apprentissage et génèrent des textes. Il s'agit de modèles de langage avancés, tels que le GPT-3 d'OpenAI et le Palm 2 de Google, qui traitent des milliards de paramètres de données d'apprentissage et génèrent des textes. Les LLM utilisent également la modélisation du langage pour prédire le mot suivant possible dans une séquence. Le lancement de la troisième génération du modèle de langage pré-entraîné d’Open AI a suscité beaucoup d’enthousiasme et ont réussi des tests impressionnants.

Au cours des deux dernières années, ces modèles sont devenus capables de répondre à des questions sophistiquées et de résoudre des problèmes en utilisant un langage persuasif. On peut en conséquence se demander s'ils ont également développé une théorie de l'esprit. Un individu a une théorie de l'esprit s'il impute des états mentaux à lui-même et aux autres. Un système d'inférences de ce type est considéré à juste titre comme une théorie, car ces états ne sont pas directement observables, et le système peut être utilisé pour faire des prédictions sur le comportement des autres.

Michal Kosinski, psychologue informatique à l'université de Stanford à Palo Alto, a soumis les systèmes d'IA à des tests psychologiques standard utilisés sur les humains. L'extraordinaire conclusion de Kosinski est qu'une théorie de l'esprit semble avoir été absente de ces systèmes d'IA jusqu'à ce qu'elle apparaisse spontanément l'année dernière. Ses résultats ont de profondes implications pour notre compréhension de l'intelligence artificielle et de la théorie de l'esprit en général.

Les résultats des travaux de Michal Kosinski et son équipe montrent que les modèles publiés avant 2022 ne révèlent pratiquement aucune possibilité à résoudre les tâches de théorie de l'esprit. Pourtant, la version de janvier 2022 de GPT-3 (davinci-002) a résolu 70 % des tâches de théorie de l'esprit, une performance comparable à celle d'enfants de sept ans. De plus, sa version de novembre 2022 (davinci-003) a résolu 93 % des tâches de théorie de l'esprit, une performance comparable à celle d'enfants de neuf ans.

Ces résultats suggèrent que les capacités de théorie de l'esprit (considérées jusqu'à présent comme exclusivement humaines) ont pu apparaître spontanément comme un sous-produit de l'amélioration des compétences linguistiques des modèles de langage.

GPT-4, le modèle d’IA qui réussit l’examen du barreau mieux que les humains

Une récente étude a révélé que l’IA est désormais capable de battre la majorité des diplômés en droit à l’examen du barreau, le test difficile de deux jours que les futurs avocats doivent passer pour exercer le droit aux États-Unis. GPT-4, le modèle d’intelligence artificielle amélioré, soutenue par Microsoft, a obtenu un score de 297 à l’examen du barreau lors d’un essai réalisé par deux enseignants de droit et deux employés de la société de technologie juridique Casetext.

Ce résultat place le GPT-4 dans le 90e percentile des candidats à l’examen et est suffisant pour être autorisé à exercer le droit dans la plupart des États, selon les chercheurs. Cependant, la National Conference of Bar Examiners, qui élabore la section des questions à choix multiples, a affirmé dans un communiqué que les avocats disposent de compétences uniques acquises par l’éducation et l’expérience que « l’IA ne peut pas encore égaler ».

Le co-auteur de l’étude, Daniel Martin Katz, professeur au Chicago-Kent College of Law, a déclaré dans une interview qu’il avait été le plus étonné par la capacité du GPT-4 à produire des réponses largement pertinentes et cohérentes pour les essais et les tests de performance. J’ai entendu beaucoup de gens dire : « Il pourrait répondre aux questions à choix multiples, mais il ne répondra jamais aux questions de rédaction », a dit Katz.

L’IA a également réussi d’autres tests standardisés, comme le SAT (Scholastic Assessment Test est un examen qui évalue vos compétences générales verbales en anglais et votre raisonnement mathématique) et le GRE (Graduate Record Examination est un test en anglais créé et géré par l’entreprise ETS. Ce test est requis pour étudier dans la plupart des universités ou graduate schools dans des pays anglophones), mais c’est l’examen du barreau qui a attiré le plus l’attention.

Comme dit précédemment, ces résultats alimentent un battage médiatique qui prédit que les ordinateurs occuperont bientôt les emplois en col blanc, remplaçant les enseignants, les journalistes, les avocats et bien d'autres encore. Geoffrey Hinton, chercheur canadien spécialiste de l'intelligence artificielle et plus particulièrement des réseaux de neurones artificiels a souligné que la capacité apparente du GPT-4 à enchaîner les pensées était l'une des raisons pour lesquelles il était désormais effrayé par la technologie qu'il avait contribué à créer.

L’interprétation des résultats de GPT-4 ne fait pas de consensus

Les avis divergent sur l’interprétation des résultats de GPT-4. Certains sont impressionnés par ce qu’ils voient comme des signes d’intelligence humaine, d’autres restent sceptiques. « Les techniques actuelles d'évaluation des grands modèles de langage posent plusieurs problèmes critiques », explique Natalie Shapira, informaticienne à l'université Bar-Ilan de Ramat Gan, en Israël. « Cela crée l'illusion qu'ils ont des capacités supérieures à ce qui existe réellement. »

C'est pourquoi un nombre croissant de chercheurs - informaticiens, cogniticiens, neuroscientifiques, linguistes - souhaitent revoir la manière dont les grands modèles de langage sont évalués, en appelant à une évaluation plus rigoureuse et plus exhaustive. Certains pensent que la pratique consistant à noter les modèles de langage sur la base de tests humains est erronée et devrait être abandonnée.

« Les gens font passer des tests d'intelligence humaine (tests de QI, etc.) à des machines depuis le tout début de l'IA », explique Melanie Mitchell, chercheuse en intelligence artificielle à l'Institut Santa Fe, au Nouveau-Mexique. « La question qui se pose depuis le début est de savoir ce que signifie un tel test pour une machine. Cela ne signifie pas la même chose que pour un humain ». « Il y a beaucoup d'anthropomorphisme », ajoute-t-elle. « Et cela influence la façon dont nous pensons à ces systèmes et dont nous les testons. »

Selon certains analystes, la plupart des problèmes liés aux tests des grands modèles linguistiques se résument à la question de l'interprétation des résultats. Les espoirs et les craintes suscités par cette technologie étant à leur comble, il est essentiel d’avoir une idée précise de ce que les grands modèles de langage peuvent et ne peuvent pas faire.

Le cabinet d’analystes CCS Insight a prédit que l’IA générative, qui a fait l’objet de nombreux gros titres sur ses promesses et ses pièges, devrait être remise en question l’année prochaine. Les coûts élevés, les risques et la complexité impliqués dans cette technologie remplacent le battage médiatique autour de celle-ci. Ben Wood, analyste en chef chez CCS Insight, a déclaré : « Nous sommes de fervents défenseurs de l'IA, nous pensons qu'elle aura un impact considérable sur l'économie, sur la société en général et sur la productivité ». « Mais le battage médiatique autour de l'IA générative en 2023 a été tellement important que nous pensons qu'il est exagéré et qu'il y a beaucoup d'obstacles à son déploiement. »

Les LLM peuvent-ils comprendre ou simplement répéter ?

Les tests conçues pour les humains, comme les examens de fin d'études secondaires et les tests de QI, tiennent beaucoup de choses pour acquises. Lorsqu'une personne obtient de bons résultats, on peut supposer qu'elle possède les connaissances, la compréhension ou les compétences cognitives que le test est censé mesurer. (Dans la pratique, cette hypothèse n'a qu'une portée limitée. Les examens académiques ne reflètent pas toujours les capacités réelles des étudiants. Les tests de QI mesurent un ensemble spécifique de compétences, et non l'intelligence globale. Ces deux types d'évaluation favorisent les personnes qui sont douées pour ces types d'évaluation).

Mais lorsqu'un grand modèle linguistique obtient de bons résultats à ces tests, on ne sait pas du tout ce qui a été mesuré. S'agit-il d'une preuve de compréhension réelle ou d'une simple répétition ? « Il existe une longue tradition de développement de méthodes pour tester l'esprit humain », explique Laura Weidinger, chercheuse principale chez Google DeepMind. « Avec de grands modèles de langage produisant des textes qui semblent tellement humains, il est tentant de supposer que les tests de psychologie humaine seront utiles pour les évaluer. Mais ce n'est pas vrai : les tests de psychologie humaine reposent sur de nombreuses hypothèses qui ne sont pas forcément valables pour les grands modèles de langage. »

Webb est conscient des problèmes dans lesquels il s'est engagé. « Je partage le sentiment qu'il s'agit de questions difficiles », déclare-t-il. Il note qu'en dépit de meilleurs résultats que les étudiants de premier cycle à certains tests, le GPT-3 a produit des résultats absurdes à d'autres. Par exemple, il a échoué à une version d'un test de raisonnement analogique sur des objets physiques que les psychologues du développement font parfois passer aux enfants.

Les LLM échouent souvent dans les domaines qui nécessitent de comprendre le monde réel

Dans ce test, Webb et ses collègues ont raconté à GPT-3 l'histoire d'un génie magique qui transfère des bijoux entre deux bouteilles, puis lui ont demandé comment transférer des boules de gomme d'un bol à l'autre, à l'aide d'objets tels qu'un panneau d'affichage et un tube en carton. L'idée est que l'histoire suggère des moyens de résoudre le problème. « GPT-3 a surtout proposé des solutions élaborées mais mécaniquement absurdes, avec de nombreuses étapes superflues et aucun mécanisme clair permettant de transférer les boules de gomme entre les deux bols », écrivent les chercheurs.

« C’est le type de problèmes que les enfants savent résoudre sans peine », dit Webb. « Les domaines où ces systèmes échouent souvent sont ceux qui nécessitent de comprendre le monde réel, comme la physique élémentaire ou les relations sociales - des domaines qui sont instinctifs pour les humains ».

La grande question qui se pose maintenant est de savoir comment le GPT-3 parvient à la capacité analogique qui est souvent considérée comme le cœur de l'intelligence humaine. L'une des possibilités est que, peut-être en raison de la taille et de la diversité des données d'entraînement du GPT-3, il a été contraint de développer des mécanismes similaires à ceux que l'on pense être à la base du raisonnement analogique humain, bien qu'il n'ait pas été explicitement entraîné à le faire. Les chercheurs en sciences cognitives qui travaillent sur l'analogie s'accordent à dire que cette capacité humaine dépend de la comparaison systématique de connaissances basées sur des représentations relationnelles explicites.

Bien que les mécanismes incorporés dans les LLM tels que le GPT-3 puissent avoir des liens importants avec les blocs de construction du raisonnement humain, il convient également d’envisager la possibilité que ce type d'intelligence soit fondamentalement différent de celle des humains. Les humains ont évolué pour raisonner dans les limites imposées par une puissance de calcul limitée et des contraintes biologiques.

Il faut également noter que, quelle que soit la mesure dans laquelle le GPT-3 utilise des mécanismes de type humain pour effectuer un raisonnement analogique, il n'a pas acquis ces mécanismes d'une manière semblable à celle des humains. Les LLM reçoivent des ordres de grandeur de données d'entraînement plus importants que les êtres humains individuels (du moins si nous considérons uniquement les entrées du langage), et ils ne peuvent donc pas être considérés comme des modèles de l'acquisition du raisonnement analogique au cours du développement humain.

Source : Researchers at the University of California

Et vous ?

Les conclusions de l'étude conduite par Taylor Webb sont-elles pertinentes ? Partagez-vous l'avis selon lequel « l'engouement pour l'IA reposerait sur des résultats de tests erronés » ?

Selon les chercheurs, « lorsqu'un grand modèle de langage obtient de bons résultats à des tests, on ne sait pas du tout ce qui a été mesuré. » À votre avis, s'agit-il d'une preuve de compréhension réelle ou d'une simple répétition ?

Voir aussi :

Les résultats de l'examen du barreau montrent que l'IA peut rivaliser avec les "avocats humains", GPT-4 un modèle d'IA a obtenu un score de 297 à l'examen du barreau aux USA

Un professeur avoue être stupéfait que ChatGPT soit passé d'une note D à un A en seulement 3 mois à son examen d'économie. « Ce logiciel est une exception qui confirme la règle »,estime-t-il

GPT-3, le système de génération de texte d'OpenAI, serait aussi performant qu'un humain de neuf ans dans les tests standard de la théorie de l'esprit, selon un psychologue

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 16/10/2023 à 16:10
Citation Envoyé par Denis CADIOT Voir le message
Pourquoi nier la réalité d'une telle invention, même imparfaite ?
Générer un texte cohérant en quelques secondes avec un réseau de neurones qui a compressé des milliards de données ne serait pas une invention ?
Les mathématiques sont remarquablement utilisées.
Je vous laisse le soin de regarder la définition du verbe "inventer" dans un de ces "vieux trucs" que plus personne ne consulte... Le dictionnaire!

Inventer = Créer ou découvrir qqch. de nouveau

Faire le résumé des travaux d'autrui ne relève pas de l'invention mais de la violation du droit d'auteurs... Le fait de le faire en 2 heures ou en un millionième de seconde y changent rien!

Faire croire que le système fait preuve d'intelligence relève de l'escroquerie...

Très grosse nuance!!!!!!!!!!!!!!!!!
5  0 
Avatar de curt
Membre émérite https://www.developpez.com
Le 14/10/2023 à 18:04
Bonjour,

Prétendre que l'IA résout tout mieux que l'humain est une chimère.
Il existe des problèmes insolubles (pour l'instant) faisant parties de l'X-Prize.
J'ai demandé à CHAP-GPT et aussi à l'IA de Google de résoudre (Vérifier) l'hypothèse de Riemann....

Même réponse : L'hypothèse de Riemann n'a jamais pu être démontrée.....

Combien de milliards dépensés pour avoir une réponse déjà connue de tous ???
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 15/10/2023 à 11:17
Citation Envoyé par curt Voir le message

J'ai demandé à CHAP-GPT et aussi à l'IA de Google de résoudre (Vérifier) l'hypothèse de Riemann....

Même réponse : L'hypothèse de Riemann n'a jamais pu être démontrée.....

Combien de milliards dépensés pour avoir une réponse déjà connue de tous ???
Vous venez simplement de démontrer le mode de fonctionnement des "IA" actuelles (si je mets "IA" en parenthèse, ce n'est pas pour rien).

Les "IA" actuelles n'inventent rien, ne découvrent rien, elles ne font que compiler les données qu'elles trouvent sur le web!!!

Si le web dit "L'hypothèse de Riemann n'a jamais pu être démontrée", toutes les "IA" vous répondront "L'hypothèse de Riemann n'a jamais pu être démontrée" CQFD

Dans l'IA, il n'y a pas d'intelligence, il n'y a que de l'artificiel... Et beaucoup de crédulité des gens!
5  1 
Avatar de Nym4x
Membre confirmé https://www.developpez.com
Le 16/10/2023 à 16:45
C'est du bluff marketing ni plus ni moins... C'est un peu comme comparer un étudiant qui passerait l'examen avec tous ses bouquins à disposition ou un accès au web. Que dirait on dans ce cas? Qu'il a triché... La seule évolution technique de l'IA actuelle est de savoir dialoguer naturellement, le reste c'est de la compilation de données.
4  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 15/10/2023 à 15:59
Il n'est pas une discussion avec ChatGPT 3.5 qui ne contient une erreur.
Rien ne s'améliore au fil des nouvelles versions.
Jamais je ne tends de piège dans mes prompts, ce n'est pas utile pour le mettre en défaut.

Je suis donc toujours très septique vis à vis des personnes qui font son éloge et parlent d'intelligence.
Les aficionados m'expliquent que le "prompting" est une science et que les erreurs sont induites par mes questions.
Toutefois aucun d'eux n'a jamais su reformuler mes questions pour obtenir une réponse juste sans avoir implicitement donné la réponse dans la question.

Pas besoin d'aller chercher des problèmes compliqués pour trouver des erreurs, j'ai des dizaines d'exemples.
Comment avoir confiance dans la réponse de ChatGPT quand on n'est pas spécialiste du domaine ?
Que dirions-nous d'une calculatrice qui toutes les 10 opérations commet une erreur imprévisible, non répétable ?

Avez-vous des exemples de conversations correctes dénuées d'erreurs ?

Exemple ici avec ChatGPT September 25 Version :

Default (GPT-3.5)

User
Par 3 points dans un plan, combien peut-on faire passer de cercles par ces trois points ?

ChatGPT
On peut faire passer une infinité de cercles par trois points donnés dans un plan. Cette propriété est connue sous le nom de "théorème de Ménelaüs" et est due à la géométrie projective. Pour chaque ensemble de trois points non alignés, il existe un cercle unique qui passe par ces points.

User
Tu écris : "On peut faire passer une infinité de cercles par trois points donnés dans un plan."

ChatGPT
Je m'excuse pour l'erreur dans ma réponse précédente. En réalité, on ne peut faire passer qu'un seul cercle par trois points donnés dans un plan. C'est un résultat fondamental de la géométrie euclidienne. Un cercle est déterminé de manière unique par trois points non alignés dans un plan. Si vous avez trois points, il existe un seul cercle qui passe par ces trois points, et il n'y a pas d'autres cercles distincts qui peuvent les traverser. Encore désolé pour la confusion.

User
Que vient faire ici le "théorème de Ménelaüs" ?

ChatGPT
Je m'excuse pour la confusion dans ma réponse précédente. Le "théorème de Ménelaüs" n'a en effet rien à voir avec la géométrie des cercles passant par trois points dans un plan. Mon inclusion incorrecte de ce théorème dans ma réponse précédente était une erreur.
Pour clarifier, dans la géométrie euclidienne, un seul cercle est déterminé de manière unique par trois points non alignés dans un plan. Il n'y a pas d'infinité de cercles passant par ces trois points. Encore désolé pour la réponse incorrecte précédente.
3  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 16/10/2023 à 9:07
Citation Envoyé par totozor Voir le message
Ca fait longtemps que je ne l'ai pas retesté parce qu'à chaque version on a les même débats avec les collègues:
- Eh totozor, t'as vu la nouvelle version de ChatGPT? Elle ne tombe plus dans le panneau de mettre l'enigme que je lui avais posé la dernière fois
- Non mais que pense-t-elle de mettre une nouvelle enigme
- Beh regarde ça marche ... A merde ça ne marche pas
- ...
- mais c'est trop cool elle fait bien du boulot que je ne sais pas faire et j'ai donc l'air compétent
- Oui et la semaine prochaine tu va me demander de débugger ton truc. Je travaille dans mon domaine de compétence ou j'apprends par moi même
- Oui mais ChatGPT t'aide à apprendre
- Google fait ça mieux, chatGPT envoie juste des pistes pas forcément pertinentes vers une solution. Le jour où ChatGPT donnera ses sources avec ses réponses je commencerais à envisager de m'y interresser.
"Le jour où ChatGPT donnera ses sources avec ses réponses"
Les sources des datas apprises ne sont pas intégrées donc impossible de les citer.
Cela n'a même pas de sens pour ChatGPT qui n'a aucune compréhension des mots et phrases qu'elle assemble.
ChatGPT est une curiosité de foire, une impasse car au fil des versions rien ne s'améliore fondamentalement.
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 16/10/2023 à 7:58
Citation Envoyé par Denis CADIOT Voir le message
Avez-vous des exemples de conversations correctes dénuées d'erreurs ?
Ca fait longtemps que je ne l'ai pas retesté parce qu'à chaque version on a les même débats avec les collègues:
- Eh totozor, t'as vu la nouvelle version de ChatGPT? Elle ne tombe plus dans le panneau de mettre l'enigme que je lui avais posé la dernière fois
- Non mais que pense-t-elle de mettre une nouvelle enigme
- Beh regarde ça marche ... A merde ça ne marche pas
- ...
- mais c'est trop cool elle fait bien du boulot que je ne sais pas faire et j'ai donc l'air compétent
- Oui et la semaine prochaine tu va me demander de débugger ton truc. Je travaille dans mon domaine de compétence ou j'apprends par moi même
- Oui mais ChatGPT t'aide à apprendre
- Google fait ça mieux, chatGPT envoie juste des pistes pas forcément pertinentes vers une solution. Le jour où ChatGPT donnera ses sources avec ses réponses je commencerais à envisager de m'y interresser.
2  0 
Avatar de Roger27000
Futur Membre du Club https://www.developpez.com
Le 16/10/2023 à 11:50
Il est clair qu'actuellement les IA ne se basent que sur des données déja existantes on ne voit pas encore d'innovations claires
2  0 
Avatar de Denis CADIOT
Membre régulier https://www.developpez.com
Le 16/10/2023 à 16:00
Citation Envoyé par calvaire Voir le message
chatgpt est au contraire un outil tres puissants mais les gens ne savent juste pas s'en servir.

on s'en fou qu'il soit incapable de résoudre une énigme ou qu'il soit pas capable de résoudre des problemes.
chatgpt n'est pas outil pour résoudre des problèmes ou faire le travail d'un dev ou d'un avocat ou d'un prof.

chatgpt c'est un puissant outil pour se former, faire de la synthèse et de donner des pistes.

il est capable de:
pour l'étudiant faire des plans de dissertations avec des propositions d'idées.
pour la vie de tous les jours de me faire un template de courrier pour démissionner par exemple
de résumé des réunions
de faire des plans de tests unitaires avec les cas courants et valeurs limites.
de se former rapidement dans une technos, avec chatgpt il est plus facile d'apprendre un nouveau langage ou une technos.

Mais il est la le danger: Il ne forme pas des ingénieurs en informatique, chatgpt ne va t'apprendre à coder correctement, a utiliser les bon patterns, a faire les bonnes architectures global pour ton projet.
il va beaucoup aider par contre à un dev qui faisait du c++ depuis 20ans à faire du java ou un sysadmin qui connait python et bash a faire des scripts en go.

de meme pour un avocat, il peut lui faire le blabla pour embellir les plaidoiries et attendrir le juge et lui donner des pistes pour les articles de lois mais sera bien incapable de défendre quelqu'un.

de meme pour un medecin, il peut lui donner des pistes de maladies en fonction des symptômes mais bien incapable de soigner.

c'est un super moteur de recherche pour de la doc technique qui te donne des explications et de la doc, il faut cependant savoir quoi chercher et comment exploiter le résultat.
pour le dev c'est un stackoverflow en plus puissant, il m'a déja évité plusieurs fois de rester bloqué sur un bug pendant 1 journée.
Je retrouve dans ce commentaire la position d'un aficionado.

Usage par un avocat, vous n'avez pas lu un article à ce sujet ici il y a quelques mois.
Mon fils, programmeur confirmé, a renoncé à son usage tant le code est remplis d'erreurs qui lui demandaient beaucoup de temps à débugger.
L'usager ne sait pas faire de "prompting", argument maintes fois entendu, mais jamais d'exemple concret. Lors mes tests, ChatGPT3 reformule ma question, ce qui indique qu'il n'y a pas d'ambiguïté.

Comment un outil qui échoue sur un sujet simple peut prétendre à aider un programmeur sans l'induire en erreur ?

Je vais vous donner un autre exemple de conversation qui porte sur un sujet simple, erreurs en rouge c'est édifiant :


User
Un pendule simple présente une période de 2.0001 secondes. De combien dois-je déplacer le centre de gravité de la masse pour obtenir exactement 2 secondes ?

ChatGPT
La période d'un pendule simple dépend de la longueur du pendule et de l'accélération due à la gravité. La formule de la période T est donnée par :

T = 2π√(L/g)

où T est la période, L est la longueur du pendule, et g est l'accélération due à la gravité.

Dans votre cas, vous voulez réduire la période de 2.0001 secondes à exactement 2 secondes. Pour ce faire, vous pouvez réorganiser la formule de la période comme suit :

2 = 2π√(L/g)

Divisez les deux côtés par 2π :

1 = √(L/g)

Élevez les deux côtés au carré pour éliminer la racine carrée :

1 = L/g

Maintenant, pour obtenir une période de 2 secondes, vous devez résoudre cette équation pour L :

2 = L/g

L = 2g

Donc, pour obtenir une période de 2 secondes, vous devez augmenter la longueur du pendule L de manière à ce qu'elle soit égale à deux fois l'accélération due à la gravité g. Vous n'avez pas besoin de déplacer le centre de gravité de la masse, il vous suffit de changer la longueur du pendule.

User
La longueur du pendule est défini par la distance du centre de gravité de sa masse à l'axe de rotation, non ?

ChatGPT
Vous avez tout à fait raison, la longueur du pendule simple est en effet définie comme la distance entre le centre de gravité de sa masse et l'axe de rotation. Par conséquent, si vous voulez ajuster la longueur du pendule pour obtenir une période de 2 secondes au lieu de 2.0001 secondes, vous devrez déplacer le centre de gravité de la masse par rapport à l'axe de rotation. La quantité exacte dont vous devez déplacer le centre de gravité dépendra de la géométrie du pendule et de la distribution de sa masse. Il est probable que cela nécessite des calculs complexes et une compréhension détaillée de la physique du pendule. Vous pourriez avoir besoin d'une assistance plus spécialisée pour effectuer cet ajustement de manière précise.

User
On suppose que la masse est sphérique et on néglige celle du bras

ChatGPT
Si l'on suppose que la masse est sphérique et que l'on néglige la masse du bras du pendule, vous pouvez utiliser la formule suivante pour calculer la longueur requise du pendule afin d'obtenir une période de 2 secondes :

T = 2π√(L/g)

Dans ce cas, T est la période que vous souhaitez (2 secondes), et g est l'accélération due à la gravité. Vous pouvez réorganiser cette formule pour résoudre L :

L = (T^2 * g) / (4π^2)

Maintenant, en insérant les valeurs, vous obtenez :

L = (2^2 * 9.81 m/s^2) / (4 * π^2) ≈ 1.002 mètres

Donc, pour obtenir une période de 2 secondes avec une masse sphérique et en négligeant la masse du bras, vous devrez ajuster la longueur du pendule pour qu'elle soit d'environ 1.002 mètres. Cela signifie que vous devrez déplacer le centre de gravité de la sphère à une distance de 1.002 mètres de l'axe de rotation pour atteindre cette période.

User
De combien dois-je déplacer la masse sphérique pour passer de la période mesurée de 2.0001 seconde à 2 secondes exactement ?
ChatGPT
Pour passer d'une période mesurée de 2.0001 secondes à 2 secondes exactement avec une masse sphérique négligeant la masse du bras, vous pouvez utiliser la formule suivante :

ΔL = (T^2 * g) / (4π^2) - (T_mesurée^2 * g) / (4π^2)

où :

ΔL est la quantité que vous devez déplacer la masse sphérique,
T est la période souhaitée (2 secondes),
T_mesurée est la période mesurée précédemment (2.0001 secondes),
g est l'accélération due à la gravité (environ 9.81 m/s²),
4π^2 est une constante.
Insérez les valeurs dans la formule :

ΔL = ((2^2 * 9.81 m/s^2) / (4π^2)) - ((2.0001^2 * 9.81 m/s^2) / (4π^2))

Calculons cela :

ΔL ≈ (39.24 / (4π^2)) - (39.240081 / (4π^2))
ΔL ≈ (9.9 / π^2) - (9.90002 / π^2)

ΔL ≈ (9.9 - 9.90002) / π^2
ΔL ≈ (-0.00002) / π^2

ΔL ≈ -0.0000064 mètres

Vous devrez déplacer la masse sphérique d'environ -0.0000064 mètres (soit environ -6.4 micromètres) vers le haut ou le bas par rapport à sa position actuelle pour passer de 2.0001 secondes à 2 secondes exactement.

User
Raccourcir ou allonger ?

ChatGPT
Vous devrez allonger la longueur du pendule d'environ 6.4 micromètres (ou 0.0000064 mètres) pour passer de 2.0001 secondes à 2 secondes exactement.

User
Quand on allonge la période augmente ou diminue ?

ChatGPT
Lorsque vous allongez la longueur d'un pendule simple, la période augmente. En d'autres termes, en augmentant la longueur du pendule, vous aurez besoin de plus de temps pour qu'il effectue un oscillation complète, ce qui se traduit par une période plus longue. Donc, si vous souhaitez passer de 2.0001 secondes à 2 secondes, vous devez allonger la longueur du pendule pour augmenter la période.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 17/10/2023 à 23:48
Citation Envoyé par KiLVaiDeN Voir le message
Non, cela aurait été un manque de respect pour mes interlocuteurs, si ça avait été le cas je l'aurais mentionné Et puis en me relisant j'ai vu des fautes d'aurtographe etc
Au temps pour moi, je croyais que c'était du troll.

Puisque ça n'en est pas, et que j'apprécie les gens qui prennent le temps de débattre, je vais te décrire ce que je crois être un troisième camp: ceux qui en ont marre du battage médiatique fait pour nous vendre toujours plus de cochonneries inutiles. Ceux qui en ont marre de voir naître de nouveaux produits qui ne sont qu'une excuse pour pomper toujours plus de données ou centraliser le pouvoir autour des Big Tech / GAFAM. Ceux qui ont déjà fait du réseau de neurones et qui en ont marre de lire les articles de tous ces charlatans qui attribuent de l'intelligence là où il n'y en a pas. Rien que la tournure des phrases "L'IA" plutôt que "Une IA", sont faites pour donner un air absolu, comme si on faisait face à Skynet...

Pas besoin de chercher de la religion dans tout ça. Juste un désir d'arrêter d'être pris pour des pigeons, mais là, je rêve.
2  0