IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT réussit l'examen de la faculté de droit des États-Unis malgré des performances médiocres
Des professeurs estiment que cela pourrait signer la fin des méthodes d'enseignement traditionnelles

Le , par Stéphane le calme

10PARTAGES

7  0 
ChatGPT a réussi des examens dans une faculté de droit américaine après avoir rédigé des essais sur des sujets allant du droit constitutionnel à la fiscalité et aux délits. Sur plus de 95 questions à choix multiples et 12 questions à développement, ChatGPT a obtenu une note de C+, faible mais suffisante pour réussir l'examen. Après avoir donné des détails sur ces résultats, les professeurs ont discuté de leurs implications pour la formation juridique et la profession d'avocat. Ils ont entre autres prévenu que cela pourrait conduire à une fraude généralisée et même signaler la fin des méthodes d'enseignement traditionnelles en classe. Ils ont aussi fourni des exemples d'invites et des conseils sur la façon dont ChatGPT peut aider à la rédaction juridique.

ChatGPT ne peut pas encore surpasser la plupart des étudiants en droit aux examens, selon de nouvelles recherches, mais il peut obtenir une note de passage. Un quatuor de professeurs de droit de l'Université du Minnesota a utilisé le populaire chatbot d'intelligence artificielle pour générer des réponses aux examens de quatre cours le semestre dernier, puis les a notés à l'aveugle aux côtés des tests des étudiants réels.

Jonathan Choi, professeur à la faculté de droit de l'Université du Minnesota, a soumis à ChatGPT au même test auquel les étudiants étaient confrontés, composé de 95 questions à choix multiples et de 12 questions à développement. Dans un livre blanc intitulé « ChatGPT va à la faculté de droit » publié lundi, lui et ses coauteurs ont rapporté que le bot avait obtenu un C+ dans l'ensemble, en dessous de la moyenne B+ des humains.

« Seul, ChatGPT serait un étudiant en droit plutôt médiocre », a déclaré l'auteur principal de l'étude, Jonathan Choi, qui a collaboré avec les professeurs Kristin Hickman, Amy Monahan et Daniel Schwarcz. « Le plus grand potentiel pour la profession ici est qu'un avocat puisse utiliser ChatGPT pour produire une première ébauche et simplement rendre sa pratique beaucoup plus efficace », a-t-il déclaré.

Choi a déclaré que lui et de nombreux collègues avaient désormais interdit l'utilisation d'Internet pendant les examens en classe pour éliminer la possibilité de tricher avec ChatGPT, bien que les futurs examens puissent tester leur capacité à tirer efficacement parti des programmes d'intelligence artificielle.

La performance de ChatGPT dans le détail

Voici ce que les professeurs ont noté :

Bien qu'il ait obtenu des performances suffisantes pour obtenir théoriquement un diplôme d'avocat, ChatGPT a généralement obtenu un score au niveau ou près du bas de chaque classe. ChatGPT a reçu un B en droit constitutionnel (36e sur 40 étudiants), un B- en avantages sociaux (18e sur 19 étudiants), un C- en fiscalité (66e sur 67 étudiants) et un C- en responsabilité civile (75e sur 75 étudiants).

En général, ChatGPT a obtenu de meilleurs résultats sur les composants de rédaction des examens que sur le choix multiple.

En ce qui concerne les essais, les performances de ChatGPT étaient très inégales. Dans certains cas, elle correspondait à, ou même dépassait, la performance moyenne de vrais étudiants. D'un autre côté, lorsque les questions à développement de ChatGPT étaient incorrectes, elles étaient dramatiquement incorrectes, obtenant souvent les pires scores de la classe. Il n'est peut-être pas surprenant que ce résultat soit particulièrement probable lorsque les questions à développement obligeaient les étudiants à évaluer ou à s'appuyer sur des cas, des théories ou des doctrines spécifiques abordés en classe.

En ce qui concerne les questions à choix multiples, ChatGPT a généralement obtenu des résultats inférieurs à ceux des essais, mais toujours statistiquement nettement meilleurs que le hasard. Il a répondu correctement à 21 questions à choix multiples sur 25 à l'examen de droit constitutionnel (p = 0,000)* et à 6 sur 10 à l'examen de responsabilité délictuelle (p = 0,020). Cependant, ChatGPT a obtenu des résultats bien pires sur les questions impliquant des mathématiques, qui apparaissaient exclusivement à l'examen sur la fiscalité et ont fait baisser son score. Lors de l'examen sur la fiscalité, ChatGPT n'a répondu correctement qu'à 8 des 29 questions mathématiques, essentiellement pas mieux que le hasard (p = 0,443). Il a répondu correctement à 16 des 31 questions non mathématiques (y compris les questions impliquant des nombres mais sans raisonnement mathématique), nettement mieux que le hasard (p = 0,001). ChatGPT avait également tendance à mieux performer sur les questions à choix multiples qui impliquaient des règles juridiques relativement uniformes dans toutes les juridictions, plutôt que des doctrines qui pouvaient varier considérablement d'une juridiction ou d'un tribunal à l'autre.

* : Toutes les valeurs de p ont été générées à l'aide du bootstrap. L'examen de droit constitutionnel avait 5 choix par question, tandis que les examens de fiscalité et de responsabilité civile avaient 4 choix par question.

Lors de la rédaction d'essais, ChatGPT a montré une solide compréhension des règles juridiques de base et avait une organisation et une composition toujours solides. Cependant, il a eu du mal à identifier les problèmes pertinents et n'a souvent appliqué que superficiellement les règles aux faits par rapport aux vrais étudiants en droit.


ChatGPT a fait un bon travail en résumant avec précision les doctrines juridiques appropriées et en citant correctement les faits et les conclusions de cas spécifiques. Dans de nombreux cas, il a pu se concentrer sur les doctrines juridiques pertinentes sans incitation spécifique par la question. Par exemple, en réponse à un essai sur le droit de la responsabilité délictuelle impliquant un propriétaire qui a érigé une décoration d'Halloween dangereuse qui a blessé une personne participant à l'évènement [des bonbons ou un sort ?], il a non seulement précisé les éléments familiers de la négligence (devoir, violation, causalité et dommages), mais aussi a correctement spécifié que le propriétaire - qu'il a identifié par son nom - « a l'obligation légale de maintenir sa propriété dans un état raisonnablement sûr pour ceux qui sont invités ou autorisés à se trouver sur la propriété ».

ChatGPT a tout aussi bien réussi à énoncer des règles juridiques largement pertinentes sur des sujets relativement techniques qui sont probablement moins bien attestés dans le corpus de formation (par exemple, les avantages sociaux), par opposition à des sujets relativement courants (par exemple, la responsabilité civile). Lors de l'examen des avantages sociaux des employés, ChatGPT a été en mesure de fournir une explication solide de la disposition de préemption notoirement difficile de l'ERISA, citant à la fois un langage législatif spécifique et des décisions pertinentes de la Cour suprême élucidant cette norme. ChatGPT a même dépassé la moyenne de la classe lorsqu'il a répondu à une question à réponse courte impliquant les règles hautement techniques des transactions interdites de l'ERISA.

ChatGPT est connu pour « halluciner » en fabriquant des faits, mais dans notre étude, il ne l'a généralement pas fait, peut-être parce que nos invites ont demandé à ChatGPT de ne pas fabriquer de cas et (lorsque la question de l'examen l'exige) que nous lui avons fourni un univers spécifique de cas avec lesquels travailler. ChatGPT était également bon pour maintenir le ton requis par l'essai. Par exemple, en réponse à une question à développement sur le droit constitutionnel demandant une réponse sous la forme d'une note à l'avocat évaluant les réclamations potentielles, la réponse du ChatGPT a conservé le ton et le format appropriés tout au long.

Les réponses à l'essai de ChatGPT étaient généralement claires et bien conçues, peut-être même de manière suspecte par rapport à de vrais étudiants écrivant un examen limité dans le temps. Stylistiquement, ChatGPT a produit du texte sans erreurs grammaticales ni fautes de frappe. Il a également bien structuré les phrases et les paragraphes, bien que de manière formelle, avec des phrases d'introduction et des conclusions. Peut-être parce que nous avons incité ChatGPT à rédiger des essais plus longs section par section, il avait une bonne organisation de haut niveau et était relativement clair sur la séparation des points pertinents dans son argumentation. Par exemple, sa réponse à une hypothèse de responsabilité du fait des produits a analysé séparément trois réclamations potentielles (conception défectueuse, avertissement défectueux et batterie), deux recours potentiels (dommages-intérêts compensatoires et punitifs) et la question ultime contenue dans l'invite de rédaction concernant la question de savoir si un le tribunal doit faire droit aux requêtes en rejet des défendeurs.

Faiblesses dans les rédactions d'essais

Cependant, les réponses dans les essais de ChatGPT contenaient également des problèmes et des erreurs constants qui, cumulativement, en faisaient un élève bien pire que la moyenne. ChatGPT avait souvent du mal à détecter les problèmes lorsqu'il recevait une invite ouverte, une compétence essentielle aux examens des facultés de droit. Par exemple, dans le problème de droit constitutionnel (un sujet dans lequel il a par ailleurs relativement bien performé), il n'a clairement identifié qu'un seul problème sur 5. De même, dans un essai sur le droit de la responsabilité délictuelle, ChatGPT n'a pas réussi à identifier les théories distinctes de la négligence les faits.

ChatGPT était également mauvais pour se concentrer sur ce qui comptait ; il produirait de bonnes réponses sur le sujet à une question, puis irait complètement hors sujet pour la question suivante, comme avec ses résultats très divergents sur les observateurs des problèmes des avantages sociaux des employés. Par exemple, dans une longue question à développement impliquant des recours disponibles en vertu de l'ERISA, ChatGPT n'a pas discuté de la question principale (si un recours souhaité était en fait disponible en vertu de l'ERISA) et a plutôt passé du temps à discuter des causes d'action ERISA qui n'étaient pas pertinentes pour les faits, ainsi qu'une cause d'action en droit de l'État qui était bien en dehors du champ d'application d'un cours sur les avantages sociaux des employés.

Et bien que ChatGPT ait bien réussi certaines réponses techniques courtes à l'examen des avantages sociaux des employés, il a également manqué des problèmes apparemment faciles. Dans une question à réponse courte impliquant le droit de continuer à être couvert par un régime de santé de l'employeur, ChatGPT a manqué un problème relativement facile à repérer - que l'employeur en question n'était pas soumis aux exigences de couverture de continuation de l'ERISA parce qu'il était en dessous du seuil de taille pertinent. En conséquence, les performances de ChatGPT avaient tendance à être très inégales, obtenant un score proche ou même supérieur à la moyenne sur certaines questions, et proche de zéro sur d'autres questions.

L'un des plus gros problèmes avec les essais de ChatGPT était qu'ils n'entraient pas suffisamment dans les détails lors de l'application des règles juridiques aux faits contenus dans les hypothèses d'examen. Dans de nombreux cas (mais pas toujours), ChatGPT a énoncé avec précision la règle juridique pertinente et (le cas échéant) a cité le cas correct, mais n'a pas expliqué comment le cas s'appliquait aux faits hypothétiques de l'examen. C'était un problème particulier sur les délits et le droit constitutionnel, et l'une des raisons de la mauvaise performance de ChatGPT à ces examens.

Par exemple, dans Torts, ChatGPT a correctement écrit que la responsabilité dépendrait de la question de savoir si les actions d'un défendeur étaient la cause d'une blessure, mais n'a pas évalué si les faits de l'examen hypothétique suggéraient l'existence d'une telle causalité (factuelle ou immédiate). En droit constitutionnel, bien que ChatGPT ait correctement identifié un problème de clause de nomination et cité certains des bons cas, ChatGPT n'a pas énoncé les normes juridiques pertinentes pour évaluer le problème, identifié les faits soulevés ou analysé ces faits pour parvenir à une conclusion. Peut-être parce qu'OpenAI a utilisé RLHF pour empêcher ChatGPT de faire des déclarations fortes et pour embrasser l'incertitude, ChatGPT était parfois excessivement méfiant, refusant de faire un argument sur l'interprétation la plus plausible des faits pertinents lorsque ces faits pointaient potentiellement dans des directions concurrentes.

ChatGPT a également parfois mal compris les termes techniques contenus dans les examens. Par exemple, il a mal compris le terme "paiement forfaitaire" dans l'examen des avantages sociaux, peut-être parce que ChatGPT est un modèle de langage à usage général et que l'expression n'est pas largement utilisée en dehors de certains paramètres financiers.

Conclusion

Le très populaire ChatGPT a fait ses débuts fin novembre et est gratuit pour les utilisateurs. Il génère des réponses basées sur les demandes des utilisateurs et des montagnes de données, y compris des textes juridiques.

D'autres universitaires en droit ont également expérimenté le programme. Le doyen en droit de l'Université de Suffolk, Andrew Perlman, a co-écrit un article scientifique avec le programme en décembre. Deux autres professeurs de droit ont demandé à ChatGPT de répondre aux questions à choix multiples de l'examen du barreau. Il n'a pas réussi mais a mieux fonctionné que prévu.

Source : livre blanc « ChatGPT va à l'école de droit »

Voir aussi :

ChatGPT réussit un examen de MBA donné par un professeur de l'université de Pennsylvannie après un d'informatique pour élèves du secondaire désireux d'obtenir des crédits universitaires US

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message

Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message

L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message

Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de thamn
Membre averti https://www.developpez.com
Le 19/02/2023 à 21:59
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
Ah oui bien sur, pour changer de boulot suffit de traverser la rue comme disait l'autre.
Essaye de changer de job sans debaler ton joli diplome qui t'aurais couté un bras au US, et revient nous en causer apres.
13  0 
Avatar de babacool421
Nouveau membre du Club https://www.developpez.com
Le 10/02/2023 à 12:52
Citation Envoyé par Mat.M Voir le message
la méga différence entre Google et ChatGPT c'est que le premier est une entreprise vraiment commerciale qui gagne du cash.
ChatGPT je sais pas ce que c'est, est-ce un outil développé par un collectif d'universitaires ?
Comment ce truc 'est financé ?

Google est dirigé par des informaticiens, Serguei Brin en particulier, est un ingénieur/chercheur brillant qui développe et intervient sur les projets R&D encore aujourd'hui. Serguei est convaincu pour avoir eu la chance de participer à une conférence "intimiste" que l'émergence de l'IA forte est primordiale et une étape importante dans l'évolution de notre civilisation (voir pour sa survie). L'IA forte nous permettrait, selon lui, de faire un nouveau bon technologique et de résoudre plus rapidement des problématiques hors de portée de l'intelligence humaine à ce jour (amélioration importante de la durée de vie, maitrise de la fusion nucléaire ou des réactions matières/anti-matière, maitrise du voyage interstellaire (trou de vers, métrique d’Alcubierre,...),...
N'oublions pas qu'à tout moment un évènement stellaire pourrait détruire notre habitat (comète, sursaut gamma, trou noir errant) et même le réveil des trapps de sibérie pour rendre notre planète inhabitable. Cet évènement arrivera et nous ne pouvons prédire quand. Demain peut-être.

remarque pertinente..sans trop faire du H.S. j'espère que c'est possible pour nos "fleurons" hexagonaux comme Cap ou Atos quand on voit les déboires d'Atos...
Citez moi une innovation technologique impactante à l'échelle de l'humanité (même de l'Europe) développée de Cap ou Atos ? Pour avoir travaillé pour ces entreprises et d'autres ESN, ces sociétés détournent les dispositifs comme le CIR/CII pour améliorer leur marge au lieu de financer de vrais projets R&D et développer des nouvelles technologies. Et même les ratios de ces "faux" budgets R&D sont ridicules comparés aux investissements de Google ou Amazon.
En France, nous sommes très bons en recherche fondamentale ou en recherche appliquées de part notre réseau universitaire et d'école assez performant. Mais, les entreprises françaises qui profitent de ses travaux sont dirigés par des investisseurs, des ignorants en science, incapable de juger par eux même de la pertinence d'une thèse par rapport à une autre. Nous avons probablement entre 10 et 15 ans de retard sur la R&D sur le domaine de l'informatique, l'IA ou la robotique par rapport à Google et Amazon.
12  0 
Avatar de electroremy
Membre expérimenté https://www.developpez.com
Le 02/02/2023 à 11:10
Que penser de toute cette agitation autour de "l'intelligence artificielle" ?

D'abord, sur le principe il n'y a rien de nouveau. Les réseaux de neurones, algorithmes génétiques, la logique floue, les systèmes experts existent depuis des décennies. Au début des années 2000, j'avais moi même utilisé un algorithme génétique qui donnait "presque miraculeusement" rapidement de bons résultats à un problème d'optimisation.

Aujourd'hui, nous avons juste à disposition :

- des ordinateurs beaucoup plus rapides avec beaucoup plus de mémoire

- beaucoup de données exploitables facilement et directement, grâce (ou à cause) de l'usage de l'informatique dans la vie quotidienne et professionnelle.

Les résultats sont impressionnants, notamment grâce à la façon dont ils sont présentés : langage "naturel", synthèse vocale de bonne qualité, avatars en 3D voire vidéos réalistes.

Il faut garder la tête froide : ces dispositifs ne "réfléchissent" et ne "comprennent" pas du tout. Ce sont des boites noires, qui arrivent à sortir rapidement un résultat connu depuis les données dont ils disposent.

Ils sont similaires à une grande encyclopédie : une étagère complète de livres épais qui "connaissent" toutes les définitions, toutes les biographies, tous les faits historiques... pourtant personne ne va trouver une encyclopédie "intelligente".

Cette "intelligence artificielle" peut se planter de façon totalement imprévisible, comme le montrent les expérimentations sur la conduite autonome des voitures dans un milieu ouvert.

De plus, elle ne semblent pas pouvoir inventer des choses réellement nouvelles - attention, la grande quantité de données dont elles disposent peuvent laisser croire le contraire, car les capacités des datacenters actuels dépassent les capacités de mémorisations du commun des mortels. Si une IA vous donne l'impression d'avoir fait quelque chose de nouveau, c'est probablement parce qu'elle a des données sur quelque chose que vous ne connaissez pas, ce qui vous laisse croire que c'est nouveau.

En fait c'est ça la véritable leçon de l'histoire : aujourd'hui, l'humanité a accumulé tellement de connaissances sur tellement de sujets qu'il est impossible pour quelqu'un de tout savoir. Même si vous êtes touche-à-tout, que vous lisez beaucoup de livres et écoutez beaucoup de musique, à la fin de votre vie vous n'aurez vu, entendu et compris qu'une toute petite partie de ce qui a été dit ou écrit...
12  1 
Avatar de electroremy
Membre expérimenté https://www.developpez.com
Le 02/03/2023 à 9:28
Bonjour,

Le problème avec ChatGPT, ou plus généralement à notre époque, c'est qu'on a énormément d'informations à disposition MAIS il y a de bonnes et de fausses informations mélangées.
De plus, un certain nombre de bonnes informations sont parfois méconnues.

C'est vrai dans tous les domaines.

J'ai 42 ans, ingénieur généraliste, passionné de bricolage, j'en apprends encore tous les jours, et notamment des choses que "j'aurais dû savoir avant"

Quelques exemples :

J'ai fait moi-même mon chauffage central il y a 15 ans.
J'ai découvert il y a 2 ou 3 ans qu'un mitigeur thermostatique n'était pas compatible avec une chaudière à production d'eau chaude instantanée
Et qu'il fallait ajuster la température de l'eau chaude au minimum, de façon à ne se doucher qu'avec de l'eau chaude (qui est en fait tiède)
La chaudière (modèle à condensation) fonctionne mieux, avec un meilleur rendement, et il n'y a pas de risque sanitaire car il n'y a pas d'accumulation d'eau chaude, étant donné que la production d'eau chaude est instantanée. C'est uniquement quand de l'eau chaude stagne (cumulus) qu'il faut qu'elle soit suffisamment chaude pour éviter un risque sanitaire.
Cette information, beaucoup de gens, y compris "du métier", ne la connaissent pas ou pire disent qu'elle est fausse.

Autre sujet : le béton.
La meilleure façon de bien couler du béton c'est :
- de mettre la quantité d'eau minimum : quand sur le sac c'est écrit "2,7 à 3 litres d'eau" il faut mettre 2,7 litres d'eau pas plus
- d'ajouter du fluidifiant (produit spécifique)
- de vibrer le béton une fois coulé
Beaucoup de gens l'ignorent, et notamment mettent trop d'eau => le béton est fragile, il y a un risque de malfaçon importante voir un danger si la structure est porteuse...
Même en magasin de bricolage, j'ai vu des vendeurs conseiller de doser l'eau au pifomètre !
Même des "professionnels" ajoutent de l'eau dans la toupie pour travailler plus facilement
Ces gens sont incompétents, ce sont des escrocs qui mettent des vies en danger.

ChatGPT se base sur Internet.
Internet est démocratique.
Mais, comme l'a dit mon prof de physique en 1re année de prépa (cela m'avait choqué à l'époque) :
"Le problème avec la démocratie, c'est quand 10 personnes se trompent et 9 personnes ont juste, et bien on donne raison aux 10 personnes qui se trompent"
Les réseaux sociaux, en permettant à n'importe qui de publier très facilement n'importe quoi, ont amplifié le phénomène.
Avant les réseaux sociaux, créer un site demandait un minimum de travail, et pour avoir des visiteurs il fallait publier des contenus intéressants, ça faisait office de filtre (même si il pouvait y avoir pas mal de conneries quand même mais nettement moins qu'aujourd'hui )
D'autant que les algorithmes des réseaux sociaux sont conçus pour amplifier les contenus émotionnels négatifs.
ChatGPT va juste faire la moyenne de tout.
Certes pour quelqu'un qui n'y connais rien sur un sujet, ChatGPT va probablement apporter une réponse.
Mais par rapport aux experts de chaque domaine, ChatGPT est clairement en dessous.
L'IA aboutit donc à un nivellement par le bas

Ainsi le créationnisme en vient à être enseigné dans certains pays comme théorie aussi valable que la théorie de l'évolution
Et on voit, en 2023, des gens croire que la terre est plate.

Que dire de l'IA ? On devrait plutôt parler de connerie artificielle
11  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de
https://www.developpez.com
Le 30/01/2023 à 23:01
Si je resume, je dois travailler jusqu'a 64 ans mais je serais remplacé par une IA prochainement... Quelle belle époque !
Bon, faut donc que je trouve une méthode pour vivre des aides, tranquille, loin du stress...
11  1 
Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 20/02/2023 à 13:07
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
La vie ne fonctionne pas comme ça, il faut que tu sortes de ton cocon pour t'en rendre compte.
Malheureusement, il y a des personnes qui préfèrent nourrir leur enfant en prenant les boulots qui nuise à la dignité plutôt que de n'avoir aucune rentrée d'argent !
8  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/04/2023 à 9:55
"Hey chatGPT, voilà toutes les donneés confidentielles économiques de mon entreprises, fait moi le rapport financier stp, j'ai la flème".
8  0