IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un avocat écope de sanctions pour utilisation de ChatGPT qui a produit de fausses citations sur un dossier judiciaire,
Le tableau questionne sur la pertinence de l'usage de tels outils pour le génie logiciel

Le , par Patrick Ruiz

25PARTAGES

8  0 
Un avocat écope de sanctions pour utilisation de ChatGPT qui a produit de fausses citations sur un dossier judiciaire
Le tableau questionne sur la pertinence de l'usage de tels outils pour le génie logiciel

Le mois dernier, un jeune diplômé d’une école de droit a perdu son emploi après avoir utilisé ChatGPT pour l'aider à rédiger un dossier judiciaire qui s'est avéré truffé d'erreurs : de nombreuses citations erronées ainsi qu’au moins une affaire inexistante dans les bases de données juridiques. C’est une situation qui vient étendre une longue liste de cas similaires et qui soulève la question de la pertinence de la mise à contribution de tels outils dans d’autres domaines, notamment, celui du génie logiciel. En effet, de récentes études font état de ce que la production d’informations erronées par les modèles d’intelligence artificielle ira croissant avec leur degré de sophistication.



Air Canada s’est ainsi vu obligé de respecter une politique de remboursement inventée par un chatbot intégré à son site web

Le jour où la grand-mère de Jake Moffatt est décédée, ce dernier s'est à l’immédiat rendu sur le site Web d'Air Canada pour réserver un vol de Vancouver à Toronto. Ne sachant pas comment fonctionnent les tarifs d'Air Canada pour les personnes en deuil, Moffatt a demandé au chatbot d'Air Canada de lui expliquer. Ce dernier a fourni des informations inexactes, encourageant Jake Moffatt à réserver un vol à l’immédiat, puis à demander un remboursement dans les 90 jours. Une recommandation en contradiction avec la politique de la compagnie aérienne qui stipule qu’elle ne procède pas à des remboursements une fois que la réservation est effectuée.

Jake Moffatt a donc porté plainte en joignant une capture d’écran de sa conversation avec le chatbot : « Si vous devez voyager à l’immédiat ou si vous avez déjà voyagé et que vous souhaitez soumettre votre billet pour bénéficier d'un tarif réduit pour les personnes en deuil, veuillez le faire dans les 90 jours suivant la date d'émission de votre billet en remplissant notre formulaire de demande de remboursement de billet. »

Le tribunal a au final tranché que M. Moffatt a droit à un remboursement partiel de 650,88 dollars canadiens (environ 482 USD) sur le prix initial du billet qui était de 1 640,36 CAD (environ 1 216 USD), ainsi qu'à des dommages-intérêts supplémentaires pour couvrir les intérêts sur le billet d'avion et les frais de justice de M. Moffatt.

Air Canada a décidé de se conformer à la décision et de considérer l'affaire comme close après avoir refusé d’endosser la responsabilité de l’erreur commise par le chatbot intégré à son site web. La compagnie aérienne a ensuite procédé à la désactivation de ce dernier.


Malgré les avancées de l'intelligence artificielle, la vigilance humaine reste indispensable

L’erreur de ChatGPT qui a coûté 10 000 dollars à une startup est un rappel que, malgré les avancées de l’IA, la vigilance humaine reste indispensable. Les outils d’IA sont puissants, mais ils ne remplacent pas le jugement critique et l’expertise des développeurs. En fin de compte, c’est la responsabilité des équipes humaines de s’assurer que la technologie qu’elles utilisent est sûre et fiable.

D'ailleurs, l'erreur ne saurait être imputable entièrement à ChatGPT : les développeurs auraient du prendre la peine d'analyser le code au lieu de se limiter à quelques tests avant la copie. Ils semblent le reconnaitre lorsqu'ils déclarent :

« Je voudrais commencer par dire que les pratiques en question sont très mauvaises et embarrassantes (et nous avons depuis ajouté des tests unitaires et d'intégration robustes ainsi que des alertes et des enregistrements), qu'elles auraient pu et dû être évitées, qu'il s'agissait d'erreurs humaines au-delà de tout, et qu'elles sont très évidentes avec le recul.

« Cela s'est passé à une autre époque, avec d'importantes contraintes de temps, aux tout premiers stades (premières semaines) de la création d'une entreprise. Je partage surtout cette histoire comme une anecdote amusante avec des circonstances uniques entourant la reproductibilité des bogues en prod (encore une fois à cause de notre propre stupidité) ».

Quoi qu'il en soit, tout est bien qui finit bien : « Rétrospectivement, aussi pénibles qu'aient été ces cinq jours, c'est l'un de ces moments de la vie d'une startup que nous n'oublierons jamais. Comme toutes les startups, nous avons fait une tonne d'erreurs tout au long de notre parcours, celle-ci étant peut-être la pire. J'évoquerai peut-être les autres plus tard. Nous sommes simplement heureux de pouvoir regarder ces jours-là en arrière et d'en rire. Oui, nous aurions dû faire plus de tests. Oui, nous n'aurions pas dû copier-coller du code. Oui, nous n'aurions pas dû passer directement à l'application principale. Quoi qu'il en soit, je ne regrette pas cette expérience ».

Source : Utah

Et vous ?

En tant que développeur ou utilisateur d’IA, comment assurez-vous la qualité et la précision du code généré par l’IA ?
Avez-vous des expériences personnelles où l’IA a joué un rôle crucial, positivement ou négativement, dans votre travail ?
Selon vous, quelles mesures de sécurité devraient être mises en place lors de l’intégration de solutions d’IA dans les systèmes d’entreprise ?
Pensez-vous que les erreurs mentionnées sont des cas isolés ou révélateurs d’un problème plus large dans l’industrie de l’IA ?
Comment pensez-vous que les entreprises peuvent équilibrer l’innovation technologique avec les risques potentiels associés à l’automatisation ?
Quelles stratégies votre entreprise a-t-elle adoptées pour prévenir les erreurs coûteuses liées à l’IA ?
Quel rôle les tests et la validation jouent-ils dans votre utilisation de l’IA, et comment ces processus pourraient-ils être améliorés ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
Vous avez lu gratuitement 239 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 03/06/2025 à 22:25
Ha, enfin des news sur l'IA qui présentent des cas d'utilisation réels et pas des démos technique inutiles !

5  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 03/06/2025 à 23:07
Il est bien connu que les fournisseurs de contenus doivent être éliminés pour permettre à l'IA d'exister.
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/06/2025 à 0:11
Citation Envoyé par Bruno Voir le message
Ce phénomène illustre le paradoxe de l'IA dans la recherche : outil potentiel d'avancées majeures, elle devient aussi un vecteur de désinformation lorsqu'elle est détournée par des logiques productivistes. La situation appelle une réponse collective de la communauté scientifique pour préserver les fondements mêmes de la connaissance, alors que les frontières entre recherche authentique et "science-fiction" deviennent de plus en plus floues.
Cela va au delà :
  • dans la science via une perte de rigueur scientifique
  • dans le développement logiciel via une perte de qualité de code
  • dans l'art via une perte de qualité artistique : tout fini par se ressembler
  • dans les articles d'actualité via une perte de fond : répétition à en vomir des même choses, on a peut-être 20% de l'article qui apporte une nouvelle info, le reste venant des autres articles ayant été écrits dans les dernières 48h
  • etc.


La communauté scientifique n'a pas plus de solution à apporter que les développeurs, les artistes, les journalistes, etc. n'ont de solution à apporter à leur métier. Il s'agit d'un problème fondamental, où l'on fait face à une facilité déconcertante à produire du contenu de manière massive, mais où on a encore du mal à faire la différence entre les contextes qui profitent réellement d'une production massive, car ayant peu d'intérêt pour la qualité, face aux contextes qui visent au contraire une qualité de contenu, et qui ne peut donc se réduire à une génération massive. Quand on applique une génération massive dans un contexte nécessitant de la rigueur, on fait forcément fausse route, même si au début ça fait "Wow !".

Wikipédia est pour moi un des meilleurs exemples en la matière : avec son existence il est devenu très facile de générer du contenu encyclopédique accessible à tous. En effet ça ne coûte rien d'éditer un article et d'envoyer son changement, et du coup ils ont fait face à une vague de changements, bourrées de changements de piètre qualité voire malveillants. La réponse ? Une modération de plus en plus rigoureuse, rendant l'intérêt "productiviste" des changements malveillants moins rentable, donc moins présent, et l'acceptation de contenu de piètre qualité plus rare, donc une augmentation générale de la qualité. Avec ses soucis aussi, il ne faut pas être bisounours.
https://www.lefigaro.fr/blogs/techno...roissance.html
https://hyperbate.fr/dernier/?p=5554

Mais là où Wikipédia se différencie des scientifiques, des développeurs, des artistes, ou des journalistes, c'est qu'un contributeur de Wikipédia n'en vit pas. Il s'agit d'une communauté marchant globalement dans le même sens, et le peu de temps consacré par chacun à son évolution fait avancer le tout. Alors que pour les scientifiques, développeurs, artistes, ou journalistes, ce type de fonctionnement relève plutôt de l'exception : ces gens là touchent de l'argent pour faire leur métier, et ont donc des comptes à rendre, muent par les même règles productivistes que prônent nos sociétés.

L'exception existe : les scientifiques indépendants, les développeurs open source, les artistes bénévoles, les rédacteurs de blogs. Des gens qui produisent sans contrepartie, car c'est ce qui les passionne, c'est leur art qui s'exprime, et donc leur créativité et la qualité de leurs oeuvres qui prennent le pas. Ce genre de personne qui ne manque pas une occasion de s'améliorer un peu à chaque fois, plutôt que de produire pour produire, parce que c'est la production qui fait tomber le chèque à la fin du mois, pas la qualité.

Évidemment je reste simpliste : il y a des contributeurs bénévoles financièrement, mais qui en tirent autre chose par ailleurs. Comme il y a des professionnels qui font leur boulot par passion et font évoluer leur métier. Mais quels sont les profils que promeuvent nos sociétés ? Il ne faut pas s'étonner que les profils vertueux restent marginaux quand l'image que les gens se font du succès est corrélée à la quantité de pognon, et que ledit pognon est corrélé à la quantité de dessous de table plutôt qu'un salaire honnête.

Tant que la société n'évoluera pas pour donner plus de valeur à la qualité plutôt qu'à une masse de piètre qualité, on restera dans un cercle vicieux :
  • les scientifiques continueront de produire des articles pour augmenter leur H-index
  • les dévs continueront de pisser du code pour fermer des tickets (pas résoudre les problèmes, qu'ils ne comprennent pas plus que le logiciel qu'ils modifient, juste fermer les tickets)
  • les artistes continueront de se recopier les uns les autres
  • les articles d'actualité continueront de grappiller notre attention moribonde plutôt que de nous apprendre des choses utiles ou stimulantes
  • etc.


Et au final, tous se feront remplacer par l'IA.

Bref, la situation ne se résoudra pas par une "réponse collective de la communauté scientifique pour préserver les fondements mêmes de la connaissance". Ils n'ont pas ce pouvoir, tout au plus peuvent ils jouer les réactionnaires via des actions isolées, réjouissantes mais pas pérennes. Ils sont dans la main des éditeurs de revues qui, eux, ont du pognon à se faire. Depuis quelques années, on a des vagues d'indépendances contre Microsoft de la part d'entités publiques qui passent à Linux. Il faut espérer que ça dure et que la science soit la prochaine.

Citation Envoyé par Bruno Voir le message
L'évaluation par les pairs, souvent présentée comme rempart absolu, montre ses limites face à ce tsunami.
Cela n'a jamais été un rempart absolu. Il s'agit d'un nettoyage à l'entrée : un filtrage grossier pour éviter les bévues évidentes.

Le rempart absolu, c'est la répétition : une vérité scientifique s'établit dans le temps, à force d'observations répétées dans des situations diverses, filtrées via des méta-analyses résumant les points clés des multiples observations, permettant ainsi de tirer des conclusions plus générales jusqu'à ce que de nouvelles études les remettent en cause. Ainsi, il n'est pas très difficile de passer au travers de 1 revue par les pairs. Mais arriver à toutes les passer jusqu'à s'établir comme vérité scientifique, c'est statistiquement infaisable.

Même si un article scientifique sur l'IA vient de DeepMind, il faut le prendre avec la même prudence qu'un article d'un parfait inconnu. Ce n'est pas pour rien que certaines revues ont établit une relecture à l'aveugle. A contrario, si on migre vers une science open source à la Wikipédia, c'est publication immédiate et non anonyme, mais commentaires ouverts au public, donc backlash quasi garanti en cas d'entourloupe. C'est pas pour rien que les dévs nettoient leurs projets avant de les mettre open source (quand ils ont le courage de le faire). C'est ce qu'on voit avec l'IA : tout se fait en open source, ouvert au public, et l'effet "wow" commence à perdre de sa superbe : on voit désormais tous les jours des articles sortir sur les limites réelles, les promesses non tenues, les retour en arrière après remplacement par l'IA, etc.

Citation Envoyé par Bruno Voir le message
Parallèlement, il devient urgent d'éduquer le public (et les journalistes) à une lecture critique des études scientifiques - non pas dans leur jargon technique, mais dans leurs faiblesses méthodologiques possibles. Car comme le note un commentaire, le vrai problème n'est pas que ces articles existent, mais qu'ils soient pris pour argent comptant par des publics non avertis.
C'est effectivement fondamental : dans le monde du développement aujourd'hui, on ne dit pas qu'une application marche parce que "ça semble tourner", mais parce qu'on a une batterie de tests qui représentent nos exigences et qui passent. De la même manière, on ne dit pas qu'une étude démontre quoi que ce soit parce que "ça fait sens" - déjà parce qu'une étude ne démontre jamais, elle ne fait qu'apporter des évidences dans un sens - mais parce qu'elle applique une méthode qui lui permet d'éviter les écueils connus et documentés en sciences depuis longtemps. Un journaliste présentant une recherche scientifique devrait être à la hauteur d'un pair participant à la revue dudit article (qui je le rappelle n'est qu'un premier filtrage, un reviewer n'a pas forcément le niveau de rigueur qu'on pourrait croire, certains professeurs délégant la tâche à leurs étudiants doctorants).

L'article apporte en tout cas la seule conclusion à apporter :
Citation Envoyé par Bruno Voir le message
En définitive, cette crise pose une question fondamentale : voulons-nous une science qui produit du savoir ou une science qui produit des publications ? L'IA, comme souvent, ne fait qu'amplifier et rendre visible un choix de société qui nous appartient.
2  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 23/06/2025 à 8:51
Citation Envoyé par Gluups Voir le message
Quelles sanctions pour une décision illisible ?
ils seront virés pour ce genre de faute.... pour etre recaser à un poste plus prestigieux encore
(Agnès Buzyn, Amélie de Montchalin, Jean Castex, Brigitte Bourguignon, Emmanuelle Wargon la femme qui dit que la maison individuel c'était plus possible (pour vous le peuple, pas pour elle qui a une grosse villa à la campagne))
le meilleur d'entre tous: Thierry Breton bien sur. Orange, Atos et maintenant l'Europe ! J'avais parié après la dissolution ministre de l'économie en France mais je me suis planté.

Meme chose coté PDG évidement. Tavares après avoir coulé stellantis je vous rassure passe des jours heureux dans ces vignes du Portugal bon lui a pris sa retraite bien mérités.
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 23/06/2025 à 6:52
Effectivement, et au bout de quelques décennies que nos décideurs semblent fournir de la décision produite par intelligence artificielle, allons-nous être obligés de tout lire ?

Quelles sanctions pour une décision illisible ?
0  0