IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un rapport de police généré par l'IA affirme qu'un policier de l'Utah s'est transformé en grenouille
L'outil d'IA aurait pu capter des bavardages en arrière-plan, selon le département

Le , par Alex

4PARTAGES

12  0 
Un rapport de police généré par l'IA affirme qu'un policier de l'Utah s'est transformé en grenouille, l'outil d'IA aurait pu capter des bavardages en arrière-plan, selon le département

Un rapport de police généré par l'IA affirme qu'un policier s'est transformé en grenouille, le département publie une clarification. Selon le sergent Rick Keel, l'outil d'IA aurait pu capter des bavardages en arrière-plan sans rapport avec l'affaire pour inventer cette tournure mythique au rapport. Keel faisait référence à la comédie musicale de Disney de 2009, La Princesse et la Grenouille, qui a conduit à l'erreur du système d'IA.

Depuis 2022, le terme « hallucination » est devenu le mot-clé qui résume les limites de l’IA générative. Derrière ce vocabulaire presque rassurant, se cache une réalité beaucoup plus problématique : les modèles de langage inventent des faits, produisent de fausses citations, ou bâtissent des raisonnements qui semblent logiques mais qui s’effondrent à la moindre vérification. Le dernier papier scientifique d’OpenAI, Why Language Models Hallucinate, acte une vérité dérangeante : les « hallucinations » des modèles de langage ne sont pas une anomalie, mais une conséquence incontournable de leur conception. L’objectif n’est pas d’atteindre la vérité factuelle, mais de maximiser la vraisemblance statistique. Autrement dit, la fluidité du discours est un produit d’optimisation, pas la véracité.


Dans une tournure comique des événements, le département de police de Heber City, dans l'Utah, a été contraint d'expliquer pourquoi l'un des rapports de police déclarait qu'un policier s'était transformé en grenouille. Depuis l'essor de l'intelligence artificielle (IA), les services chargés de l'application de la loi aux États-Unis ont adopté des outils pour de nombreuses applications, allant de la rédaction de rapports de police à la reconnaissance faciale. Mais dans ce cas, l'utilisation de l'IA semble avoir eu l'effet inverse de celui escompté.

Selon le sergent Rick Keel, l'outil d'IA aurait pu capter des bavardages en arrière-plan sans rapport avec l'affaire pour inventer cette tournure mythique au rapport. Keel faisait référence à la comédie musicale de Disney de 2009, La Princesse et la Grenouille, qui a conduit à l'erreur du système d'IA. « Le logiciel de la caméra corporelle et le logiciel de rédaction de rapports basé sur l'IA ont capté le film qui passait en arrière-plan, qui se trouvait être La Princesse et la Grenouille », a déclaré Keel. « C'est là que nous avons compris l'importance de corriger ces rapports générés par l'IA. »

Le département de police de l'Utah a testé deux logiciels basés sur l'IA, Draft One et Code Four, pour générer automatiquement des rapports de police. L'objectif est de réduire la quantité de paperasse et le temps que les agents doivent consacrer à la rédaction des rapports. Le service de police de Heber City n'a pas encore décidé s'il continuerait à utiliser les outils d'IA, mais Keel a déclaré que l'utilisation de ces outils lui permettait de gagner du temps. « Je gagne environ 6 à 8 heures par semaine », a déclaré Keel. « Je ne suis pas très doué en technologie, donc c'est très facile à utiliser. »

Bien que certains craignent que l'IA ne remplace les emplois humains, il semble que cette dystopie ne soit pas aussi proche que certains pourraient l'imaginer. En septembre dernier, un rapport a souligné que des humains étaient désormais embauchés en grand nombre pour rendre l'IA moins approximative, créant ainsi un domaine d'emploi inattendu. Ce rapport s'inscrit dans le contexte d'une étude du Massachusetts Institute of Technology (MIT) soulignant que 95 % des organisations ayant mis en place des systèmes d'IA n'obtenaient aucun retour sur investissement.

« Malgré 30 à 40 milliards de dollars d'investissements des entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », indique le rapport intitulé « The GenAI Divide: State of AI in Business 2025 » Les outils d'IA tels que ChatGPT et Copilot font partie des modèles les plus adoptés, mais seuls 5 % des projets pilotes d'IA intégrés génèrent des millions de dollars de valeur, tandis que la grande majorité reste bloquée sans impact mesurable sur les profits et les pertes.

En 2024, une étude avait déjà révélé que les hallucinations de grands modèles de langage (LLM) découlent de leurs structures mathématiques et logiques fondamentales. L'étude soutient que les hallucinations dans les modèles de langage ne sont pas seulement des erreurs occasionnelles mais une caractéristique inévitable de ces systèmes. Il est donc impossible de les éliminer par des améliorations architecturales, des améliorations des ensembles de données ou des mécanismes de vérification des faits. En augmentant la complexité et la capacité des modèles, il est possible de réduire la fréquence de ces hallucinations, mais les chercheurs sont convaincus qu'on ne pourra jamais les éliminer complètement et que nous devons nous en accommoder.

Et vous ?

Pensez-vous que cette justification est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Les experts techniques commencent à douter que les « hallucinations » de ChatGPT disparaîtront un jour : « Ce n'est pas réparable ». Pour eux, les LLM vont continuer d'inventer des faits

Quand l'IA menace l'intégrité de la justice : les policiers américains utilisent l'IA pour rédiger des rapports de police et l'ACLU n'est pas contente, elle soulève des risques en matière de transparence

Les outils d'IA sont utilisés par la police qui « ne comprend pas comment ces technologies fonctionnent », selon une étude de l'Université d'État de Caroline du Nord
Vous avez lu gratuitement 4 880 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 10/01/2026 à 21:12
Parfait pour un article publié le vendredi
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 12/01/2026 à 7:43
Citation Envoyé par Alex Voir le message
Le dernier papier scientifique d’OpenAI, Why Language Models Hallucinate, acte une vérité dérangeante : les « hallucinations » des modèles de langage ne sont pas une anomalie, mais une conséquence incontournable de leur conception.
Il n'y a aucune vérité dérangeante derrière cette étude. Ce qui est dérangeant est qu'on suggère partout que l'IA générative est infaillible, qu'on la vend comme ça.
Selon le sergent Rick Keel, l'outil d'IA aurait pu capter des bavardages en arrière-plan sans rapport avec l'affaire pour inventer cette tournure mythique au rapport. Keel faisait référence à la comédie musicale de Disney de 2009, La Princesse et la Grenouille, qui a conduit à l'erreur du système d'IA. « Le logiciel de la caméra corporelle et le logiciel de rédaction de rapports basé sur l'IA ont capté le film qui passait en arrière-plan, qui se trouvait être La Princesse et la Grenouille »
Alors ça regarde la Princesse et la grenouille pendant les heures de travail?
« C'est là que nous avons compris l'importance de corriger ces rapports générés par l'IA. »
Vous voyez le problème?
Un policier a signé un rapport sans même le relire, faisant entièrement confiance à l'IA.
Et ce scénario est un scénario optimiste... On m'a refusé la correction d'un rapport de réunion fait par IA (Copilot) alors qu'une partie du compte rendu est un contre sens à ce qui a été dit, malgré les preuves du contre sens : enregistrement et retranscription de la réunion.
Bien que certains craignent que l'IA ne remplace les emplois humains, il semble que cette dystopie ne soit pas aussi proche que certains pourraient l'imaginer. En septembre dernier, un rapport a souligné que des humains étaient désormais embauchés en grand nombre pour rendre l'IA moins approximative, créant ainsi un domaine d'emploi inattendu. Ce rapport s'inscrit dans le contexte d'une étude du Massachusetts Institute of Technology (MIT) soulignant que 95 % des organisations ayant mis en place des systèmes d'IA n'obtenaient aucun retour sur investissement.
Ceci n'est que temporaire :
Les IA vont s'améliorer et nous allons nous accoutumer à la médiocrité ce qui fait que d'ici quelques années nos patrons se contenteront de la qualité de l'IA, "le rapport qualité/temps du résultat de l'IA est supérieur à celui de l'humain".
Nos produits ne fonctionneront plus si bien mais l'obsolescence programmée nous aura aussi habitué à ça.
Oui ma bonne résolution de 2026 n'a pas été de devenir optimiste.
« Malgré 30 à 40 milliards de dollars d'investissements des entreprises dans l'IA générative, ce rapport révèle un résultat surprenant : 95 % des organisations n'obtiennent aucun retour sur investissement », indique le rapport intitulé « The GenAI Divide: State of AI in Business 2025 » Les outils d'IA tels que ChatGPT et Copilot font partie des modèles les plus adoptés, mais seuls 5 % des projets pilotes d'IA intégrés génèrent des millions de dollars de valeur, tandis que la grande majorité reste bloquée sans impact mesurable sur les profits et les pertes.
Pourtant une partie de ceux à qui on a imposé de se faire accompagné de l'IA n'abandonneront jamais cet assistant. "le ver est dans le fruit".
Pensez-vous que cette justification est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Je pense qu'on en rigole aujourd'hui mais que ça deviendra un sorte de norme demain.
Que ces cas caricaturaux nous ferons toujours rire mais que bien d'autres hallucinations auront des résultats bien plus graves. Et ce que je trouve d'autant plus grave est qu'il est probable que parmi ceux qui ont pris la décision qui à mené à l'évènement une partie ne sont même pas au courant que l'IA a été impliqué dans le raisonnement présenté.
1  0