IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La police britannique rejette la faute sur Microsoft Copilot pour expliquer une bévue qu'elle a commise suite à une hallucination : jusqu'où peut-on faire porter le chapeau à l'IA ?

Le , par Stéphane le calme

74PARTAGES

27  0 
L’affaire aurait pu rester un banal incident administratif. Elle est devenue un cas d’école. Au Royaume-Uni, une décision de police visant à interdire de stade plusieurs supporters de football s’est appuyée sur une information erronée générée par un outil d’intelligence artificielle. En toile de fond, l’utilisation de Microsoft Copilot par des forces de l’ordre, la difficulté à reconnaître une erreur algorithmique, et une question désormais centrale pour les professionnels de l’IT comme pour les décideurs publics : que se passe-t-il quand une hallucination d’IA se transforme en décision administrative bien réelle ?

L’histoire démarre par une procédure devenue courante dans le football britannique. Dans un contexte de lutte contre les violences et les débordements, la UK police dispose de pouvoirs étendus pour restreindre l’accès aux stades à certains supporters, parfois sur la base d’éléments contextuels ou préventifs. Dans ce cas précis, une note interne fait référence à une règle présentée comme établie : un type précis de comportement aurait justifié automatiquement une interdiction.

Le problème est que cette règle n’existe pas. Elle a été formulée par Copilot, qui a produit une réponse plausible, bien structurée, mais factuellement incorrecte. L’IA a « halluciné » une base réglementaire, et cette hallucination a été reprise sans vérification suffisante, puis intégrée à une décision officielle.

La séquence qui suit est presque caricaturale pour quiconque a déjà observé la gestion d’incidents technologiques dans une grande organisation. Dans un premier temps, les autorités concernées minimisent. L’outil n’aurait été qu’un support, la décision serait restée humaine. Puis, face aux éléments factuels et aux demandes de clarification, l’argumentaire se fissure. L’usage de Copilot est finalement reconnu, tout comme le caractère erroné de l’information produite.

Ce cheminement en trois temps — nier, nier encore, puis admettre partiellement — illustre une difficulté profonde. Les organisations publiques ne sont pas encore prêtes culturellement à traiter une IA générative comme un système faillible nécessitant des garde-fous stricts, au même titre qu’un logiciel critique ou qu’un modèle décisionnel automatisé.

La police avoue que sa décision controversée reposait en partie sur des informations fantaisistes de Microsoft Copilot

Après avoir nié pendant des semaines que ses forces utilisaient des outils d'IA, le chef de la police des West Midlands a finalement admis que la décision très controversée d'interdire l'entrée au Royaume-Uni aux supporters du club de football Maccabi Tel Aviv reposait en partie sur des informations fantaisistes fournies par Microsoft Copilot.

En octobre 2025, le groupe consultatif sur la sécurité (SAG) de Birmingham s'est réuni pour décider si le match de football à venir entre Aston Villa (basé à Birmingham) et le Maccabi Tel Aviv pouvait se dérouler en toute sécurité. Les tensions étaient vives, en partie à cause de l'attaque terroriste perpétrée le 2 octobre contre une synagogue de Manchester, au cours de laquelle plusieurs personnes ont été tuées par un assaillant islamiste.

La police des West Midlands, qui était un membre clé du SAG, a fait valoir que le match de football à venir pourrait entraîner des violences à Birmingham et a recommandé d'interdire l'accès au stade aux supporters. La police a notamment souligné que les supporters du Maccabi Tel Aviv s'étaient montrés violents lors d'un récent match de football à Amsterdam.

Cette décision a été très controversée et a rapidement pris une dimension politique. Pour certains juifs et conservateurs, il semblait que les supporters juifs étaient interdits de match, alors que les attentats terroristes islamistes constituaient la source la plus grave de violence. Le match de football s'est déroulé le 6 novembre sans supporters, mais la controverse autour de l'interdiction a persisté pendant des mois.


Pour ne rien arranger, le récit de la police des West Midlands s'est rapidement effondré

Selon la BBC, la police a affirmé que le match de football à Amsterdam avait rassemblé « 500 à 600 supporters du Maccabi [qui] avaient pris pour cible les communautés musulmanes la veille du match à Amsterdam, affirmant qu'il y avait eu "des agressions graves, notamment le jet de passants pris au hasard" dans une rivière. Elle a également affirmé que 5 000 policiers étaient nécessaires pour faire face aux troubles à Amsterdam, après avoir précédemment déclaré que ce chiffre était de 1 200. »

La police d'Amsterdam a clairement indiqué que le récit des West Midlands concernant le mauvais comportement des supporters du Maccabi était largement exagéré, et la BBC a récemment obtenu une lettre de l'inspecteur général néerlandais confirmant que ces allégations étaient inexactes.

Mais c'est une erreur flagrante, certes mineure, qui a donné une image particulièrement médiocre à la recommandation de la police des West Midlands. Dans une liste des matchs récents auxquels ont assisté des supporters du Maccabi Tel Aviv, la police a inclus un match entre West Ham (Royaume-Uni) et le Maccabi Tel Aviv. Le seul problème ? Ce match n'a jamais eu lieu.

D'où venait donc ce détail complètement fantaisiste ? Alors qu'une enquête était menée sur l'ensemble de la situation, Craig...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 21/01/2026 à 19:04
Comme dit par un collègue : "On n'a pas un problème d'IA. On a juste un problème d'idiot."
8  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 22/01/2026 à 2:01
Ce n'est pas l'IA qui a failli. C'est la police.

Tous ces problèmes m'amènent à croire que ça va être une bonne leçon pour notre société.

Moi qui suis rigoureux, même pour une revue de code je ne lésine pas sur les remarques et vérifications. Tant que c'est bien amené, et que celui en face est volontaire, ça passe bien. Mais les gens rigoureux sont rares, et du coup je fais partie de cette minorité qui "fait des grosses revues de PR", ce qui n'est pas motivant.

Avec l'IA, qui fait des bévues subtiles en pagaille, la rigueur n'est plus négociable. Et là où moi ça ne change rien, parce que je fais déjà une revue détaillée de la PR, je pense que ça va forcément pousser les process à évoluer pour obliger les gens à passer du temps à regarder les détails pour bosser avec l'IA. Et avec ça, ça va se transformer en habitude, et on vérifiera avec à peu près autant d'effort une PR humaine qu'une PR IA. C'est en tout cas ce que j'espère. Après tout, mes pratiques n'ont pas changé depuis que l'IA est là, vu que j'ai déjà les bonnes pratiques de revue pour les PR IA.

Allez, quoi. On a droit de rêver un peu.
2  0