IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La police britannique rejette la faute sur Microsoft Copilot pour expliquer une bévue qu'elle a commise suite à une hallucination : jusqu'où peut-on faire porter le chapeau à l'IA ?

Le , par Stéphane le calme

0PARTAGES

9  0 
L’affaire aurait pu rester un banal incident administratif. Elle est devenue un cas d’école. Au Royaume-Uni, une décision de police visant à interdire de stade plusieurs supporters de football s’est appuyée sur une information erronée générée par un outil d’intelligence artificielle. En toile de fond, l’utilisation de Microsoft Copilot par des forces de l’ordre, la difficulté à reconnaître une erreur algorithmique, et une question désormais centrale pour les professionnels de l’IT comme pour les décideurs publics : que se passe-t-il quand une hallucination d’IA se transforme en décision administrative bien réelle ?

L’histoire démarre par une procédure devenue courante dans le football britannique. Dans un contexte de lutte contre les violences et les débordements, la UK police dispose de pouvoirs étendus pour restreindre l’accès aux stades à certains supporters, parfois sur la base d’éléments contextuels ou préventifs. Dans ce cas précis, une note interne fait référence à une règle présentée comme établie : un type précis de comportement aurait justifié automatiquement une interdiction.

Le problème est que cette règle n’existe pas. Elle a été formulée par Copilot, qui a produit une réponse plausible, bien structurée, mais factuellement incorrecte. L’IA a « halluciné » une base réglementaire, et cette hallucination a été reprise sans vérification suffisante, puis intégrée à une décision officielle.

La séquence qui suit est presque caricaturale pour quiconque a déjà observé la gestion d’incidents technologiques dans une grande organisation. Dans un premier temps, les autorités concernées minimisent. L’outil n’aurait été qu’un support, la décision serait restée humaine. Puis, face aux éléments factuels et aux demandes de clarification, l’argumentaire se fissure. L’usage de Copilot est finalement reconnu, tout comme le caractère erroné de l’information produite.

Ce cheminement en trois temps — nier, nier encore, puis admettre partiellement — illustre une difficulté profonde. Les organisations publiques ne sont pas encore prêtes culturellement à traiter une IA générative comme un système faillible nécessitant des garde-fous stricts, au même titre qu’un logiciel critique ou qu’un modèle décisionnel automatisé.

La police avoue que sa décision controversée reposait en partie sur des informations fantaisistes de Microsoft Copilot

Après avoir nié pendant des semaines que ses forces utilisaient des outils d'IA, le chef de la police des West Midlands a finalement admis que la décision très controversée d'interdire l'entrée au Royaume-Uni aux supporters du club de football Maccabi Tel Aviv reposait en partie sur des informations fantaisistes fournies par Microsoft Copilot.

En octobre 2025, le groupe consultatif sur la sécurité (SAG) de Birmingham s'est réuni pour décider si le match de football à venir entre Aston Villa (basé à Birmingham) et le Maccabi Tel Aviv pouvait se dérouler en toute sécurité. Les tensions étaient vives, en partie à cause de l'attaque terroriste perpétrée le 2 octobre contre une synagogue de Manchester, au cours de laquelle plusieurs personnes ont été tuées par un assaillant islamiste.

La police des West Midlands, qui était un membre clé du SAG, a fait valoir que le match de football à venir pourrait entraîner des violences à Birmingham et a recommandé d'interdire l'accès au stade aux supporters. La police a notamment souligné que les supporters du Maccabi Tel Aviv s'étaient montrés violents lors d'un récent match de football à Amsterdam.

Cette décision a été très controversée et a rapidement pris une dimension politique. Pour certains juifs et conservateurs, il semblait que les supporters juifs étaient interdits de match, alors que les attentats terroristes islamistes constituaient la source la plus grave de violence. Le match de football s'est déroulé le 6 novembre sans supporters, mais la controverse autour de l'interdiction a persisté pendant des mois.


Pour ne rien arranger, le récit de la police des West Midlands s'est rapidement effondré

Selon la BBC, la police a affirmé que le match de football à Amsterdam avait rassemblé « 500 à 600 supporters du Maccabi [qui] avaient pris pour cible les communautés musulmanes la veille du match à Amsterdam, affirmant qu'il y avait eu "des agressions graves, notamment le jet de passants pris au hasard" dans une rivière. Elle a également affirmé que 5 000 policiers étaient nécessaires pour faire face aux troubles à Amsterdam, après avoir précédemment déclaré que ce chiffre était de 1 200. »

La police d'Amsterdam a clairement indiqué que le récit des West Midlands concernant le mauvais comportement des supporters du Maccabi était largement exagéré, et la BBC a récemment obtenu une lettre de l'inspecteur général néerlandais confirmant que ces allégations étaient inexactes.

Mais c'est une erreur flagrante, certes mineure, qui a donné une image particulièrement médiocre à la recommandation de la police des West Midlands. Dans une liste des matchs récents auxquels ont assisté des supporters du Maccabi Tel Aviv, la police a inclus un match entre West Ham (Royaume-Uni) et le Maccabi Tel Aviv. Le seul problème ? Ce match n'a jamais eu lieu.

D'où venait donc ce détail complètement fantaisiste ? Alors qu'une enquête était menée sur l'ensemble de la situation, Craig Guildford, le chef de la police des West Midlands, a été convoqué devant le Parlement en décembre 2025, puis à nouveau début janvier 2026 pour répondre à des questions. À ces deux occasions, il a affirmé que la police n'avait pas utilisé l'IA, suspecte évidente dans une affaire comme celle-ci. En décembre, Guildford a imputé la responsabilité à un « scraping des réseaux sociaux » qui avait mal tourné ; en janvier, il a mis cela sur le compte d'une mauvaise recherche sur Google.

« Nous n'utilisons pas l'IA », a-t-il déclaré au Parlement le 6 janvier. « En ce qui concerne West Ham et la manière dont nous avons obtenu ces informations, lors de la rédaction du rapport, l'un des agents se rendait généralement sur... un système utilisé par les agents chargés du football dans tout le pays, qui contient des rapports de renseignement sur les matchs précédents. Ils n'ont trouvé aucune information pertinente lors de leurs recherches. Ils ont simplement recherché sur Google la date du dernier match. C'est ainsi qu'ils ont obtenu ces informations. »

Mais Guildford a admis que cette explication était en fait absurde. Comme il l'a reconnu dans une lettre datée du 12 janvier, « j'ai [récemment] pris conscience que le résultat erroné concernant le match West Ham contre Maccabi Tel Aviv était dû à l'utilisation de Microsoft Copilot ».


Copilot n’est pas un moteur de vérité

Pour les professionnels de l’informatique, le fond du problème est clair. Copilot, comme les autres assistants génératifs, n’est ni un moteur juridique ni une base de connaissances certifiée. Il s’agit d’un système probabiliste, conçu pour produire des réponses cohérentes et utiles, pas pour garantir l’exactitude normative. Utilisé dans un EDI ou dans un contexte bureautique, le risque est limité. Transposé dans une chaîne décisionnelle policière, il devient systémique.

Le cas britannique rappelle brutalement que l’IA générative ne « sait » pas. Elle infère. Et lorsque l’inférence porte sur des règles de droit, des procédures administratives ou des sanctions, l’erreur n’est plus abstraite. Elle a des conséquences directes sur les droits des individus.

Une responsabilité humaine diluée, mais toujours bien réelle

L’un des aspects les plus troublants de l’affaire tient à la dilution de la responsabilité. Aucun développeur n’a introduit de règle fictive dans un système expert. Pourtant, une décision injustifiée a été prise. Cette zone grise est précisément celle que redoutent juristes et architectes SI.

L’IA devient un tiers silencieux dans la chaîne de décision. Elle n’est ni pleinement assumée comme source, ni explicitement identifiée comme outil à risque. Résultat : quand l’erreur survient, chacun peut se retrancher derrière le caractère « assisté » de la décision, sans que le contrôle humain ait réellement joué son rôle de filtre critique.

Des policiers armés menottent un lycéen après qu'une IA a confondu son paquet de chips Doritos avec une arme

Un détecteur de sécurité à intelligence artificielle a provoqué un moment terrifiant pour un lycéen de Baltimore, dans le Maryland, après qu'un sac de chips vide fourré dans sa poche ait déclenché une alerte qui a fait intervenir la police. « C'était une situation effrayante. Je n'avais jamais vécu cela auparavant », a déclaré Taki Allen.

Vers 19 heures, Allen raconte qu'il était assis devant le lycée Kenwood dans le comté de Baltimore, attendant qu'on vienne le chercher après son entraînement de football. Pendant qu'il attendait avec ses amis, Allen dit avoir mangé un paquet de Doritos, froissé le paquet et l'avoir mis dans sa poche.

Ce qui s'est passé ensuite l'a complètement pris au dépourvu.

« Vingt minutes plus tard, huit voitures de police se sont arrêtées près de nous », se souvient Allen. « Au début, je ne savais pas où ils allaient jusqu'à ce qu'ils se dirigent vers moi avec leurs...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 21/01/2026 à 19:04
Comme dit par un collègue : "On n'a pas un problème d'IA. On a juste un problème d'idiot."
1  0