IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Quand la confiance aveugle dans l'IA met des vies en danger : des policiers armés menottent un lycéen après qu'une IA a confondu son paquet de chips Doritos avec une arme
Déclenchant une alerte automatique

Le , par Stéphane le calme

65PARTAGES

11  0 
L’histoire aurait pu prêter à rire si elle n’avait pas été aussi inquiétante. Dans un lycée américain, un lycéen s’est retrouvé face à un dispositif policier d’envergure, armes au poing, parce qu’un système de surveillance doté d’intelligence artificielle a pris son paquet de Doritos pour… une arme à feu. Selon un rapport, l’incident s’est produit après qu’un algorithme de détection d’armes, intégré au système de caméras du campus, a déclenché une alerte automatique.

L’IA, censée repérer les menaces potentielles en temps réel pour aider à contrer plus rapidement les tueries de masse, a cru discerner une silhouette d’arme dans la main de l’étudiant. En quelques minutes, plusieurs unités d’intervention ont convergé vers le bâtiment. Le lycéen, totalement surpris, a été plaqué au sol sous la menace d’armes avant que la méprise ne soit révélée : il ne portait qu’un paquet de chips orange.


Un détecteur de sécurité à intelligence artificielle a provoqué un moment terrifiant pour un lycéen de Baltimore, dans le Maryland, après qu'un sac de chips vide fourré dans sa poche ait déclenché une alerte qui a fait intervenir la police.

« C'était une situation effrayante. Je n'avais jamais vécu cela auparavant », a déclaré Taki Allen.

Lundi, vers 19 heures, Allen raconte qu'il était assis devant le lycée Kenwood dans le comté de Baltimore, attendant qu'on vienne le chercher après son entraînement de football.

Pendant qu'il attendait avec ses amis, Allen dit avoir mangé un paquet de Doritos, froissé le paquet et l'avoir mis dans sa poche.

Ce qui s'est passé ensuite l'a complètement pris au dépourvu.

« Vingt minutes plus tard, huit voitures de police se sont arrêtées près de nous », se souvient Allen. « Au début, je ne savais pas où ils allaient jusqu'à ce qu'ils se dirigent vers moi avec leurs armes, en me disant : « À terre ». Je me suis dit : « Quoi ? » Ils m'ont fait mettre à genoux, puis ils m'ont mis les mains derrière le dos et m'ont menotté. Ils m'ont fouillé et ont compris que je n'avais rien. Puis ils sont allés là où je me tenais et ont trouvé un sac de chips par terre. »

Allen a demandé pourquoi les agents s'étaient approchés de lui.

« Ils ont dit qu'un détecteur IA ou quelque chose comme ça avait détecté que j'avais une arme. Il m'a montré une photo. Je tenais juste un sac de Doritos comme ça », a décrit Allen. « Ils ont dit que ça ressemblait à une arme. »


L'année dernière, les lycées du comté de Baltimore ont commencé à utiliser un système de détection des armes à feu qui utilise l'intelligence artificielle pour aider à détecter les armes potentielles en exploitant les caméras existantes dans les écoles. Le système peut identifier une arme potentielle, puis envoyer une alerte à l'équipe de sécurité de l'école et aux forces de l'ordre.

Le grand-père d'Allen se dit non seulement bouleversé par la situation, mais aussi par la réaction qui a suivi : « Personne ne voudrait que cela arrive à son enfant », a déclaré Lamont Davis. « Personne, absolument personne ne voudrait que cela arrive à son enfant. »

Les responsables de la police du comté de Baltimore ont fourni une lettre du directeur adressée aux parents. Elle dit notamment : « Vers 19 heures, l'administration scolaire a reçu une alerte indiquant qu'une personne se trouvant dans l'enceinte de l'école était peut-être en possession d'une arme. Le département de la sûreté et de la sécurité scolaires a rapidement examiné et annulé l'alerte initiale après avoir confirmé qu'il n'y avait pas d'arme. »

La société à l'origine de la technologie de détection des armes à feu par IA s'appelle Omnilert.


L’illusion de la précision technologique

Les entreprises qui conçoivent ces outils affirment souvent que leurs algorithmes peuvent « détecter les armes à feu en temps réel avec une précision de 99 % » (c'est le cas par exemple de Provectus ou d'Actuate.AI). Mais cette promesse repose sur des données entraînées dans des contextes contrôlés. Dans la réalité, les ombres, les reflets ou les postures humaines échappent souvent à la logique binaire des modèles. De plus, ces affirmations proviennent plutôt de documentations commerciales ou marketing (études de cas, blogs d’entreprises) que de validations publiques ou de revues académiques rigoureuses.


L’intelligence artificielle ne comprend pas le monde : elle le devine à partir de motifs. Ce qu’elle interprète comme une arme n’est qu’une succession de pixels dont la forme statistique correspond à celle d’un pistolet. Et dans une société américaine obsédée par la prévention des drames, cette devinette numérique peut suffire à déclencher une opération tactique.

Les spécialistes de la sécurité estiment que ces faux positifs ne sont pas anecdotiques :
  1. Une étude intitulée « The impact of AI errors in a human-in-the-loop process » montre que lorsque des systèmes algorithmiques donnent des résultats erronés, cela affecte la qualité du jugement humain dans la chaîne de décision — ce qui est très pertinent dans le contexte d’une alerte automatisée d’armes.
  2. Une recherche publiée dans Applied Sciences sur la « détection en temps réel d’armes » (« Effective Strategies for Enhancing Real-Time Weapons Detection in Video Surveillance ») indique que les systèmes de détection réduisent les faux positifs (ex. objets confondus avec des armes) via des techniques comme la « fenêtre temporelle » et un second classificateur — mais relèvent aussi des défis majeurs : conditions d’éclairage faible, objets simulant des armes, etc.
  3. La Federal Trade Commission a informé le public qu’une entreprise d’IA de détection d’armes (Evolv Technology) a été sanctionnée pour avoir « trompé » ses clients sur les capacités réelles de ses systèmes : fausse publicité sur la détection d’armes, nombreux faux positifs, armes non détectées.
  4. Une investigation montre que dans les écoles américaines, l’IA de détection d’armes a généré des alertes pour des objets inoffensifs (par exemple : arceau de danse ou arme factice) ou n’a pas détecté des armes comme les couteaux.

Ces travaux suggèrent que, malgré des avancées techniques, les systèmes d’IA de détection d’armes ne sont pas infaillibles. Le problème majeur reste le faux positif (objet banal pris pour arme) et le faux négatif (arme non détectée). Par exemple, la recherche note que l’ajout d’une fenêtre temporelle (vérifier si l’objet reste visible plusieurs images consécutives) permet de réduire les faux positifs mais réduit aussi le nombre de détections d’armes véritables.

De plus, les alertes erronées finissent par affecter le jugement humain : si l’algorithme se trompe souvent, les agents peuvent soit ignorer ensuite les alertes, soit déclencher des interventions inappropriées.


La tentation de l’automatisation totale

Cet incident illustre un changement profond dans la manière dont la sécurité publique s’articule. Auparavant, un agent humain filtrait les alertes et exerçait un jugement avant toute décision. Désormais, l’alerte est générée, classée et transmise automatiquement, sans validation humaine.

Les partisans de ces technologies défendent leur usage au nom de la rapidité et de la réactivité : dans un contexte où chaque seconde compte, mieux vaut une fausse alerte qu’un drame. Mais cette logique du « mieux vaut prévenir » se transforme vite en spirale de sur-réaction. Plusieurs établissements américains ont d’ailleurs reconnu qu’ils n’avaient pas de protocole clair pour valider les alertes issues de l’IA. En d’autres termes, la machine peut appeler la police — et la police obéit.

Quand la peur nourrit le marché

Le déploiement de ces systèmes s’explique aussi par un puissant moteur économique. Depuis les tragédies de Parkland ou d’Uvalde, les institutions scolaires américaines dépensent des millions de dollars dans des technologies dites de prévention intelligente. Les start-ups promettent une sécurité augmentée grâce à la vision par ordinateur, la reconnaissance faciale ou les capteurs de sons d’armes à feu.

Mais à mesure que ces dispositifs se multiplient, le nombre de fausses alertes augmente. Loin de rassurer, cette hyper technologisation entretient un climat d’angoisse. Chaque objet banal — une bouteille d’eau, un parapluie, un smartphone — peut devenir suspect.

Le risque d’un « profilage automatisé du danger »

Derrière la question technique, un autre problème émerge : celui du biais et du profilage. Les IA de détection d’armes, entraînées sur des jeux de données incomplets, tendent à sur-réagir à certains gestes, couleurs...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 24/10/2025 à 15:36
Ca rappelle cette scène de Robocop où l'ED-209 abat quelqu'un suite à un bug lors d'une démonstration.

A ce stade, il est de notoriété publique que les IA ne sont pas fiables. Quiconque ne fait pas les vérifications nécessaires devrait être considéré responsable. Un fabricant qui n'explique pas que ces vérifications sont nécessaires devrait aussi être tenu responsable.

J'espère que la famille du lycéen va porter plainte, pour, entre autres, mise en danger de la vie d'autrui, force excessive, dénonciation de crime imaginaire, et s'être fait passer pour une force de police.
11  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 24/10/2025 à 16:40
détecter les armes à feu en temps réel avec une précision de 99 %
Une 99% de quoi ? des jours ? --> 3.65 faux positifs par an
des gens par jour ? --> 20 faux positifs /j sur un campus de 2000 pers.
des gestes ou quelqu'un brandit quelque chose ?

Ce qui est sûr, c'est que si le nombre de faux-positifs générés n'est pas calculé à l'avance, les forces de police ne sauront pas interpréter les alertes.
Encore heureux qu'il n'ait pas été abattu à distance en raison du stress des policiers comme ça arrive vite aux USA. (comme tout le monde a des armes, les policiers tirent d'abord assez facilement...)
7  0 
Avatar de DevTroglodyte
Membre extrêmement actif https://www.developpez.com
Le 29/10/2025 à 14:20
Citation Envoyé par Ryu2000 Voir le message
Ouais mais là l'IA ne va se tromper plusieurs fois.
Lol. C'est beau l'innocence.

Quand un school shooting aura lieu dans cet établissement le système va prévenir la police et elle interviendra. (je suis fier de ma blague )
Du coup si on prend une arme qui n'est pas recensée dans la BDD qui a servi à entrainer l'IA, la police ne sera pas prévenue parce que celle ci se base sur les retours d'un algo idiot au lieu de faire confirmer ses potentielles alertes par un humain avant de déclencher une intervention. Qui au passage n'est pas gratuite, du coup je n'ose pas imaginer le cout global de ces faux positifs à terme...

Je ne comprend pas tout ce tintouin...
Ce n'est pas grave que la Police intervienne pour rien, il n'est rien arrivé de grave...
C'est même positif puisque ça entraîne les élèves, les professeurs, les policiers.
Il n'est rien arrivé de grave... cette fois ci. Mais la prochaine ? ou la suivante ? On parle des USA, avec des flics sur les nerfs qui se prennent pour des caids, souvent ouvertement racistes et ont la gachette facile, hein...

Faudrait plutot s'attaquer à ce qui cause ces tueries de masses, qui ne sont qu'un symptome d'une société qui se casse la gueule. Mais espérer ça des USA actuels, c'est comme espérer croiser une licorne dans la rue.
6  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 29/10/2025 à 15:10
Citation Envoyé par DevTroglodyte Voir le message
des flics sur les nerfs qui se prennent pour des caids, souvent ouvertement racistes et ont la gachette facile, hein...

Faudrait plutot s'attaquer à ce qui cause ces tueries de masses, qui ne sont qu'un symptome d'une société qui se casse la gueule. Mais espérer ça des USA actuels, c'est comme espérer croiser une licorne dans la rue.
Je crains que ce constat ne soit de plus en plus applicable également à la France
6  1 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 29/10/2025 à 17:52
Salut à tous.

Ce qui m'inquiète le plus, n'est pas que l'IA puisse se tromper mais qu'il n'y a plus aucun discernement possible chez les humains.
En somme, la parole de l'IA devient sacrée et l'homme ne réfléchit plus. Pauvre de nous.
5  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 27/10/2025 à 10:21
Il faut pas déconner avec les chips...
Surtout celles au piment, elles peuvent faire de gros dégâts.

Ma proposition pour combattre ce fléau.
Un interrogatoire poussé de chaque personne sortant du super marché avec plus de 200g de chips au piment (ou 300g si c'est du paprika).
4  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 28/10/2025 à 16:33
Citation Envoyé par Ryu2000 Voir le message
Ici, un faux positif et mieux qu'un faux négatif.
Tu connais l'histoire du gamin qui criait au loup...
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 30/10/2025 à 10:44
Citation Envoyé par DevTroglodyte Voir le message
Je passe sur le reste de tes délires, franchement tu me fatigues, on dirait que tu vis dans un dessin animé Disney tellement tu sembles en dehors de la réalité...
Je trouve le monde de Disney plus réaliste que le monde de Ryu.
4  1 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 25/10/2025 à 12:37
Ce qui met en danger dans cette affaire, c'est la surveillance de masse et le signalements automatiques :
Bien plus que les IAs en elle-même qui ne sont là que pour compléter des textes.
2  0 
Avatar de droggo
Expert confirmé https://www.developpez.com
Le 25/10/2025 à 14:38
Bonjour,

Un de ces jours, c'est une IA qui appuiera sur le bouton nucléaire !
2  0