IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'intelligence artificielle vous effraie-t-elle ? L'humanité court le risque d'extinction au travers des robots tueurs autonomes
Ainsi que l'atteinte du stade d'intelligence artificielle générale

Le , par Patrick Ruiz

6PARTAGES

8  0 
Israël par exemple déploie des armes pilotées par des intelligences artificielles pour traquer des cibles en Cisjordanie. De façon imagée, il s’agit de robots capables de verrouiller une cible sans intervention humaine et de tirer avec la plus grande précision. Grosso modo, c’est de l’intelligence artificielle mise au service de la guerre. Et le danger il est là : Israël n’est pas dans un îlot isolé et la réalité est que de nombreux pays sont lancés dans la course au développement de telles armes et ne parviennent pas à s’entendre sur des règles de contrôle. C’est fort de ces développements que des chercheurs et chefs d’entreprises mettent en gardent contre un risque d’extinction de l’humanité.

En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès" ). Elle se vante d'avoir réussi à « combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle. »


La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

« Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'Homme s'inquiètent de « la déshumanisation numérique des systèmes d'armes. »

Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

Les guerres du futur mettront de plus en plus à contribution des robots tueurs comme le confirme le général américain Marc Milley

En 2020, un groupe de soldats fidèles au général libyen Khalifa Haftar a été attaqué par des drones agissant de manière autonome, selon un récent rapport du groupe d'experts du Conseil de sécurité de l'ONU sur la Libye. C’est un tableau parmi tant d’autres désormias qui préfigure des moyens qui seront mis à contribution par les armées du monde dans les guerres du futur.


Le général américain Marc Milley demande donc aux officiers formés à West Point de garder à l’esprit qu’ils doivent se tenir prêts à relever ces défis :

« La maturité des diverses technologies qui existent aujourd'hui ou qui sont à un stade avancé de développement, lorsqu'elles sont combinées, sont susceptibles de changer le caractère de la guerre par elles-mêmes. Vous vous battrez avec des tanks, des bateaux et des avions robotisés. Nous avons assisté à une révolution dans la létalité et les munitions de précision. Ce qui était autrefois le domaine exclusif de l'armée américaine est désormais accessible à la plupart des États-nations qui ont l'argent et la volonté de les acquérir », lance-t-il à l’occasion de la sortie d’une nouvelle cuvée d’officiers, ce, sans manquer de rappeler le contexte actuel fait d’affrontements militaires en Ukraine.

Sur la question de savoir s’il a des idées novatrices sur la façon dont il pense que le combat aérien peut être révolutionné, Elon Musk déclare : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable… L’ère des avions de chasse est révolue. »

C’est le type de tableau auquel on aura de plus en plus droit tant la liste des exemples qui illustrent le fait qu’une machine peut être mise sur pied pour surpasser un humain sur une tâche donnée peut être allongée à souhait. Pour ce qui est du cas spécifique des combats aériens, noter qu’Alpha, une intelligence artificielle mise sur pied par les laboratoires de recherche de l’armée américaine, a défait des experts de cette dernière dans le cadre de simulations de combats aériens.

« J’ai été surpris par la manière dont elle était consciente et réactive. Elle semblait être consciente de mes intentions et réagir instantanément à mes changements en vol et à mes déploiements de missiles. Elle savait comment déjouer le tir que je faisais. Elle changeait instantanément entre les actions défensives et offensives en fonction des besoins », avait souligné le colonel Gene Lee, décrivant Alpha comme étant l’intelligence artificielle la plus agressive, réactive, dynamique et crédible qu’il ait jamais vue.

C’est pour ces raisons que les appels au développement responsable des systèmes pilotés par des intelligences artificielles se multiplient

Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA ont prévenu que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une déclaration d'exactement 22 mots afin de tirer la sonnette d'alarme sur un hypothétique « risque d'extinction de l'espèce humaine. »

Le groupe a publié une déclaration qui se lit comme suit : « l'atténuation du risque d'extinction lié à l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires ».

La déclaration de 22 mots, publiée sur le site de l'organisation à but non lucratif "Center for AI Safety", a été raccourcie de la sorte afin de la rendre aussi largement acceptable que possible. Parmi les signataires figurent des dirigeants de trois des principales entreprises d'IA : Sam Altman, PDG d'OpenAI ; Demis Hassabis, PDG de Google DeepMind ; et Dario Amodei, PDG d'Anthropic.



« Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'IA. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques.

Il y a aussi la possibilité que les IA deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », souligne-t-il.

C’est une sortie qui rejoint celle de Michael Osborne et Michael Cohen de l’université d’Oxford : « « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »

Ces différentes sorties font référence à un stade de leur évolution où les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une IA qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. »


Google par exemple est lancé en secret sur le développement de Pitchfork ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.

Un tel objectif pourrait ne plus relever de la science-fiction en cas d’atteinte du stade d’intelligence artificielle générale. Le tableau viendrait alors raviver la possibilité pour l’humanité d’entrer dans une ère de domination par les machines comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.


C’est d’ailleurs la raison pour laquelle Elon Musk travaille sur un projet visant à fusionner un cerveau humain et un ordinateur afin de permettre aux Hommes de rivaliser avec l’intelligence artificielle. Le « Neural Lace » est une interface cerveau-ordinateur permettant de relier le cerveau humain à des ordinateurs sans avoir besoin de connexion physique. Cette technologie donnerait aux humains la possibilité de fusionner avec l’intelligence artificielle et d’améliorer ainsi leur mémoire et leurs facultés cognitives. Cette puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau. C’est l’une des applications de cette interface cerveau-ordinateur à côté d’autres comme la possibilité de guérir la dépression et la dépendance.

Elon Musk est d’avis que seule la mise sur pied d’une interface cerveau-ordinateur peut permettre à l’Homme de subsister. Son initiative vise une sorte de symbiose avec l'intelligence artificielle, ce, à un degré qui rendrait le langage humain obsolète. Il suffirait alors de penser pour communiquer. Grosso modo, dans les laboratoires de la société d’Elon Musk, on est au « service de l’humanité. » Le projet ne manque néanmoins pas d’être terrifiant puisque la puce est à insérer dans le crâne ; ce qui serait selon certaines interprétations la marque de la bête référence faite à Apocalypse 13:17 dans la Bible : « La deuxième bête d’Apocalypse 13 fait en sorte que “tous, petits et grands, riches et pauvres, libres et esclaves, reçoivent une marque sur leur main droite ou sur leur front, et que personne ne puisse acheter ni vendre, sans avoir la marque, le nom de la bête ou le nombre de son nom. »

Et vous ?

Les craintes en lien avec le développement des systèmes d’intelligence artificielle sont-elles justifiées ?
L’intelligence artificielle peut-elle être le déclencheur d’une apocalypse telle que prédite par différents acteurs et ouvrages de référence comme la Bible ?
Est-il surprenant que les pays n’arrivent pas à trouver de consensus sur les moyens d’encadrer cette technologie qu’est l’intelligence artificielle ?

Voir aussi :

Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC, et l'Homme fusionne avec l'IA, aberration ou fiction ?
Neuralink d'Elon Musk annonce que l'interface cerveau - ordinateur est prête pour des tests sur les humains, et entend procéder aux premiers en 2020
L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
Neuralink d'Elon Musk, la discrète firme qui travaille sur des ordinateurs à implanter dans le cerveau, lève le voile sur le secret, sous peu
Il n'aura fallu que 10 minutes pour trouver des failles dans le chapelet « intelligent » lancé par le Pape, pour inviter les fidèles à la prière partout dans le monde

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 06/09/2023 à 9:13
L'IA généraliste sera-t-elle dépressive?
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 07/09/2023 à 8:23
Citation Envoyé par mith06 Voir le message
L'IA généraliste sera-t-elle dépressive?
Oui mais elle sera suivie par une IAG psy qui aura fait 3 ans d'études de plus.
1  0 
Avatar de Forge
Membre régulier https://www.developpez.com
Le 09/09/2023 à 9:31
Le même débat, encore et toujours.

Imaginez un enfant. Il s'apprête à mettre la main sur une plaque de cuisson bien chaude.
Il sait que vous l'avez déjà mis en garde et qu'il va faire un truc que vous ne voulez pas qu'il fasse. Il vous regarde dans les yeux en approchant la main.
Vous le prévenez : Ne touche pas à ça, tu vas te faire du mal.
Il le fait quand même... et se brûle.

C'est ce qui pourrait nous arriver avec l'IA.
"On" a commencé à approcher la main de la plaque de cuisson, quelqu'un de mal intentionné est en train de monter la température, et "on" se demande s'il ne faudrait pas faire un moratoire sur la plaque de cuisson.

Dirions-nous : puisque le marteau est une arme qui va tuer des milliers de gens, faisons un moratoire sur les marteaux ?

On oublie un peu vite que derrière ses "machines tueuses", il y a des industriels et des développeurs qui trouvent cool de faire des armes "intelligentes".

Donc non, l'IA ne m'effraie pas. C'est l'être humain qui me fait peur. L'Humanité est encore un adolescent qui lève les yeux au ciel quand on lui demande de ranger sa chambre parce que... MERDE, mes parents sont des cons.
0  1