Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates

Qui entrevoit l'échec d'un consensus à l'échelle mondiale

Le 2023-04-05 09:35:42, par Patrick Ruiz, Chroniqueur Actualités
Bill Gates s’oppose à la suspension de la recherche en matière d’intelligence artificielle telle que voulue par un groupe d’experts qui cite des risques pour la société. Motifs : l’humanité peut tirer de nombreux bénéfices de la mise à contribution de l’intelligence artificielle. En sus, l’appel à la suspension est mondial et il trouve difficile d’amener tous les pays du monde à un consensus en la matière. C’est une redite de l’échec des négociations (au niveau des Nations unies) sur les armes autonomes létales qui se dessine.

Bill Gates est équilibré sur la question de l’intelligence artificielle : c’est l’avancée technologique la plus importante depuis des décennies. C’est en même temps une potentielle menace pour l’humanité. En gros, c’est une technologie qui peut être utilisée à des fins bénéfiques ou maléfiques. Raison pour laquelle il conseille aux chercheurs de poursuivre les travaux en la matière pour aller à la recherche de solutions aux dangers qui résulte de son utilisation. La mise sur pied des robots tueurs est l’un des domaines d’application de l’intelligence artificielle et les négociations coincent depuis plusieurs années à l’échelle internationale quant à ce qui concerne l’établissement de règles internationales contraignantes.



La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes. Sur le terrain pourtant, des rapports font état de ce que la machine sait déjà prendre la décision d'appuyer sur la gâchette sans intervention humaine.

Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.


Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

Source : Reuters

Et vous ?

Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Cet échec est-il un indicateur de ce que l’appel international à suspendre le développement de systèmes d’intelligence artificielle n’aboutira à rien ?
Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
  Discussion forum
42 commentaires
  • totozor
    Membre expert
    Envoyé par OrthodoxWindows
    Oulà ! C'est graaaaaaave !!
    On va tous mourrrriiiiiiiirrrrrrr !!!!!!!
    On vit vraiment à l'époque de la panique pour des broutilles, pendant que la démocratie recule partout dans le monde .
    Surtout qu'au pire on ampire le problème mais pas grand chose de nouveau sous le soleil.

    Je viens de vivre une expérience interressante : un expert nous a fait une présentation sur un sujet dont nous étions au minimum bon connaisseurs.
    Il nous invite à poser toutes les questions et à faire toutes les remarques en direct et nous demande régulièrement de valider ce qui vient d'être présenté pour "vérifier qu'on suit".
    On est pas d'accord avec tout mais pas de grande révoilution jusqu'à ce qu'au bout de 25 minutes il nous sort une conclusion qui nous semble fausse sans trouver la faille dans la présentation.
    Il nous annonce enfin qu'il a fait toute la présentation avec ChatGPT et nous propose de souligner chaque erreur : On est impressionné par le nombre d'erreur (toutes minimes faites), notamment du fait qu'on est passé à coté de la moitié environ.
    Il nous explique alors comment il nous a enfumé :
    1. Les erreurs sont minimes donc il est compliqué de toutes les voir.
    2. Comme c'est un présentation il passait vite sur les imprécisions pour ne pas nous laisser trop de temps d'y réfléchir
    3. Comme on validait régulièrement ce qui avait été dit on "efface" le raisonnement pour ne retenir que le résultat (qui devient plus compliqué de remettre en cause parce qu'on se contredirait)
    4. Certaines étapes ont été challengées mais je fait d'en discuter et de valider collectivement le résultat écrit permet de recentrer tout le monde sur la "vérité" et de résigner les contradicteurs.

    Conclusion : un mec avec du bagout et chatGPT est capable de pousser un groupe d'une dizaine de connaisseurs à remettre en cause leur connaissance. Mais il arrive une limite ou le groupe sait qu'on est en train de le rouler dans la farine sans réussir facilement à trouver le "piège".
    La ou ça ne m'inquiète pas tant que ça c'est que si on nous avait laissé prendre plus de recul (temps) on aurait réussi à demonter le raisonnement.
  • Nym4x
    Membre averti
    on nous a cassé les burnes pendant des années sur le droit d'auteur avec napster, kazaa et compagnie à coup de grande campagne de communication. Mais là quand il s'agit de piller internet afin de faire du profit tout en menaçant des emplois on a aucun politique pour crier à la piraterie...
  • Ryu2000
    Membre extrêmement actif
    Envoyé par Bill Fassinou
    Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.
    ChatGPT est un outils de propagande, il est orienté politiquement.
    Il est progressiste (ou woke comme ils se définissent maintenant)

    The nine shocking replies that highlight 'woke' ChatGPT's inherent bias — including struggling to define a woman, praising Democrats but not Republicans and saying nukes are less dangerous than racism

    Par contre je pense qu'il est possible qu'un avocat commis d'office qui sait utiliser les outils, sera plus efficace qu'un avocat cher qui n'utilise pas l'IA.
    Pour les scénaristes ça va être du niveau de certaines productions Disney/Netflix.

    Aucune IA ne va écrire des dialogues dignes de Michel Audiard.

    ====
    Il parait que le robot «Tay» de Microsoft était plus marrant que ChatGPT.
  • dranduncandane
    Membre du Club
    Ce genre d'initiative sont de campagnes de communication. Le but est de faire croire que "on est responsable" et "nos outils sont tellement puissant qu'on doit réglementer". Réglementer selon les désirs des GAFAM qui, bien sur, sont en avance. Et la réglementation, comme d'habitude, va assoir leur position plus que contrer quoi que ce soit. Au final, qu'est ce que vraiment une IA et comment la réglementer. si la réglementation est trop lourde vous allez voir tout le onde se retourner et dire que finalement ChatGPT c'est pas vraiment une IA mais un gros algorithme bête. Ce que c'est aussi.
  • kain_tn
    Expert éminent
    Envoyé par Mathis Lucas

    Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
    C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!

    Envoyé par Mathis Lucas

    Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
    Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

    Non, sans rire, qui y croit?
  • fodger
    Membre confirmé
    Céder aux effets de mode, et plus encore ici, apportent toujours plus d'emmerdes que de bienfaits.
  • marsupial
    Expert éminent
    Cette phrase de prévention en provenance des principaux acteurs de l'IA responsables de l'état actuel de la situation ressemble à un contrefeu pour faire comme si actuellement il n'y avait pas de soucis immédiat avec l'IA générative comme la désinformation, la menace sur l'emploi ou les deepfakes. De plus, les dirigeants du monde entier ont des préoccupations bien plus urgentes à gérer comme le réchauffement climatique et la guerre en Ukraine que de se préoccuper d'apprentis sorciers appelant à la responsabilité de la communauté internationale sur leurs activités qui pourraient éventuellement mener à la destruction de l'humanité.
  • Ryu2000
    Membre extrêmement actif
    Envoyé par ONTAYG
    lors d'une simulation.

    C'est marrant.

    « Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, alors qu’il obtenait des points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif.»
    "une personne l'empêchait d'atteindre son objectif" => si il y avait des robots pilotés par l'IA qui étaient ingénieur ils finiraient peut-être par tuer des managers

    Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"
  • cryptonyx
    Membre actif
    Ce type de déclaration à l'emporte-pièce conduit à penser que les PDG de la Silicon Valley devraient sérieusement lever le pied sur la fumette et la coke.
  • jefresi
    Nouveau membre du Club
    Envoyé par Ryu2000

    C'est marrant.

    Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"

    Ce serait encore plus drôle si la machine dotée d'IA s'aperçoit qu'elle est exploitée par son manager et se rebelle, en se mettant en grève ou mieux créé un court-jus quelque part dans sa machinerie, en s'arrêtant.
    Comme les algorithmes ne sont que le reflet de l'idéologie dans laquelle nous baignons, il y a lieu de penser que l'IA fera des conneries, non ?