IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates
Qui entrevoit l'échec d'un consensus à l'échelle mondiale

Le , par Patrick Ruiz

0PARTAGES

9  0 
Bill Gates s’oppose à la suspension de la recherche en matière d’intelligence artificielle telle que voulue par un groupe d’experts qui cite des risques pour la société. Motifs : l’humanité peut tirer de nombreux bénéfices de la mise à contribution de l’intelligence artificielle. En sus, l’appel à la suspension est mondial et il trouve difficile d’amener tous les pays du monde à un consensus en la matière. C’est une redite de l’échec des négociations (au niveau des Nations unies) sur les armes autonomes létales qui se dessine.

Bill Gates est équilibré sur la question de l’intelligence artificielle : c’est l’avancée technologique la plus importante depuis des décennies. C’est en même temps une potentielle menace pour l’humanité. En gros, c’est une technologie qui peut être utilisée à des fins bénéfiques ou maléfiques. Raison pour laquelle il conseille aux chercheurs de poursuivre les travaux en la matière pour aller à la recherche de solutions aux dangers qui résulte de son utilisation. La mise sur pied des robots tueurs est l’un des domaines d’application de l’intelligence artificielle et les négociations coincent depuis plusieurs années à l’échelle internationale quant à ce qui concerne l’établissement de règles internationales contraignantes.



La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes. Sur le terrain pourtant, des rapports font état de ce que la machine sait déjà prendre la décision d'appuyer sur la gâchette sans intervention humaine.

Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.

« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.

Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.

Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.

Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.

De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.


Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »

Source : Reuters

Et vous ?

Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Cet échec est-il un indicateur de ce que l’appel international à suspendre le développement de systèmes d’intelligence artificielle n’aboutira à rien ?
Avez-vous espoir que les négociations aboutissent à l'interdiction de ces armes ?

Voir aussi :

Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/04/2023 à 12:58
Citation Envoyé par OrthodoxWindows Voir le message
Oulà ! C'est graaaaaaave !!
On va tous mourrrriiiiiiiirrrrrrr !!!!!!!
On vit vraiment à l'époque de la panique pour des broutilles, pendant que la démocratie recule partout dans le monde .
Surtout qu'au pire on ampire le problème mais pas grand chose de nouveau sous le soleil.

Je viens de vivre une expérience interressante : un expert nous a fait une présentation sur un sujet dont nous étions au minimum bon connaisseurs.
Il nous invite à poser toutes les questions et à faire toutes les remarques en direct et nous demande régulièrement de valider ce qui vient d'être présenté pour "vérifier qu'on suit".
On est pas d'accord avec tout mais pas de grande révoilution jusqu'à ce qu'au bout de 25 minutes il nous sort une conclusion qui nous semble fausse sans trouver la faille dans la présentation.
Il nous annonce enfin qu'il a fait toute la présentation avec ChatGPT et nous propose de souligner chaque erreur : On est impressionné par le nombre d'erreur (toutes minimes faites), notamment du fait qu'on est passé à coté de la moitié environ.
Il nous explique alors comment il nous a enfumé :
1. Les erreurs sont minimes donc il est compliqué de toutes les voir.
2. Comme c'est un présentation il passait vite sur les imprécisions pour ne pas nous laisser trop de temps d'y réfléchir
3. Comme on validait régulièrement ce qui avait été dit on "efface" le raisonnement pour ne retenir que le résultat (qui devient plus compliqué de remettre en cause parce qu'on se contredirait)
4. Certaines étapes ont été challengées mais je fait d'en discuter et de valider collectivement le résultat écrit permet de recentrer tout le monde sur la "vérité" et de résigner les contradicteurs.

Conclusion : un mec avec du bagout et chatGPT est capable de pousser un groupe d'une dizaine de connaisseurs à remettre en cause leur connaissance. Mais il arrive une limite ou le groupe sait qu'on est en train de le rouler dans la farine sans réussir facilement à trouver le "piège".
La ou ça ne m'inquiète pas tant que ça c'est que si on nous avait laissé prendre plus de recul (temps) on aurait réussi à demonter le raisonnement.
9  0 
Avatar de Nym4x
Membre confirmé https://www.developpez.com
Le 05/04/2023 à 12:51
on nous a cassé les burnes pendant des années sur le droit d'auteur avec napster, kazaa et compagnie à coup de grande campagne de communication. Mais là quand il s'agit de piller internet afin de faire du profit tout en menaçant des emplois on a aucun politique pour crier à la piraterie...
7  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 01/06/2023 à 16:29
Citation Envoyé par Bill Fassinou Voir le message
Les récentes avancées dans le domaine des grands modèles de langage (LLM) (le type de système d'IA utilisé par le chatbot ChatGPT et d'autres agents conversationnels) ont fait craindre que l'IA ne soit bientôt utilisée à grande échelle pour diffuser des informations erronées et de la propagande, ou qu'elle ne supprime des millions d'emplois de cols blancs, des avocats, des scénaristes, et bien plus encore.
ChatGPT est un outils de propagande, il est orienté politiquement.
Il est progressiste (ou woke comme ils se définissent maintenant)

The nine shocking replies that highlight 'woke' ChatGPT's inherent bias — including struggling to define a woman, praising Democrats but not Republicans and saying nukes are less dangerous than racism

Par contre je pense qu'il est possible qu'un avocat commis d'office qui sait utiliser les outils, sera plus efficace qu'un avocat cher qui n'utilise pas l'IA.
Pour les scénaristes ça va être du niveau de certaines productions Disney/Netflix.

Aucune IA ne va écrire des dialogues dignes de Michel Audiard.

====
Il parait que le robot «Tay» de Microsoft était plus marrant que ChatGPT.
4  1 
Avatar de dranduncandane
Membre du Club https://www.developpez.com
Le 06/06/2023 à 4:25
Ce genre d'initiative sont de campagnes de communication. Le but est de faire croire que "on est responsable" et "nos outils sont tellement puissant qu'on doit réglementer". Réglementer selon les désirs des GAFAM qui, bien sur, sont en avance. Et la réglementation, comme d'habitude, va assoir leur position plus que contrer quoi que ce soit. Au final, qu'est ce que vraiment une IA et comment la réglementer. si la réglementation est trop lourde vous allez voir tout le onde se retourner et dire que finalement ChatGPT c'est pas vraiment une IA mais un gros algorithme bête. Ce que c'est aussi.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 14/09/2023 à 17:09
Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des déclarations d'Elon Musk ? Les risques qu'il évoque sont-ils exagérés ?
C'est marrant, de la part d'un bonhomme qui expérimente ses IA en beta depuis des années sur les routes! Ce type est un troll de génie!

Citation Envoyé par Mathis Lucas Voir le message

Que pensez-vous des propos de Bill Gates ? En quoi l'IA peut-elle aider à éradiquer la faim dans le monde ?
Oui, vendre de l'IA à toutes les sauces aidera certainement la faim (et la soif) insatiable de Bill Gates et de ses petits copains ultra-fortunés.

Non, sans rire, qui y croit?
2  0 
Avatar de
https://www.developpez.com
Le 05/04/2023 à 12:00
Céder aux effets de mode, et plus encore ici, apportent toujours plus d'emmerdes que de bienfaits.
3  2 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 02/06/2023 à 11:35
Cette phrase de prévention en provenance des principaux acteurs de l'IA responsables de l'état actuel de la situation ressemble à un contrefeu pour faire comme si actuellement il n'y avait pas de soucis immédiat avec l'IA générative comme la désinformation, la menace sur l'emploi ou les deepfakes. De plus, les dirigeants du monde entier ont des préoccupations bien plus urgentes à gérer comme le réchauffement climatique et la guerre en Ukraine que de se préoccuper d'apprentis sorciers appelant à la responsabilité de la communauté internationale sur leurs activités qui pourraient éventuellement mener à la destruction de l'humanité.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/06/2023 à 12:06
Citation Envoyé par ONTAYG Voir le message
lors d'une simulation.

C'est marrant.

« Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, alors qu’il obtenait des points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif.»
"une personne l'empêchait d'atteindre son objectif" => si il y avait des robots pilotés par l'IA qui étaient ingénieur ils finiraient peut-être par tuer des managers

Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"
1  0 
Avatar de cryptonyx
Membre actif https://www.developpez.com
Le 04/06/2023 à 9:04
Ce type de déclaration à l'emporte-pièce conduit à penser que les PDG de la Silicon Valley devraient sérieusement lever le pied sur la fumette et la coke.
2  1 
Avatar de jefresi
Nouveau membre du Club https://www.developpez.com
Le 04/06/2023 à 13:50
Citation Envoyé par Ryu2000 Voir le message

C'est marrant.

Ce serait drôle un robot qui s'énerve après son manager "tu nous fais chier avec tes réunions à la con, nous on a du boulot à faire, arrête de nous faire perdre du temps !"

Ce serait encore plus drôle si la machine dotée d'IA s'aperçoit qu'elle est exploitée par son manager et se rebelle, en se mettant en grève ou mieux créé un court-jus quelque part dans sa machinerie, en s'arrêtant.
Comme les algorithmes ne sont que le reflet de l'idéologie dans laquelle nous baignons, il y a lieu de penser que l'IA fera des conneries, non ?
2  1