« L’un des aspects auxquels nous devons faire attention en matière d’intelligence artificielle est cette espèce de course que se livrent les acteurs de la filière pour s’assurer d’être les pionniers », souligne Sundar Pichai qui laisse ainsi entrevoir l’espèce de course à l’armement qui se met en place autour de l’intelligence artificielle. La course au « meilleur chatbot » que se livrent OpenAI (financé par Microsoft) et Google est riche en enseignements en la matière.
Google Bard contre ChatGPT et les dangers en lien avec la qualité de l’information
Google a annoncé l’intégration de l’IA conversationnelle à son moteur de recherches il y a peu. La décision n’est pas inattendue. En effet, elle fait suite au lancement par Microsoft d’une version de son propre moteur de recherches Bing qui s’appuie sur ChatGPT.
Ce qu’on sait de ces intelligences artificielles d’OpenAI et de Google est qu’il s’agit de chatbots capables de comprendre le langage naturel et de répondre en langage naturel. Elles peuvent donner de façon directe des solutions à des problèmes complexes. C’est la raison pour laquelle certaines institutions universitaires en interdisent l’usage à leurs étudiants. Le professeur Arvind Narayanan de l’université de Princeton tire néanmoins la sonnette d’alarme sur la pertinence de s’appuyer sur des moteurs de recherche intégrant ces chatbots en déclarant que c’est de la « poudre de perlimpinpin. »
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif, mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il à propos de ChatGPT.
D’ailleurs, une mouture de Microsoft Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population de la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.
Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »
Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.
C’est cette imprécision qui a poussé les développeurs et les experts de la filière à avertir que cette technologie ne devrait pas être utilisée pour prendre des décisions importantes pour le moment. Et pourtant, des tractations sont en cours pour son utilisation sur les champs de bataille.
Des experts US proposent de placer l’arsenal nucléaire du pays sous le contrôle d’une IA pour contrer la Russie et la Chine
Des chercheurs américains de l’Air Force Institute of Technology ont suggéré de placer l’armement nucléaire du pays sous le contrôle d’une intelligence artificielle capable de réagir de façon prompte en cas d’attaque. En effet, soulignent-ils, deux types d’armes nucléaires hypersoniques ont vu le jour et réduisent fortement le délai dont dispose le président pour prendre une décision en cas de détection d’une attaque militaire.
« Actuellement, nous ne disposons pas de moyens de défense efficaces contre les armes hypersoniques en raison de la façon dont elles volent. Elles se déplacent à une altitude à laquelle nos systèmes de défense actuels ne sont pas conçus pour fonctionner ; tout notre système défensif est basé sur l'hypothèse de l'interception d'un objet balistique », rapportent-ils des propos d’un autre expert du domaine. L’édition 2019 d’une revue du département de la Défense (DoD) cite la Russie et la Chine comme les principaux pays lancés dans le développement d’un tel arsenal.
« La Russie et la Chine mettent au point des missiles hypersoniques perfectionnés qui peuvent se déplacer à des vitesses exceptionnelles avec des trajectoires de vol imprévisibles qui mettent à l'épreuve nos systèmes de défense actuels », ajoute le DoD. La suggestion des chercheurs survient au moment où le Pentagone reconnaît à la Chine un avantage sur les USA en matière d’applications militaires de l’intelligence artificielle, ce, grâce à une grande collaboration entre l’armée et l’industrie technologique.
Ce système basé sur l’IA devrait être en mesure de détecter un lancement de missiles n’importe où dans le monde et d’apporter la réponse appropriée dans les délais les plus brefs. Il s’agit en quelque sorte de confier les codes nucléaires des USA à une intelligence artificielle. L’approche n’est pas sans faire penser à un système automatisé de gestion d’arsenal nucléaire utilisé par l’Union soviétique lors de la guerre froide. Ce dernier était conçu pour activer automatiquement les armes nucléaires sous certaines conditions, dont celle du décès du leader de l’Union.
« Les progrès récents de l'intelligence artificielle pourraient être mis à profit dans tous les aspects du nucléaire. L'apprentissage machine pourrait renforcer les capacités de détection des systèmes d'alerte précoce existants et améliorer la possibilité pour les analystes humains d'effectuer une analyse croisée des données de renseignement, de surveillance et de reconnaissance (ISR). L'apprentissage machine pourrait être utilisé pour renforcer la protection de l'architecture de commandement et de contrôle contre les cyberattaques et améliorer la façon dont les ressources, y compris les forces humaines, sont gérées. Les progrès de l'apprentissage machine pourraient renforcer les capacités des moyens de dissuasion non nucléaires, qu'ils soient conventionnels (systèmes de défense aérienne), électroniques (brouillage) ou cybernétiques », rapportent les chercheurs des propos d’un autre expert du domaine.
Pas de consensus à l’échelle globale sur les armes autonomes létales
La Convention des Nations unies sur certaines armes classiques s’est à nouveau penchée sur la question de l'interdiction des armes autonomes lors de sa dernière réunion d'examen quinquennale à Genève du 13 au 17 décembre 2021. Résultat : pas de consensus des parties prenantes sur l’établissement de règles internationales contraignantes visant à interdire l’utilisation des robots tueurs autonomes. Sur le terrain pourtant, des rapports font état de ce que la machine sait déjà prendre la décision d'appuyer sur la gâchette sans intervention humaine.
Les avis demeurent partagés sur la question de savoir si les robots tueurs autonomes doivent faire l’objet d’interdiction. En effet, l'utilisation d'armes autonomes meurtrières est en discussion aux Nations unies depuis 2015, dans le cadre de la Convention sur certaines armes classiques (CCAC). Les pays pionniers dans le domaine des systèmes d'armes autonomes, dont la Russie, les États-Unis et Israël, rejettent une interdiction contraignante en vertu du droit international. Ces poids lourds militaires sont face à un groupe d'États qui réclament une législation contraignante dans le cadre de la campagne menée par les ONG pour arrêter les robots tueurs.
« Tuer ou blesser des personnes sur la base de données collectées par des capteurs et traitées par des machines porterait atteinte à la dignité humaine. Human Rights Watch et d'autres organisations craignent que le fait de s'appuyer sur des algorithmes pour cibler des personnes déshumanise la guerre et érode notre humanité collective », lancent des intervenants du deuxième groupe pour l’interdiction des robots tueurs autonomes.
Chaque pays poursuit donc avec le développement desdites armes autonomes. Les États-Unis et Israël par exemple sont sur des projets de construction de nouveaux chars d'assaut autonomes et semi-autonomes destinés à être utilisés sur le champ de bataille. Du côté des USA, il s'agit de former une famille de chars d'assaut robotisés lourdement armés pour combattre aux côtés des humains, sur les champs de bataille du futur.
Les véhicules sont prévus en trois classes de taille, dans trois degrés de létalité, dont léger, moyen et lourd, et pèseront jusqu'à 30 tonnes. Toute la famille des véhicules de combat robotisés utilisera des logiciels de navigation et des interfaces de commande communs déjà testés sur le terrain. Chaque variante utilisera les mêmes normes électroniques et mécaniques, une architecture ouverte dite modulaire, qui devrait permettre aux soldats sur le terrain de brancher et de faire fonctionner toute une gamme de charges utiles, des missiles aux générateurs de fumée en passant par les brouilleurs radio.
Pour l'instant, les robots seront télécommandés par des humains, à distance, depuis leur base. Quant à l'Israël, le pays veut construire le Carmel, un char d'assaut qui sera équipé de contrôleurs Xbox et d'une IA perfectionnée avec les jeux “StarCraft II” et “Doom”. Des prototypes de ce futur véhicule de combat blindé (AFV) de l'armée israélienne ont été dévoilés publiquement en août 2019. Vu de l'extérieur, il ressemble à n'importe quelle arme de guerre classique. Il est enrobé de couches d'acier très épaisses, certaines colorées en kaki traditionnel, d'autres en noir.
De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un adolescent.
Ce nouvel échec des discussions à l’ONU fait suite à des sorties d’experts de la filière visant à avertir contre les dangers de l’utilisation des robots autonomes tueurs : « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer. »
Source : Entretien CBS
Et vous ?
Que pensez-vous de ces divergences dans les négociations sur l'interdiction des armes autonomes ?
Vers une catastrophe nucléaire causée par l’utilisation de l’intelligence artificielle à des fins de contrôle et de domination ?
Voir aussi :
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur