L’intelligence artificielle évolue à la vitesse grand V. La technologie continue en même temps de soulever de multiples questions auxquelles les gros acteurs de la filière n’ont pas toutes les réponses. La situation est donc désormais telle qu’il faut penser à encadrer les développements en la matière. C’est ce que rappelle Sundar Pichai dans une récente sortie qui intervient au moment où les gouvernements commencent à s’activer pour définir la direction à prendre en la matière. Problème : Tous les pays du monde peuvent-ils parvenir à un consensus en matière d’utilisation de l’intelligence artificielle ? C’est une redite de l’échec des négociations (au niveau des Nations unies) sur les armes autonomes létales qui se dessine.« L’un des aspects auxquels nous devons faire attention en matière d’intelligence artificielle est cette espèce de course que se livrent les acteurs de la filière pour s’assurer d’être les pionniers », souligne Sundar Pichai qui laisse ainsi entrevoir l’espèce de course à l’armement qui se met en place autour de l’intelligence artificielle. La course au « meilleur chatbot » que se livrent OpenAI (financé par Microsoft) et Google est riche en enseignements en la matière.
Google Bard contre ChatGPT et les dangers en lien avec la qualité de l’information
Google a annoncé l’intégration de l’IA conversationnelle à son moteur de recherches il y a peu. La décision n’est pas inattendue. En effet, elle fait suite au lancement par Microsoft d’une version de son propre moteur de recherches Bing qui s’appuie sur ChatGPT.
Ce qu’on sait de ces intelligences artificielles d’OpenAI et de Google est qu’il s’agit de chatbots capables de comprendre le langage naturel et de répondre en langage naturel. Elles peuvent donner de façon directe des solutions à des problèmes complexes. C’est la raison pour laquelle certaines institutions universitaires en interdisent l’usage à leurs étudiants. Le professeur Arvind Narayanan de l’université de Princeton tire néanmoins la sonnette d’alarme sur la pertinence de s’appuyer sur des moteurs de recherche intégrant ces chatbots en déclarant que c’est de la « poudre de perlimpinpin. »
« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif, mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.
Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il à propos de ChatGPT.
D’ailleurs, une mouture de Microsoft Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population de la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.
Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »
Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.
C’est cette imprécision qui a poussé les développeurs et les experts de la filière à avertir que cette technologie ne devrait pas être utilisée pour prendre des décisions importantes pour le moment. Et pourtant, des tractations sont en cours pour son utilisation sur les champs de bataille.
Des experts US proposent de placer l’arsenal nucléaire du pays sous le contrôle d’une IA pour contrer la Russie et la Chine
Des chercheurs américains de l’Air Force Institute of Technology ont suggéré de placer l’armement nucléaire du pays sous le contrôle d’une intelligence artificielle capable de réagir de façon prompte en cas d’attaque. En effet, soulignent-ils, deux types d’armes nucléaires hypersoniques ont vu le jour et réduisent fortement le délai dont dispose le président pour prendre une décision en cas de détection d’une attaque militaire.
« Actuellement, nous ne disposons pas de moyens de défense efficaces contre les armes hypersoniques en raison de la façon dont elles volent. Elles se déplacent à une altitude à laquelle nos systèmes de défense actuels ne sont pas conçus pour fonctionner ; tout notre système défensif est basé sur l'hypothèse de l'interception d'un objet balistique », rapportent-ils des propos d’un autre expert du domaine. L’édition 201...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.