
« Ce qui m'inquiète, c'est que nous ne serons pas les seuls à créer cette technologie. Il y aura d'autres acteurs qui n'appliqueront pas certaines des limites de sécurité que nous avons fixées. Je pense que la société dispose d'un temps limité pour déterminer comment réagir face à cela. Comment le réglementer, comment le gérer. Je crains particulièrement que ces modèles soient utilisés à des fins de désinformation à grande échelle. Maintenant qu'ils savent mieux écrire des codes informatiques, ils pourraient être utilisés pour des cyberattaques offensives », a déclaré Sam Altman lors d'une interview accordée à la chaîne ABC News la semaine dernière.
Les chatbots d'IA font de plus en en plus partie de notre vie numérique, et beaucoup d'entre nous profitent de cette technologie pour communiquer en ligne avec leurs amis et leur famille. Toutefois, comme pour toute nouvelle technologie, il y a forcément des problèmes de démarrage et des questions à résoudre. L'un des principaux problèmes des chatbots d'IA tels que ChatGPT et Bard est leur tendance à présenter en toute confiance des informations incorrectes comme étant des faits avérés. Les systèmes "hallucinent" fréquemment - c'est-à-dire qu'ils inventent des informations - parce qu'ils sont essentiellement des logiciels d'IA d'autocomplétion.
Plutôt que d'interroger une base de données de faits avérés pour répondre aux requêtes, ils sont formés sur d'énormes corpus de textes et analysent des modèles pour déterminer quel mot suit le suivant dans une phrase donnée. En d'autres termes, ils sont probabilistes et non déterministes, ce qui a conduit certains spécialistes en IA à les qualifier de "générateurs de conneries". Bien qu'Internet soit déjà rempli d'informations fausses et trompeuses, l'utilisation des chatbots d'IA comme moteurs de recherche pourrait aggraver le problème. Selon les experts, dans ce cas, les réponses des chatbots prennent l'autorité d'une machine qui se voudrait omnisciente.
Les chatbots d'IA font également face à des problèmes tels que la propagation des infox et la confidentialité des données, ainsi que des questions d'ordre éthique. Dans ce dernier cas, les développeurs sont confrontés à d'importantes questions éthiques sur la manière de concevoir les chatbots d'IA. Ils doivent notamment décider quels sont les sujets sur lesquels les chatbots d'IA peuvent plaisanter et quels sont ceux qui sont interdits. Selon les analystes, la tâche n'est pas aisée, car les chatbots d'IA sont souvent conçus pour des publics internationaux et doivent donc tenir compte des sensibilités de personnes de cultures, de réalité et de religions différentes.
Il y a déjà eu un certain nombre de scandales impliquant des chatbots d'IA. Par exemple, en Inde, certains utilisateurs ont été offensés par le fait que ChatGPT pouvait faire des blagues sur Krishna, mais pas sur Muhammad ou Jésus. Cela met en évidence les défis auxquels les développeurs sont confrontés lorsqu'ils tentent de créer des chatbots d'IA respectueux de toutes les religions et de toutes les cultures. Aux États-Unis, les conservateurs ont accusé ChatGPT d'être "woke", partial et de défendre les valeurs de gauche. Elon Musk, cofondateur d'OpenAI, a affirmé que ChatGPT est l'exemple d'une IA dangereuse et que le chatbot d'IA a été formé pour être woke.
OpenAI a partagé la semaine dernière un document qui décrit la façon dont ses testeurs ont délibérément essayé de faire en sorte que GPT-4 leur fournisse des informations dangereuses - telles que la fabrication d'un produit chimique dangereux à l'aide d'ingrédients de base et de fournitures de cuisine - et la façon dont l'entreprise a corrigé les problèmes avant le lancement de l'outil. Dans un autre exemple d'utilisation détournée de l'IA, des escrocs téléphoniques utilisent désormais des outils d'IA de clonage de voix pour se faire passer pour des parents ayant désespérément besoin d'une aide financière, et réussissent à soutirer de l'argent aux victimes.
Compte tenu du fait qu'Altman dirige une entreprise qui vend des outils d'intelligence artificielle, il s'est montré particulièrement ouvert sur les dangers posés par l'IA. Alors qu'il poursuit les travaux d'OpenAI sur l'IA, Altman estime que les entreprises et les régulateurs doivent travailler ensemble pour établir une réglementation sur le développement de l'IA. « Nous avons besoin de suffisamment de temps pour que nos institutions sachent quoi faire. Il est essentiel d'avoir le temps de comprendre ce qui se passe, la manière dont les gens veulent utiliser ces outils et la manière dont la société peut évoluer en même temps qu'eux », a déclaré Altman.
Selon les analystes, Altman n'a pas tort, dans une certaine mesure. Dans cette course effrénée à l'IA, beaucoup d'entreprises et de superpuissances sont susceptibles de donner la priorité au pouvoir et au profit plutôt qu'à la sécurité et à l'éthique. Il est également vrai que la technologie de l'IA dépasse rapidement la réglementation gouvernementale, malgré les nombreux milliards investis dans le logiciel. Quoi qu'il en soit, il s'agit là d'une combinaison dangereuse. Cela dit, selon eux, il serait plus facile de prendre au sérieux les propos de Altman si l'IA, même avec les meilleures intentions et les meilleurs garde-fous, n'était pas si inconstante par nature.
Ces algorithmes sont imprévisibles, et il est impossible de savoir comment les systèmes d'IA et leurs protections se comporteront lorsque leurs produits seront mis à la disposition du public. Il y a aussi le fait que, malgré sa posture de chevalier blanc, OpenAI ne veut révéler à personne tous les détails sur le fonctionnement réel de ses modèles d'IA et de leurs garde-fous. En effet, OpenAI a été fondée en tant qu'entreprise à but non lucratif et s'est engagée à partager ses découvertes ainsi que les codes sources avec la communauté des développeurs d'IA. Mais l'entreprise a fait un virage à 180 degrés depuis 2019 et est aujourd'hui complètement fermée.
Dans le document technique publié par OpenAI en marge du lancement de GPT-4, l'entreprise a l'intention de continuer ainsi. « En raison du paysage concurrentiel et des implications en matière de sécurité des grands modèles de langage comme GPT-4, ce rapport ne contient pas d'autres détails sur l'architecture (y compris la taille du modèle), le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.