Le PDG d'OpenAI, Sam Altman, a déclaré dans une récente interview qu'il s'inquiétait de la montée en puissance des concurrents de ChatGPT qui pourraient ne pas se sentir obliger d'établir des garde-fous de sécurité solides et fiables pour leurs modèles d'IA. Sam Altman a déclaré qu'en raison des retombées économiques et sociales de l'IA, beaucoup d'entreprises et de gouvernements sont susceptibles de donner la priorité au pouvoir et au profit plutôt qu'à la sécurité et à l'éthique comme l'a fait OpenAI. Ses propos font écho à ceux de Google, qui a longuement hésité à publier les modèles d'IA de type ChatGPT sur lesquels il a commencé à travailler bien avant OpenAI.« Ce qui m'inquiète, c'est que nous ne serons pas les seuls à créer cette technologie. Il y aura d'autres acteurs qui n'appliqueront pas certaines des limites de sécurité que nous avons fixées. Je pense que la société dispose d'un temps limité pour déterminer comment réagir face à cela. Comment le réglementer, comment le gérer. Je crains particulièrement que ces modèles soient utilisés à des fins de désinformation à grande échelle. Maintenant qu'ils savent mieux écrire des codes informatiques, ils pourraient être utilisés pour des cyberattaques offensives », a déclaré Sam Altman lors d'une interview accordée à la chaîne ABC News la semaine dernière.
Les chatbots d'IA font de plus en en plus partie de notre vie numérique, et beaucoup d'entre nous profitent de cette technologie pour communiquer en ligne avec leurs amis et leur famille. Toutefois, comme pour toute nouvelle technologie, il y a forcément des problèmes de démarrage et des questions à résoudre. L'un des principaux problèmes des chatbots d'IA tels que ChatGPT et Bard est leur tendance à présenter en toute confiance des informations incorrectes comme étant des faits avérés. Les systèmes "hallucinent" fréquemment - c'est-à-dire qu'ils inventent des informations - parce qu'ils sont essentiellement des logiciels d'IA d'autocomplétion.
Plutôt que d'interroger une base de données de faits avérés pour répondre aux requêtes, ils sont formés sur d'énormes corpus de textes et analysent des modèles pour déterminer quel mot suit le suivant dans une phrase donnée. En d'autres termes, ils sont probabilistes et non déterministes, ce qui a conduit certains spécialistes en IA à les qualifier de "générateurs de conneries". Bien qu'Internet soit déjà rempli d'informations fausses et trompeuses, l'utilisation des chatbots d'IA comme moteurs de recherche pourrait aggraver le problème. Selon les experts, dans ce cas, les réponses des chatbots prennent l'autorité d'une machine qui se voudrait omnisciente.
Les chatbots d'IA font également face à des problèmes tels que la propagation des infox et la confidentialité des données, ainsi que des questions d'ordre éthique. Dans ce dernier cas, les développeurs sont confrontés à d'importantes questions éthiques sur la manière de concevoir les chatbots d'IA. Ils doivent notamment décider quels sont les sujets sur lesquels les chatbots d'IA peuvent plaisanter et quels sont ceux qui sont interdits. Selon les analystes, la tâche n'est pas aisée, car les chatbots d'IA sont souvent conçus pour des publics internationaux et doivent donc tenir compte des sensibilités de personnes de cultures, de réalité et de religions différentes.
Il y a déjà eu un certain nombre de scandales impliquant des chatbots d'IA. Par exemple, en Inde, certains utilisateurs ont été offensés par le fait que ChatGPT pouvait faire des blagues sur Krishna, mais pas sur Muhammad ou Jésus. Cela met en évidence les défis auxquels les développeurs sont confrontés lorsqu'ils tentent de créer des chatbots d'IA respectueux de toutes les religions et de toutes les cultures. Aux États-Unis, les conservateurs ont accusé ChatGPT d'être "woke", partial et de défendre les valeurs de gauche. Elon Musk, cofondateur d'OpenAI, a affirmé que ChatGPT est l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.


Quel est votre avis sur le sujet ?