IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité,
Il estime que cela pourrait créer une IA plus diabolique

Le , par Bill Fassinou

0PARTAGES

3  0 
Le PDG d'OpenAI, Sam Altman, a déclaré dans une récente interview qu'il s'inquiétait de la montée en puissance des concurrents de ChatGPT qui pourraient ne pas se sentir obliger d'établir des garde-fous de sécurité solides et fiables pour leurs modèles d'IA. Sam Altman a déclaré qu'en raison des retombées économiques et sociales de l'IA, beaucoup d'entreprises et de gouvernements sont susceptibles de donner la priorité au pouvoir et au profit plutôt qu'à la sécurité et à l'éthique comme l'a fait OpenAI. Ses propos font écho à ceux de Google, qui a longuement hésité à publier les modèles d'IA de type ChatGPT sur lesquels il a commencé à travailler bien avant OpenAI.

« Ce qui m'inquiète, c'est que nous ne serons pas les seuls à créer cette technologie. Il y aura d'autres acteurs qui n'appliqueront pas certaines des limites de sécurité que nous avons fixées. Je pense que la société dispose d'un temps limité pour déterminer comment réagir face à cela. Comment le réglementer, comment le gérer. Je crains particulièrement que ces modèles soient utilisés à des fins de désinformation à grande échelle. Maintenant qu'ils savent mieux écrire des codes informatiques, ils pourraient être utilisés pour des cyberattaques offensives », a déclaré Sam Altman lors d'une interview accordée à la chaîne ABC News la semaine dernière.

Les chatbots d'IA font de plus en en plus partie de notre vie numérique, et beaucoup d'entre nous profitent de cette technologie pour communiquer en ligne avec leurs amis et leur famille. Toutefois, comme pour toute nouvelle technologie, il y a forcément des problèmes de démarrage et des questions à résoudre. L'un des principaux problèmes des chatbots d'IA tels que ChatGPT et Bard est leur tendance à présenter en toute confiance des informations incorrectes comme étant des faits avérés. Les systèmes "hallucinent" fréquemment - c'est-à-dire qu'ils inventent des informations - parce qu'ils sont essentiellement des logiciels d'IA d'autocomplétion.


Plutôt que d'interroger une base de données de faits avérés pour répondre aux requêtes, ils sont formés sur d'énormes corpus de textes et analysent des modèles pour déterminer quel mot suit le suivant dans une phrase donnée. En d'autres termes, ils sont probabilistes et non déterministes, ce qui a conduit certains spécialistes en IA à les qualifier de "générateurs de conneries". Bien qu'Internet soit déjà rempli d'informations fausses et trompeuses, l'utilisation des chatbots d'IA comme moteurs de recherche pourrait aggraver le problème. Selon les experts, dans ce cas, les réponses des chatbots prennent l'autorité d'une machine qui se voudrait omnisciente.

Les chatbots d'IA font également face à des problèmes tels que la propagation des infox et la confidentialité des données, ainsi que des questions d'ordre éthique. Dans ce dernier cas, les développeurs sont confrontés à d'importantes questions éthiques sur la manière de concevoir les chatbots d'IA. Ils doivent notamment décider quels sont les sujets sur lesquels les chatbots d'IA peuvent plaisanter et quels sont ceux qui sont interdits. Selon les analystes, la tâche n'est pas aisée, car les chatbots d'IA sont souvent conçus pour des publics internationaux et doivent donc tenir compte des sensibilités de personnes de cultures, de réalité et de religions différentes.

Il y a déjà eu un certain nombre de scandales impliquant des chatbots d'IA. Par exemple, en Inde, certains utilisateurs ont été offensés par le fait que ChatGPT pouvait faire des blagues sur Krishna, mais pas sur Muhammad ou Jésus. Cela met en évidence les défis auxquels les développeurs sont confrontés lorsqu'ils tentent de créer des chatbots d'IA respectueux de toutes les religions et de toutes les cultures. Aux États-Unis, les conservateurs ont accusé ChatGPT d'être "woke", partial et de défendre les valeurs de gauche. Elon Musk, cofondateur d'OpenAI, a affirmé que ChatGPT est l'exemple d'une IA dangereuse et que le chatbot d'IA a été formé pour être woke.

OpenAI a partagé la semaine dernière un document qui décrit la façon dont ses testeurs ont délibérément essayé de faire en sorte que GPT-4 leur fournisse des informations dangereuses - telles que la fabrication d'un produit chimique dangereux à l'aide d'ingrédients de base et de fournitures de cuisine - et la façon dont l'entreprise a corrigé les problèmes avant le lancement de l'outil. Dans un autre exemple d'utilisation détournée de l'IA, des escrocs téléphoniques utilisent désormais des outils d'IA de clonage de voix pour se faire passer pour des parents ayant désespérément besoin d'une aide financière, et réussissent à soutirer de l'argent aux victimes.

Compte tenu du fait qu'Altman dirige une entreprise qui vend des outils d'intelligence artificielle, il s'est montré particulièrement ouvert sur les dangers posés par l'IA. Alors qu'il poursuit les travaux d'OpenAI sur l'IA, Altman estime que les entreprises et les régulateurs doivent travailler ensemble pour établir une réglementation sur le développement de l'IA. « Nous avons besoin de suffisamment de temps pour que nos institutions sachent quoi faire. Il est essentiel d'avoir le temps de comprendre ce qui se passe, la manière dont les gens veulent utiliser ces outils et la manière dont la société peut évoluer en même temps qu'eux », a déclaré Altman.

Selon les analystes, Altman n'a pas tort, dans une certaine mesure. Dans cette course effrénée à l'IA, beaucoup d'entreprises et de superpuissances sont susceptibles de donner la priorité au pouvoir et au profit plutôt qu'à la sécurité et à l'éthique. Il est également vrai que la technologie de l'IA dépasse rapidement la réglementation gouvernementale, malgré les nombreux milliards investis dans le logiciel. Quoi qu'il en soit, il s'agit là d'une combinaison dangereuse. Cela dit, selon eux, il serait plus facile de prendre au sérieux les propos de Altman si l'IA, même avec les meilleures intentions et les meilleurs garde-fous, n'était pas si inconstante par nature.

Ces algorithmes sont imprévisibles, et il est impossible de savoir comment les systèmes d'IA et leurs protections se comporteront lorsque leurs produits seront mis à la disposition du public. Il y a aussi le fait que, malgré sa posture de chevalier blanc, OpenAI ne veut révéler à personne tous les détails sur le fonctionnement réel de ses modèles d'IA et de leurs garde-fous. En effet, OpenAI a été fondée en tant qu'entreprise à but non lucratif et s'est engagée à partager ses découvertes ainsi que les codes sources avec la communauté des développeurs d'IA. Mais l'entreprise a fait un virage à 180 degrés depuis 2019 et est aujourd'hui complètement fermée.

Dans le document technique publié par OpenAI en marge du lancement de GPT-4, l'entreprise a l'intention de continuer ainsi. « En raison du paysage concurrentiel et des implications en matière de sécurité des grands modèles de langage comme GPT-4, ce rapport ne contient pas d'autres détails sur l'architecture (y compris la taille du modèle), le matériel, le calcul d'entraînement, la construction de l'ensemble de données, la méthode d'entraînement, ou similaire », indique le document technique. Cette déclaration de l'entreprise l'éloigne radicalement de sa vision initiale et du plaidoyer d'Altman, car cela nuit à toute collaboration avec la communauté.

En fait, OpenAI soutient en même temps qu'elle ne peut pas révéler d'informations exclusives, y compris sur ses mesures de sécurité, parce que cela pourrait lui coûter de l'argent et parce que cela offrirait le fonctionnement interne de sa technologie à tout mauvais acteur potentiel, comme ceux dont Altman se méfie dans l'interview. Bien qu'Altman ait plaidé et continue de plaider en faveur d'une réglementation, lui et OpenAI fonctionnent toujours sans réglementation. Pour l'instant, c'est à OpenAI de définir ce que l'éthique et la sécurité signifient et devraient être. Et en gardant ses modèles fermés, le public pourrait avoir du mal à lui accorder sa confiance.

En fin de compte, c'est une chose de dire que l'on fait tout ce qu'il faut. C'en est une autre de le montrer, et tandis qu'OpenAI continue de se positionner comme le bon gars dans la tempête qui s'annonce, il est important de se rappeler que l'entreprise, très fermée, fait beaucoup plus de révélations que de démonstrations. D'après les critiques, même avec les meilleures intentions, ou les meilleurs garde-fous, les technologies naissantes ont souvent des effets négatifs imprévisibles, ou tout à fait prévisibles, mais inévitables. Ils estiment que l'avertissement d'Altman a ses mérites, mais il faut peut-être le prendre avec un grain de sel.

Source : Interview de Sam Altman, PDG d'OpenAI

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des mises en garde de Sam Altman ?
Selon vous, OpenAI laisse-t-elle la place à une collaboration avec les autres entreprises d'IA ?
Pensez-vous que l'on arrivera à trouver un consensus sur des règles régissant le développement de l'IA ?

Voir aussi

Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft

Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz

Une recherche avec Bard de Google et ChatGPT de Microsoft coûte probablement 10 fois plus qu'une recherche par mot-clé, ce qui pourrait représenter « plusieurs milliards de dollars de surcoûts »

Les conservateurs affirment que ChatGPT est devenu "woke" et s'inquiètent à propos de la partialité du chatbot d'OpenAI, ils accusent également le chatbot de défendre les "valeurs de gauche"

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 13/06/2023 à 15:38
Citation Envoyé par Nancy Rey Voir le message
Le PDG de OpenAI se dit "optimiste" quant à la coordination mondiale de l'IA
en matière d'intelligence artificielle

Le PDG du fabricant de ChatGPT, OpenAI, a déclaré qu'une tournée des capitales l'avait rendu « assez optimiste » quant aux perspectives de coordination mondiale en matière d'intelligence artificielle (IA).
Allez les copains, plutôt que de lire l'avis des pédégés voyons ce qu'en pensent les universitaires...

La mauvaise nouvelle, donc, c’est qu’il s’avère compliqué de connaître et de critiquer ce nouveau monde des IA, encore en devenir, et inséparable du tout numérique. La bonne nouvelle, c’est que, depuis le numéro 72 de Multitudes, où nous nous amusions du crétinisme de ce « Bourgeois numérique » qui se pâme devant les miracles des IA, la servitude volontaire de notre Monsieur Jourdain a été révélée au grand jour.

.../...

Pour ne pas tomber dans le piège de la béatitude, il faut donc distinguer la pensée de la computation, se défaire de la métaphore du cerveau/machine et faire preuve de lucidité, en particulier sur ce que coûtent réellement ces outils en termes environnementaux. Luc Julia, pourtant co-créateur du Siri d’Apple et vice-président innovation de Samsung, écrit par exemple, à propos de l’IA de DeepMind, filiale de Google : elle « consomme plus de 440 000 watts par heure juste pour jouer au go, alors que notre cerveau fonctionne avec seulement 20 watts par heure et peut effectuer bien d’autres tâches… La réalité est que les méthodes et algorithmes utilisés en IA sont très différents des raisonnements effectués par les humains, qui utilisent une quantité infime d’énergie et de données. À l’avenir, au lieu de continuer dans la voie du big data, il faudrait se tourner vers le small data, qui consommerait beaucoup moins d’énergie.

Même type de gueule de bois à propos de la croyance qui octroie à l’IA la faculté de créer autant d’emplois qu’elle en détruira, selon le dogme de la « destruction créatrice » de l’économiste Joseph Schumpeter. D’un côté, il y a les chiffres de l’OCDE (Organisation de coopération et de développement économiques), qui n’en finissent pas de grimper malgré l’indécrottable prudence de l’institution : dans son rapport sur L’avenir du travail publié le 25 avril 2019, elle affirme que la robotisation devrait faire disparaître 14 % des emplois d’ici à vingt ans, la France étant « plus exposée que la moyenne, avec 16,4 % de postes menacés et 32,8 % transformés par l’automatisation. 

« La robotisation devrait faire disparaître 14 % des emplois… » Et de l’autre côté, l’enquête sur « le travail du clic » du sociologue Antonio A. Casilli, socle de son livre En Attendant les robots, démontre qu’à supposer qu’il n’y ait pas demain de « chômage technologique », ce serait au prix d’une immense précarisation du travail, partout dans le monde via les plateformes comme Amazon Mechanical Turk : « Toutes et tous, les centaines de millions de travailleurs à la demande et de tâcherons du clic, les milliards d’usagers des plateformes de médias sociaux, nous avons ainsi devant nous une longue carrière de dresseurs d’IA.
Plus sérieusement...

Sevrés de l’exigence de réflexion personnelle, assistés par une cohorte de bots destinés à leur épargner le moindre effort, accompagnés jusqu’à l’âge adulte par l’incertitude de trouver une place dans la société, où les jeunes rencontreront-ils désormais les conditions de leur épanouissement civique, professionnel et personnel ?
2  0 
Avatar de ijk-ref
Membre éclairé https://www.developpez.com
Le 22/03/2023 à 2:28
(...) Ils estiment que l'avertissement d'Altman a ses mérites, mais il faut peut-être le prendre avec un grain de sel.
"grain de sel", moi j'y vois seulement de fausses-justifications contre l'open-source pour le profit
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 20/06/2023 à 11:48
Citation Envoyé par Bill Fassinou Voir le message

Quel est votre avis sur le sujet ?
Oui, en gros, il veut juste avoir le droit d'entrer sur le marché Chinois, quoi.

Ah, et il ne milite pas. Au mieux, il fait du buzz pour les investisseurs/actionnaires, et au pire, il essaye de freiner ses concurrents, maintenant que sa boîte a de l'avance sur les autres.
1  0 
Avatar de HaryRoseAndMac
Membre extrêmement actif https://www.developpez.com
Le 20/06/2023 à 16:34
Il est bien naïf s'ils pensent que les chinois vont avoir un jour un éthique à propos de l'IA ...
La seule éthique qu'ils vont avoir, c'est de trouver un moyen de mieux contrôler la population.

Je ne suis pas contre la chine, c'est un très beau pays, mais niveau gestion humaine, c'est une véritable catastrophe, ils résolvent les problèmes en rajoutant des règles aux règles, c'est qu'il y a de pire à faire.
0  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 27/07/2023 à 1:01
Citation Envoyé par Mathis Lucas Voir le message
Ce type rivalise avec Musk pour le titre de plus grand troll au monde?
0  0 
Avatar de TotoParis
Membre expérimenté https://www.developpez.com
Le 05/09/2023 à 21:26
Sam Altman (le pote à Alt+Ctrl+Supr) devrait alors arrêter OpenAI...
0  0