Altman et ses pairs sur les dangers potentiels de l'IA sur l'homme et la société
Altman a comparu devant une sous-commission judiciaire du Sénat américain, aux côtés de Christina Montgomery, responsable de la protection de la vie privée chez IBM, et de Gary Marcus, professeur à l'université de New York. L'audition d'Altman devant le Sénat américain intervient environ deux semaines après sa participation à un sommet sur l'IA organisé par la Maison Blanche. Lors de l'audition, il s'est montré réfléchi et exigeant dans ses réponses aux sénateurs, même lorsque ceux-ci se sont montrés un peu combatifs. Altman a insisté sur le fait que les systèmes d'IA avancés tels que ChatGPT devraient être soumis à des licences gouvernementales.
Il a déclaré aux législateurs américains qu'il était favorable à une réglementation plus stricte pour prévenir les "méfaits" de l'IA, en particulier de l'IA générative. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman. Mais il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.
Tout en vantant les avantages de l'IA, il a déclaré qu'OpenAI était préoccupé par le fait que les élections sont affectées par le contenu généré par l'IA. À ce propos, le professeur Marcus a souligné les risques liés aux systèmes d'IA qui convainquent subtilement les gens de changer leurs convictions sans le vouloir. « Nous ne savons pas sur quoi ChatGPT [la version basée sur le modèle de langage GPT-4] est entraîné. La manière dont ces systèmes peuvent guider les gens dépend beaucoup de ce sur quoi ils sont entraînés. Nous avons besoin de scientifiques qui analysent l'impact politique de ces systèmes », a déclaré le professeur Marcus au Sénat.
En parlant des risques pour les prochaines élections présidentielles aux États-Unis en 2024, le professeur Marcus a ajouté : « nous sommes confrontés à la question de la manipulation potentielle. L'hyperciblage va certainement faire son apparition. Peut-être s'agira-t-il de modèles à source ouverte, je ne sais pas, mais la technologie est capable de le faire et elle y parviendra certainement ». Interrogé par les sénateurs sur ce point, Altman s'est dit d'accord. Il estime que le risque est réel et imminent, car ces modèles s'améliorent très rapidement. « Je pense qu'il serait judicieux d'adopter une réglementation à ce sujet », a-t-il déclaré une fois de plus.
De son côté, Christina Montgomery, responsable de la protection de la vie privée chez IBM, a ajouté : « IBM demande instamment au Congrès d'adopter une approche réglementaire précise de l'IA. Cela signifie qu'il faut établir des règles pour régir le déploiement de l'IA dans des cas d'utilisation spécifiques, et non pas réglementer la technologie elle-même. Le Congrès devrait définir clairement les risques de l'IA et imposer des règles différentes pour des risques différents, les règles les plus strictes étant appliquées aux cas d'utilisation présentant les risques les plus importants pour les personnes et la société ». Big Blue est l'un des pionniers du domaine.
Altman sur les solutions possibles pour établir une réglementation pour l'IA
Le sénateur Dick Durbin (D-Ill) a déclaré que l'industrie de l'IA semblait avoir pour message "arrêtez-moi avant que je n'innove à nouveau", contrairement aux réseaux de médias sociaux, qui n'ont souvent pas voulu être tenus responsables des actions qui se sont produites sur leurs plateformes. En réponse, Altman a souligné que l'IA était une "technologie très nouvelle" et que l'industrie technologique avait besoin d'un "cadre de responsabilité" pour travailler. En outre, interrogé sur la possibilité que l'IA prenne en charge tous nos emplois, le professeur Marcus a déclaré aux sénateurs : « à terme, tous les emplois seront pris en charge par l'IA ».
Cependant, il a ajouté : « mais nous ne sommes pas encore très proches de l'intelligence générale de l'IA ». Le professeur Marcus a déclaré au Sénat qu'il était très préoccupé par la sécurité des personnes lorsqu'il s'agit d'IA, affirmant que les États-Unis sont maintenant confrontés à "la tempête parfaite". L'universitaire a conseillé aux législateurs de tirer les leçons de ce qui s'est passé avec les médias sociaux. Altman a déclaré qu'il ne pensait pas que des exigences lourdes devraient s'appliquer aux entreprises et aux chercheurs dont les modèles sont beaucoup moins avancés que ceux d'OpenAI. Ses propositions peuvent se résumer comme suit :
- créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA, et l'habiliter à retirer ces licences aux entreprises dont les modèles ne sont pas conformes aux normes gouvernementales ;
- créer un ensemble de normes de sécurité pour les modèles d'IA, y compris des évaluations de leurs capacités dangereuses. Par exemple, les modèles devraient passer certains tests de sécurité, notamment pour savoir s'ils peuvent "s'autoreproduire" et "s'exfiltrer dans la nature", c'est-à-dire devenir des voyous, et commencer à agir de leur propre chef ;
- exiger des audits indépendants, réalisés par des experts indépendants, des performances des modèles en fonction de divers paramètres.
Les propositions d'Altman ont fortement été critiquées, de nombreux critiques affirmant qu'elles sont insuffisantes et ne couvrent pas toutes les préoccupations liées à ces systèmes d'IA. Pour être plus clair, parmi les propositions d'Altman, il n'est pas question d'exiger que les modèles d'IA soient transparents en ce qui concerne leurs données d'apprentissage, comme l'a demandé son collègue Gary Marcus, ou d'interdire leur apprentissage sur des œuvres protégées par des droits d'auteur, comme l'a suggéré le sénateur Marsha Blackburn (R-Tenn.). Il s'agit de deux points essentiels qui sont actuellement sujets à des débats intenses dans la communauté.
Certains vont même jusqu'à affirmer que les appels d'Altman à une réglementation de l'IA sont une supercherie pour freiner les nouveaux acteurs du secteur. « Une fois que vous êtes établi dans un nouveau domaine, vous voulez ajouter autant d'obstacles que possible aux autres qui essaient de s'établir », a écrit un critique. Un autre a également écrit : « je travaille dans le domaine du calcul intensif et de la recherche sur l'IA. Les systèmes d'IA connus sont actuellement de très bons algorithmes de recherche et des manipulateurs d'images et de sons. Le message qu'Altman veut faire passer est le suivant : "fermez la porte ! Vous allez laisser entrer toute la racaille !" ».
Pourtant, de nombreux sénateurs semblent désireux de confier l'autorégulation à Altman. Le sénateur John Neely Kennedy (R-La.) a demandé si Altman était lui-même qualifié pour superviser un organisme fédéral de réglementation de l'IA. Altman a hésité, déclarant qu'il aimait son travail actuel, mais il a proposé que son entreprise lui envoie une liste de candidats appropriés. Selon les critiques, l'approche des sénateurs pourrait avoir de graves répercussions sur l'industrie. Lors de son audition, Altman s'est également gardé de mentionner les biais des systèmes d'IA, une chose sur laquelle le professeur Marcus a longuement insisté.
Altman sur la façon dont OpenAI monétise ChatGPT et sur l'avenir de l'IA
Le sénateur Cory Booker a demandé à Altman si ChatGPT afficherait des publicités aux utilisateurs. En réponse, Altman a déclaré que, bien qu'il ne puisse pas l'exclure complètement, il préférait un modèle d'abonnement. OpenAI offre actuellement un abonnement payant à ChatGPT Plus, une version qui est basée sur GPT-4, le dernier modèle de langage du laboratoire d'IA. Dans une question un peu étrange, un autre sénateur a demandé au PDG d'OpenAI s'il gagnait beaucoup d'argent. Altman a répondu qu'il faisait son travail parce qu'il l'aimait, et que son salaire n'était pas assez élevé pour qu'une assurance maladie soit incluse dans sa rémunération.
Le sénateur John Kennedy a répondu : « vraiment ? Vous avez besoin d'un avocat ou d'un agent ». Par la suite, les sénateurs ont interrogé Altman, Montgomery et le professeur Marcus sur la question de savoir si d'autres options plus radicales devraient être envisagées pour prévenir les méfaits de l'IA. Par exemple, le sénateur Cory Booker (D-N.J.) a demandé s'il ne fallait pas arrêter le développement de l'IA jusqu'à ce qu'il soit possible d'établir tous les risques et tous les remèdes. Mais Altman et ses pairs étaient contre cette alternative. Altman refuse l'idée d'un moratoire, mais a confirmé que son entreprise ne formait actuellement aucun modèle d'IA.
La réponse d'Altman à Booker suggère qu'OpenAI a au moins envisagé la possibilité d'insérer des publicités dans la version gratuite de ChatGPT (la version basée sur le modèle de langage GPT3.5) afin de gagner de l'argent grâce à ses utilisateurs gratuits. Mais le fonctionnement de ChatGPT n'est pas gratuit pour OpenAI, ce qui signifie qu'il n'y a aucune garantie que la version gratuite sera toujours disponible. Certains législateurs craignent que les entreprises d'IA n'adoptent un jour ce modèle commercial financé par la publicité, qui, dans l'industrie des médias sociaux, a sans doute encouragé la conception de produits manipulateurs et d'algorithmes addictifs.
Montgomery a également refusé l'idée d'un moratoire : « je ne suis pas sûre qu'il serait pratique de faire une pause, mais nous devrions absolument donner la priorité à la réglementation ». Même dans le camp des sénateurs, tout le monde ne partage pas cet avis. Le sénateur Richard Blumenthal n'est pas du tout d'accord avec l'idée d'une pause dans l'innovation en matière d'IA. « Le monde n'attendra pas. La communauté scientifique mondiale n'attendra pas. Nous avons des adversaires qui vont de l'avant. Des garanties et des protections, oui, mais un panneau d'arrêt plat, la politique de l'autruche, je m'y opposerais », a-t-il déclaré à l'assistance.
Lors de l'audition, plusieurs sénateurs ont tiré la sonnette d'alarme au sujet de la consolidation des entreprises sur le marché de l'IA, avertissant qu'un petit nombre d'entreprises technologiques pourraient finir par dominer les outils. Le sénateur Booker a déclaré qu'il s'agissait là de l'une de ses plus grandes préoccupations en matière d'IA. Il a cité en exemple le partenariat d'OpenAI avec le géant technologique Microsoft. « Il est vraiment terrifiant de voir à quel point un petit nombre d'entreprises contrôlent et affectent la vie d'un si grand nombre d'entre nous, et ces entreprises sont de plus en plus grandes et puissantes », a-t-il déclaré.
En réponse, Altman a déclaré qu'il pensait qu'il y aurait un nombre relativement restreint de fournisseurs capables de créer des modèles d'IA à grande échelle, mais il a également suggéré qu'il pourrait y avoir des avantages réglementaires à n'avoir qu'une poignée d'acteurs dans ce rôle. « Moins nous serons nombreux à devoir être surveillés, plus nous aurons d'avantages. Mais je pense qu'il faut qu'il y ait suffisamment de concurrence et qu'il y en aura », a-t-il déclaré. Selon les critiques, cette déclaration d'Altman démontre qu'il milite en faveur d'une réglementation pour consolider l'avantage d'OpenAI sur ses concurrents et contrôler le secteur.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations de Sam Altman devant le Congrès américain ?
Que pensez-vous des appels répétés d'Altman à la mise en place d'une réglementation sur l'IA ?
Pensez-vous qu'il s'agit d'une supercherie ? Altman a-t-il l'intention de compliquer la tâche aux nouveaux arrivants ?
Que pensez-vous des déclarations de la représentante d'IBM et de l'universitaire Gary Marcus ?
Pensez-vous que la version gratuite de ChatGPT va perdurer ? Dans ce cas, restera-t-elle sans publicité ?
Voir aussi
Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz
Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft
Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention, l'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement
Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique