
Altman et ses pairs sur les dangers potentiels de l'IA sur l'homme et la société
Altman a comparu devant une sous-commission judiciaire du Sénat américain, aux côtés de Christina Montgomery, responsable de la protection de la vie privée chez IBM, et de Gary Marcus, professeur à l'université de New York. L'audition d'Altman devant le Sénat américain intervient environ deux semaines après sa participation à un sommet sur l'IA organisé par la Maison Blanche. Lors de l'audition, il s'est montré réfléchi et exigeant dans ses réponses aux sénateurs, même lorsque ceux-ci se sont montrés un peu combatifs. Altman a insisté sur le fait que les systèmes d'IA avancés tels que ChatGPT devraient être soumis à des licences gouvernementales.
Il a déclaré aux législateurs américains qu'il était favorable à une réglementation plus stricte pour prévenir les "méfaits" de l'IA, en particulier de l'IA générative. « Ma pire crainte est que nous - l'industrie - causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu'une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants », a déclaré Altman. Mais il n'a pas manqué de vanter les potentiels des systèmes d'IA développés par OpenAI et d'autres.
Tout en vantant les avantages de l'IA, il a déclaré qu'OpenAI était préoccupé par le fait que les élections sont affectées par le contenu généré par l'IA. À ce propos, le professeur Marcus a souligné les risques liés aux systèmes d'IA qui convainquent subtilement les gens de changer leurs convictions sans le vouloir. « Nous ne savons pas sur quoi ChatGPT [la version basée sur le modèle de langage GPT-4] est entraîné. La manière dont ces systèmes peuvent guider les gens dépend beaucoup de ce sur quoi ils sont entraînés. Nous avons besoin de scientifiques qui analysent l'impact politique de ces systèmes », a déclaré le professeur Marcus au Sénat.
En parlant des risques pour les prochaines élections présidentielles aux États-Unis en 2024, le professeur Marcus a ajouté : « nous sommes confrontés à la question de la manipulation potentielle. L'hyperciblage va certainement faire son apparition. Peut-être s'agira-t-il de modèles à source ouverte, je ne sais pas, mais la technologie est capable de le faire et elle y parviendra certainement ». Interrogé par les sénateurs sur ce point, Altman s'est dit d'accord. Il estime que le risque est réel et imminent, car ces modèles s'améliorent très rapidement. « Je pense qu'il serait judicieux d'adopter une réglementation à ce sujet », a-t-il déclaré une fois de plus.
De son côté, Christina Montgomery, responsable de la protection de la vie privée chez IBM, a ajouté : « IBM demande instamment au Congrès d'adopter une approche réglementaire précise de l'IA. Cela signifie qu'il faut établir des règles pour régir le déploiement de l'IA dans des cas d'utilisation spécifiques, et non pas réglementer la technologie elle-même. Le Congrès devrait définir clairement les risques de l'IA et imposer des règles différentes pour des risques différents, les règles les plus strictes étant appliquées aux cas d'utilisation présentant les risques les plus importants pour les personnes et la société ». Big Blue est l'un des pionniers du domaine.
Altman sur les solutions possibles pour établir une réglementation pour l'IA
Le sénateur Dick Durbin (D-Ill) a déclaré que l'industrie de l'IA semblait avoir pour message "arrêtez-moi avant que je n'innove à nouveau", contrairement aux réseaux de médias sociaux, qui n'ont souvent pas voulu être tenus responsables des actions qui se sont produites sur leurs plateformes. En réponse, Altman a souligné que l'IA était une "technologie très nouvelle" et que l'industrie technologique avait besoin d'un "cadre de responsabilité" pour travailler. En outre, interrogé sur la possibilité que l'IA prenne en charge tous nos emplois, le professeur Marcus a déclaré aux sénateurs : « à terme, tous les emplois seront pris en charge par l'IA ».
Cependant, il a ajouté : « mais nous ne sommes pas encore très proches de l'intelligence générale de l'IA ». Le professeur Marcus a déclaré au Sénat qu'il était très préoccupé par la sécurité des personnes lorsqu'il s'agit d'IA, affirmant que les États-Unis sont maintenant confrontés à "la tempête parfaite". L'universitaire a conseillé aux législateurs de tirer les leçons de ce qui s'est passé avec les médias sociaux. Altman a déclaré qu'il ne pensait pas que des exigences lourdes devraient s'appliquer aux entreprises et aux chercheurs dont les modèles sont beaucoup moins avancés que ceux d'OpenAI. Ses propositions peuvent se résumer comme suit :
- créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA, et l'habiliter à retirer ces licences aux entreprises dont les modèles ne sont pas conformes aux normes gouvernementales ;
- créer un ensemble de normes de sécurité pour les modèles d'IA, y compris des évaluations de leurs capacités dangereuses. Par exemple, les modèles devraient passer certains tests de sécurité, notamment pour savoir s'ils peuvent "s'autoreproduire" et "s'exfiltrer dans la nature", c'est-à-dire devenir des voyous, et commencer à agir de leur propre chef ;
- exiger des audits indépendants, réalisés par des experts indépendants, des performances des modèles en fonction de divers paramètres.
Les propositions d'Altman ont fortement été critiquées, de nombreux critiques affirmant qu'elles sont insuffisantes et ne couvrent pas toutes les préoccupations liées à ces systèmes d'IA. Pour être plus clair, parmi les propositions d'Altman, il n'est pas question d'exiger que les modèles d'IA soient transparents en ce qui concerne leurs données d'apprentissage, comme l'a demandé son collègue Gary Marcus, ou d'interdire leur apprentissage sur des œuvres protégées par des droits d'auteur, comme l'a suggéré le sénateur Marsha Blackburn (R-Tenn.). Il s'agit de deux points essentiels qui sont actuellement sujets à des débats intenses dans la communauté.
Certains vont même jusqu'à affirmer que les appels d'Altman à une réglementation de l'IA sont une supercherie pour freiner les nouveaux acteurs du secteur. « Une fois que vous êtes établi dans un nouveau domaine, vous voulez ajouter autant d'obstacles que possible aux autres qui essaient de s'établir », a écrit un critique. Un autre a également écrit : « je travaille dans le domaine du calcul intensif et de la recherche sur l'IA. Les systèmes d'IA connus sont actuellement de très bons algorithmes de recherche et des manipulateurs d'images et de sons. Le message qu'Altman veut faire passer est le suivant : "fermez la porte ! Vous allez laisser entrer toute la racaille !" ».
Pourtant, de nombreux sénateurs semblent désireux de confier l'autorégulation à Altman. Le sénateur John Neely Kennedy (R-La.) a demandé si Altman était lui-même qualifié pour superviser un organisme fédéral de réglementation de l'IA. Altman a hésité, déclarant qu'il aimait son travail actuel, mais il a proposé que son entreprise lui envoie une liste de candidats appropriés. Selon les critiques, l'approche des sénateurs pourrait avoir de graves répercussions sur l'industrie. Lors de son audition, Altman s'est également gardé de mentionner les biais des systèmes d'IA, une chose sur laquelle le professeur Marcus a longuement insisté.
Altman sur la façon dont OpenAI monétise ChatGPT et sur l'avenir de l'IA
Le sénateur Cory Booker a demandé à Altman si ChatGPT afficherait des publicités aux utilisateurs. En réponse, Altman a déclaré que, bien qu'il ne puisse pas l'exclure complètement, il préférait un modèle d'abonnement. OpenAI offre actuellement un abonnement payant à ChatGPT Plus, une version qui est basée sur GPT-4, le dernier modèle de langage du laboratoire d'IA. Dans une question un peu étrange, un autre sénateur a demandé au PDG d'OpenAI s'il gagnait beaucoup d'argent. Altman a répondu qu'il faisait son travail parce qu'il l'aimait, et que son salaire n'était pas assez élevé pour qu'une assurance maladie soit incluse dans sa rémunération.
Le sénateur John Kennedy a répondu : « vraiment ? Vous avez besoin d'un avocat ou d'un agent ». Par la suite, les sénateurs ont interrogé Altman, Montgomery et le professeur Marcus sur la question de savoir si d'autres options plus radicales devraient être envisagées pour prévenir les méfaits de l'IA. Par exemple, le sénateur Cory Booker (D-N.J.) a demandé s'il ne fallait pas arrêter le développement de l'IA jusqu'à ce qu'il soit possible d'établir tous les risques et tous les remèdes. Mais Altman et ses pairs étaient contre cette alternative. Altman refuse l'idée d'un moratoire, mais a confirmé que son entreprise ne formait actuellement aucun modèle d'IA.
La réponse d'Altman à Booker suggère qu'OpenAI a au moins envisag...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.