ChatGPT est le produit d'IA générative le plus en vogue, les entreprises s'efforçant de tirer parti de la nouvelle technologie d'IA à la mode. Microsoft a un accès direct au produit OpenAI grâce à un investissement majeur, et l'entreprise a inclus la technologie dans divers services qui lui sont propres. Google développe Bard, une alternative à ChatGPT qui sera disponible dans son outil de recherche. Pendant ce temps, OpenAI n'a cessé d'améliorer le chatbot ChatGPT et a récemment publié la puissante mise à jour GPT-4.
D’après Siqi Chen, PDG de la startup Runway financée par a16z et investisseur dans l'IA, GPT-4 devrait être remplacé par une nouvelle version GPT-5 dès la fin de l’année 2023 : « Il m'a été rapporté que GPT-5 devrait terminer sa formation en décembre et qu'OpenAI s'attend à ce qu'il atteigne l'IAG. Ce qui signifie que nous débattrons tous vivement pour savoir s'il atteint réellement l'IAG. Ce qui signifie que ce sera le cas ».
Elon Musk et des experts demandent à OpenAI d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4i have been told that gpt5 is scheduled to complete training this december and that OpenAI expects it to achieve agi.
— Siqi Chen (@blader) March 27, 2023
which means we will all hotly debate as to whether it actually achieves agi.
which means it will.
Dans une lettre ouverte publiée en mars, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité.
La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants. « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.
La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.
Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.
Une doléance entendue ?
S'exprimant lors d'un événement au MIT, Altman a été interrogé sur cette lettre ouverte diffusée dans le monde de la technologie qui demandait que des laboratoires comme OpenAI suspendent le développement de systèmes d'IA « plus puissants que GPT-4 ». La lettre a mis en évidence des préoccupations concernant la sécurité des futurs systèmes, mais a été critiquée par de nombreux acteurs de l'industrie, y compris un certain nombre de signataires. Les experts ne sont pas d'accord sur la nature de la menace posée par l'IA (est-elle existentielle ou plus banale ?) ainsi que sur la manière dont l'industrie pourrait s'y prendre pour « suspendre » le développement en premier lieu.
Au MIT, Sam Altman a expliqué qu’il approuve certaines parties de la lettre ouverte. Il n'a pas manqué de rappeler qu’OpenAI a observé une pause de six mois après l’entraînement de GPT-4. Un délai au cours duquel l’entreprise dit avoir cherché à rendre l’outil plus sûr, pour limiter des comportements inadéquats, bien que dans la pratique ils existent encore. Rappelons à ce titre l'enquête conduite News Guard, qui étudie la fiabilité et la véracité des contenus diffusés en ligne. GPT-4 « est en fait plus susceptible de générer des informations erronées », avance News Guard, mais en plus l’outil se montre « plus convaincant dans sa capacité à le faire ».
Sam Altman a aussi affiché son accord avec l’idée de rehausser les exigences en matière de sûreté en fonction des progrès de ces outils. « Nous faisons d'autres choses en plus du GPT-4 qui, je pense, à toutes sortes de problèmes de sécurité qu'il est important de résoudre et qui ont été totalement ignorés », a-t-il reconnu.
Cependant, il a affirmé que la lettre « manquait la plupart des nuances techniques sur l'endroit où nous avons besoin de la pause » et a noté qu'une version antérieure affirmait qu'OpenAI entraînait actuellement GPT-5. « Nous ne le faisons pas et ne le ferons pas avant un certain temps », a déclaré Altman. « Donc, dans ce sens, c'était un peu idiot ».
Ci-dessous, le passage vidéo sur le sujet qui nous intéresse.
Pas un développement de GPT-5 dans l'immédiat, oui, mais ?
Les commentaires d'Altman sont intéressants, mais pas nécessairement à cause de ce qu'ils révèlent sur les plans futurs d'OpenAI. Au lieu de cela, ils mettent en évidence un défi important dans le débat sur la sécurité de l'IA : la difficulté de mesurer et de suivre les progrès. Altman peut dire qu'OpenAI ne forme pas actuellement GPT-5, mais ce n'est pas une déclaration particulièrement significative.
Une partie de la confusion peut être attribuée aux numéros de version. Plus précisément, l'idée selon laquelle les mises à jour techniques numérotées reflètent des améliorations définitives et linéaires des capacités. C'est une idée fausse qui a été nourrie dans le monde de la technologie grand public pendant des années, où les numéros attribués aux nouveaux téléphones ou systèmes d'exploitation aspirent à la rigueur du contrôle de version mais ne sont en réalité que des outils de marketing. Il en va de même pour le hardware. « L'iPhone 50 est meilleur que l'iPhone 49 » va dans la logique du système « le nombre est plus grand ipso facto, le téléphone est meilleur ».
En raison du chevauchement entre les mondes de la technologie grand public et de l'intelligence artificielle, cette même logique est maintenant souvent appliquée à des systèmes comme les modèles de langage d'OpenAI.
Il ne s'agit pas ici de rejeter les craintes concernant la sécurité de l'IA ou d'ignorer le fait que ces systèmes s'améliorent rapidement et ne sont pas entièrement sous notre contrôle. Mais il s'agit de rappeler qu'il y a de bons et de mauvais arguments, et ce n'est pas parce que quelque chose (un téléphone ou un système) a un numéro que nous en avons la pleine mesure. Au lieu de cela, l'accent dans ces discussions gagnerait à être mis sur les capacités*: sur les démonstrations de ce que ces systèmes peuvent et ne peuvent pas faire et sur les prévisions de la façon dont cela peut changer au fil du temps.
C'est pourquoi la confirmation d'Altman qu'OpenAI ne développe pas actuellement GPT-5 ne sera d'aucune consolation pour les personnes préoccupées par la sécurité de l'IA. L'entreprise continue d'étendre le potentiel de GPT-4 (en le connectant à Internet, par exemple), et d'autres dans l'industrie construisent des outils tout aussi ambitieux, laissant les systèmes d'IA agir au nom des utilisateurs. Il y a aussi toutes sortes de travaux qui sont sans aucun doute en cours pour optimiser GPT-4, et OpenAI peut publier GPT-4.5 (comme il l'a fait en publiant GPT-3.5) en premier (une autre façon dont les numéros de version peuvent induire en erreur).
La prudence de Sam Altman
La prudence de Sam Altman à l’égard de l’IA n’est pas nouvelle, bien qu’elle puisse surprendre compte tenu de sa place dans le secteur de l’IA. Il exprime des craintes régulières à l’égard la technologie que son entreprise met au point, mais aussi la concurrence, entre autres pour les effets de l’IA sur la désinformation et l’économie.
« Je pense que c'est bizarre quand les gens trouvent étrange que j'avoue avoir un peu peur », a déclaré Sam Altman au podcasteur Lex Fridman . « Je pense que ce serait fou de ne pas avoir un peu peur et j'ai de l'empathie pour les gens qui ont très peur ».
Dans une autre interview, accordée cette fois à ABC News, il a indiqué avoir des doutes sur ChatGPT. Altman a mentionné quelques domaines clés dans lesquels l'IA pourrait s'avérer problématique. Il a également fait part de ses craintes de voir des régimes autoritaires qui finissent par créer leur propre IA et s'empressent de l'utiliser pour diffuser de la désinformation et de fausses nouvelles à leurs propres fins néfastes.
Altman s'intéresse également à l'élection présidentielle américaine de 2024, estimant que ChatGPT et d'autres formes d'IA pourraient avoir de nombreuses répercussions sur l'élection. Il reste à voir si l'IA jouera un rôle négatif ou non.
Cette inquiétude peut expliquer pourquoi OpenAI n’a pas, à en croire Sam Altman, lancé les travaux sur GPT-5. Il reste à voir si cette position sera capable de tenir dans le temps et si les promesses de prudence formulées lors de cet échange au MIT perdureront, comme la nécessité d’évaluer l’impact de son déploiement.
Source : vidéo dans le texte
Et vous ?
Quelle lecture faites-vous des déclarations de Sam Altman ?
Les craintes du PDG d'OpenAI vous semblent-elles justifiées ? Dans quelle mesure ?