
Fin mai, OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.
OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.
L'entreprise n'a pas explicitement déclaré qu'il s'agissait du GPT-5. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.
Pas besoin de savoir comment GPT fonctionne pour le proposer au public
Quelques jours après cette annonce, le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.
« Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'IA, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.
« Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».
Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.
« Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.
Alors qu'OpenAI poursuit son déploiement itératif, la sécurité reste une préoccupation majeure
D'autant plus que l'entreprise a récemment dissous son ancienne équipe de sécurité, dirigée par l'ancien scientifique en chef Ilya Sutskever, et a créé une nouvelle équipe de sécurité dirigée par Altman lui-même.
En fait, OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie. Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.
Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.
La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.
Altman a réitéré lors du sommet que la formation d'un nouveau comité de sûreté et de sécurité a pour but d'aider OpenAI à se préparer pour le prochain modèle. « Si nous avons raison de dire que la trajectoire d'amélioration va rester abrupte, il est primordial de déterminer les structures et les politiques que les entreprises et les pays devraient mettre en place dans une perspective à long terme, a déclaré Altman.
« Il me semble que plus nous pouvons comprendre ce qui se passe dans ces modèles, mieux c'est », a-t-il ajouté, tout en admettant qu'OpenAI n'en est pas encore là. « Je pense que cela peut faire partie de ce paquet cohérent sur la manière dont nous pouvons faire et vérifier les allégations de sécurité.
Une perspective remise en cause par deux anciennes membres du conseil d'administration d'OpenAI
Peut-on s'attendre à ce que les entreprises privées qui repoussent les frontières d'une nouvelle technologie révolutionnaire agissent dans l'intérêt de leurs actionnaires et du reste du monde ? Fin mai, Helen Toner et Tasha McCauley, anciennes membres du conseil d'administration d'OpenAI, ont publié un article d'opinion commun dans The Economist sur la décision d'OpenAI :
« Lorsque nous avons été recrutées au conseil d'administration d'OpenAI - Tasha en 2018 et Helen en 2021 - nous étions prudemment optimistes et pensions que l'approche innovante de l'entreprise en matière d'autogouvernance pourrait offrir un modèle de développement responsable de l'IA. Mais notre expérience nous a appris que l'autogestion ne peut pas résister de manière fiable à la pression des incitations au profit. Compte tenu de l'énorme potentiel d'impact positif et négatif de l'IA, il n'est pas suffisant de supposer que ces incitations seront toujours alignées sur le bien public. Pour que l'essor de l'IA profite à tous, les gouvernements doivent commencer dès maintenant à mettre en place des cadres réglementaires efficaces.
« Si une entreprise avait pu s'autogérer avec succès tout en développant en toute sécurité et de mani...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.