IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman reconnaît qu'OpenAI ne comprend pas entièrement le fonctionnement du GPT derrière ChatGPT malgré des progrès rapides
Mais estime que ce n'est pas nécessaire pour publier de nouvelles versions

Le , par Stéphane le calme

37PARTAGES

7  0 
Dans une récente interview, le PDG d’OpenAI, Sam Altman, a abordé la question de la sécurité de l’intelligence artificielle (IA) et du potentiel de cette technologie pour l’humanité. Cependant, il n’a pas semblé avoir une réponse satisfaisante à la question fondamentale de la façon dont GPT fonctionne. Altman a admis que l’interprétabilité, c’est-à-dire la compréhension de la manière dont les systèmes d’IA prennent des décisions, reste un défi. Il a comparé GPT au cerveau humain, soulignant que nous ne comprenons pas non plus exactement comment fonctionne notre propre cerveau, mais nous lui faisons confiance pour suivre certaines règles et expliquer pourquoi nous pensons de certaines manières.

Fin mai, OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.

OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.

L'entreprise n'a pas explicitement déclaré qu'il s'agissait du GPT-5. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.


Pas besoin de savoir comment GPT fonctionne pour le proposer au public

Quelques jours après cette annonce, le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.

« Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'IA, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.

« Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».

Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.

« Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.


Alors qu'OpenAI poursuit son déploiement itératif, la sécurité reste une préoccupation majeure

D'autant plus que l'entreprise a récemment dissous son ancienne équipe de sécurité, dirigée par l'ancien scientifique en chef Ilya Sutskever, et a créé une nouvelle équipe de sécurité dirigée par Altman lui-même.

En fait, OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie. Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.

Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.

La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.

Altman a réitéré lors du sommet que la formation d'un nouveau comité de sûreté et de sécurité a pour but d'aider OpenAI à se préparer pour le prochain modèle. « Si nous avons raison de dire que la trajectoire d'amélioration va rester abrupte, il est primordial de déterminer les structures et les politiques que les entreprises et les pays devraient mettre en place dans une perspective à long terme, a déclaré Altman.

« Il me semble que plus nous pouvons comprendre ce qui se passe dans ces modèles, mieux c'est », a-t-il ajouté, tout en admettant qu'OpenAI n'en est pas encore là. « Je pense que cela peut faire partie de ce paquet cohérent sur la manière dont nous pouvons faire et vérifier les allégations de sécurité.

Une perspective remise en cause par deux anciennes membres du conseil d'administration d'OpenAI

Peut-on s'attendre à ce que les entreprises privées qui repoussent les frontières d'une nouvelle technologie révolutionnaire agissent dans l'intérêt de leurs actionnaires et du reste du monde ? Fin mai, Helen Toner et Tasha McCauley, anciennes membres du conseil d'administration d'OpenAI, ont publié un article d'opinion commun dans The Economist sur la décision d'OpenAI :

« Lorsque nous avons été recrutées au conseil d'administration d'OpenAI - Tasha en 2018 et Helen en 2021 - nous étions prudemment optimistes et pensions que l'approche innovante de l'entreprise en matière d'autogouvernance pourrait offrir un modèle de développement responsable de l'IA. Mais notre expérience nous a appris que l'autogestion ne peut pas résister de manière fiable à la pression des incitations au profit. Compte tenu de l'énorme potentiel d'impact positif et négatif de l'IA, il n'est pas suffisant de supposer que ces incitations seront toujours alignées sur le bien public. Pour que l'essor de l'IA profite à tous, les gouvernements doivent commencer dès maintenant à mettre en place des cadres réglementaires efficaces.

« Si une entreprise avait pu s'autogérer avec succès tout en développant en toute sécurité et de manière éthique des systèmes d'IA avancés, c'était bien OpenAI. L'organisation a été créée à l'origine en tant qu'organisation à but non lucratif avec une mission louable : veiller à ce que l'IAG, ou intelligence artificielle générale - les systèmes d'IA qui sont généralement plus intelligents que les humains - profite à "l'ensemble de l'humanité". Par la suite, une filiale à but lucratif a été créée pour réunir les capitaux nécessaires, mais l'association à but non lucratif est restée aux commandes. L'objectif déclaré de cette structure inhabituelle était de protéger la capacité de l'entreprise à s'en tenir à sa mission initiale, et le conseil d'administration avait pour mandat de faire respecter cette mission. C'était sans précédent, mais cela valait la peine d'essayer. Malheureusement, cela n'a pas fonctionné.

« En novembre dernier, dans un effort pour sauver cette structure d'autorégulation, le conseil d'administration de l'OpenAI a licencié son PDG, Sam Altman. La capacité du conseil d'administration à défendre la mission de l'entreprise était devenue de plus en plus limitée en raison des comportements de longue date de M. Altman, qui, entre autres choses, ont, selon nous, sapé la surveillance du conseil d'administration sur les décisions clés et les protocoles de sécurité internes. Plusieurs hauts responsables ont fait part en privé de leurs graves préoccupations au conseil d'administration, affirmant qu'ils pensaient que M. Altman cultivait "une culture toxique du mensonge" et se livrait à "un comportement [qui] peut être qualifié d'abus psychologique". Selon OpenAI, une enquête interne a révélé que le conseil d'administration avait
"agi dans le cadre de son large pouvoir discrétionnaire" pour licencier M. Altman, mais a également conclu que sa conduite n'avait pas "justifié son renvoi". OpenAI a fourni peu de détails justifiant cette conclusion et n'a pas mis le rapport d'enquête à la disposition des employés, de la presse ou du public.

« La question de savoir si un tel comportement devrait généralement "justifier la révocation" d'un PDG est un sujet à débattre ultérieurement. Mais dans le cas spécifique d'OpenAI, étant donné le devoir du conseil d'administration de fournir un contrôle indépendant et de protéger la mission d'intérêt public de l'entreprise, nous soutenons l'action du conseil d'administration de licencier M. Altman. Nous pensons également que les développements survenus depuis son retour dans l'entreprise - y compris sa réintégration au conseil d'administration et le départ de talents seniors axés sur la sécurité - n'augurent rien de bon pour l'expérience d'OpenAI en matière d'autogouvernance ».

Source : interview (vidéo dans le texte)

Et vous ?

Quelle est votre opinion sur l’opacité des modèles d’IA comme GPT ? Pensez-vous que les entreprises devraient être plus transparentes quant à la manière dont ces systèmes fonctionnent ?
Comment percevez-vous le rôle de l’IA dans notre société ? Est-ce une opportunité pour l’innovation ou une menace pour l’emploi et la vie privée ?
Croyez-vous que nous devrions accorder plus d’attention à la sécurité des systèmes d’IA ? Si oui, quelles mesures devraient être prises pour garantir leur utilisation responsable ?
Pensez-vous que l’IA pourrait un jour atteindre un niveau d’intelligence comparable à celui de l’homme ? Quelles seraient les implications d’une telle avancée ?
Quelles sont vos préoccupations concernant l’avenir de l’IA ? Comment pouvons-nous maximiser les avantages tout en minimisant les risques ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2024 à 12:03
Citation Envoyé par Jules34 Voir le message
C'est hallucinant non ?P
Ben, non.

Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire
5  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 03/06/2024 à 9:50
C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

Je caricature mais c'est un peu flippant quand même.

Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros
1  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 08/06/2024 à 14:30
Cédric Villani (https://www.thinkerview.com/justine-...ouveau-maitre/) dit que c'est un des cas de l'histoire où on arrive de manière imprévue à de très bons résultats empiriquement alors même que la théorie est en retard sur la pratique.
0  0 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 05/06/2024 à 17:27
Ça ne m'étonne même pas !

Vous avez déjà amené une Renault en panne dans un garage Renault ?
Eux aussi ne comprennent pas comment ça marche une Renault !!!
0  1