IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman reconnaît qu'OpenAI ne comprend pas entièrement le fonctionnement du GPT derrière ChatGPT malgré des progrès rapides
Mais estime que ce n'est pas nécessaire pour publier de nouvelles versions

Le , par Stéphane le calme

49PARTAGES

8  0 
Dans une récente interview, le PDG d’OpenAI, Sam Altman, a abordé la question de la sécurité de l’intelligence artificielle (IA) et du potentiel de cette technologie pour l’humanité. Cependant, il n’a pas semblé avoir une réponse satisfaisante à la question fondamentale de la façon dont GPT fonctionne. Altman a admis que l’interprétabilité, c’est-à-dire la compréhension de la manière dont les systèmes d’IA prennent des décisions, reste un défi. Il a comparé GPT au cerveau humain, soulignant que nous ne comprenons pas non plus exactement comment fonctionne notre propre cerveau, mais nous lui faisons confiance pour suivre certaines règles et expliquer pourquoi nous pensons de certaines manières.

Fin mai, OpenAI a déclaré mardi qu'elle avait commencé à former un nouveau modèle phare d'intelligence artificielle qui succéderait à la technologie GPT-4 qui alimente son populaire chatbot en ligne, ChatGPT. Ce nouveau modèle, encore en phase d’entraînement, promet d’être plus puissant, plus précis et plus polyvalent que jamais.

OpenAI vise à faire progresser la technologie de l'intelligence artificielle plus rapidement que ses rivaux, tout en apaisant les critiques qui affirment que cette technologie devient de plus en plus dangereuse, contribuant à diffuser de la désinformation, à remplacer des emplois et même à menacer l'humanité. Les experts ne s'accordent pas sur la date à laquelle les entreprises technologiques atteindront l'intelligence artificielle générale, mais des sociétés comme OpenAI, Google, Meta et Microsoft ont régulièrement augmenté la puissance des technologies d'intelligence artificielle depuis plus d'une décennie, faisant un bond en avant tous les deux ou trois ans environ.

L'entreprise n'a pas explicitement déclaré qu'il s'agissait du GPT-5. Jusqu'à présent, OpenAI a suivi une séquence de dénomination claire pour ses modèles fondamentaux sous la forme de variations numériquement croissantes de GPT. Son dernier modèle fondateur, qui alimente notamment ChatGPT, est GPT-4, de sorte que son prochain modèle phare devrait prendre la forme de GPT-5. On s'attend à ce qu'OpenAI publie une mise à jour majeure sous la forme de GPT-5 dans les mois à venir, en particulier face à la concurrence de plus en plus intense de modèles rivaux tels que le Llama 3 de Meta, le Gemini de Google et le Claude 3 d'Anthropic.


Pas besoin de savoir comment GPT fonctionne pour le proposer au public

Quelques jours après cette annonce, le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.

« Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'IA, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.

« Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».

Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.

« Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.


Alors qu'OpenAI poursuit son déploiement itératif, la sécurité reste une préoccupation majeure

D'autant plus que l'entreprise a récemment dissous son ancienne équipe de sécurité, dirigée par l'ancien scientifique en chef Ilya Sutskever, et a créé une nouvelle équipe de sécurité dirigée par Altman lui-même.

En fait, OpenAI a déclaré avoir créé un nouveau comité chargé d'évaluer les risques posés par la nouvelle technologie. Ce comité sera dirigé conjointement par le PDG et cofondateur Sam Altman, ainsi que par trois membres du conseil d'administration de l'entreprise : le président Bret Taylor, Adam D'Angelo et Nicole Seligman.

Six experts techniques et politiques de l'OpenAI - Aleksander Madry (responsable de la préparation), Lilian Weng (responsable des systèmes de sécurité), John Schulman (responsable de la science de l'alignement), Matt Knight (responsable de la sécurité) et Jakub Pachocki (scientifique en chef) - feront également partie du comité et l'entreprise a déclaré qu'elle « retiendra et consultera d'autres experts en matière de sûreté, de sécurité et de technologie » pour soutenir le travail.

La première tâche du comité consistera à examiner et à développer les processus et les garanties de l'entreprise au cours des 90 prochains jours, après quoi il fera part de ses recommandations à l'ensemble du conseil d'administration.

Altman a réitéré lors du sommet que la formation d'un nouveau comité de sûreté et de sécurité a pour but d'aider OpenAI à se préparer pour le prochain modèle. « Si nous avons raison de dire que la trajectoire d'amélioration va rester abrupte, il est primordial de déterminer les structures et les politiques que les entreprises et les pays devraient mettre en place dans une perspective à long terme, a déclaré Altman.

« Il me semble que plus nous pouvons comprendre ce qui se passe dans ces modèles, mieux c'est », a-t-il ajouté, tout en admettant qu'OpenAI n'en est pas encore là. « Je pense que cela peut faire partie de ce paquet cohérent sur la manière dont nous pouvons faire et vérifier les allégations de sécurité.

Une perspective remise en cause par deux anciennes membres du conseil d'administration d'OpenAI

Peut-on s'attendre à ce que les entreprises privées qui repoussent les frontières d'une nouvelle technologie révolutionnaire agissent dans l'intérêt de leurs actionnaires et du reste du monde ? Fin mai, Helen Toner et Tasha McCauley, anciennes membres du conseil d'administration d'OpenAI, ont publié un article d'opinion commun dans The Economist sur la décision d'OpenAI :

« Lorsque nous avons été recrutées au conseil d'administration d'OpenAI - Tasha en 2018 et Helen en 2021 - nous étions prudemment optimistes et pensions que l'approche innovante de l'entreprise en matière d'autogouvernance pourrait offrir un modèle de développement responsable de l'IA. Mais notre expérience nous a appris que l'autogestion ne peut pas résister de manière fiable à la pression des incitations au profit. Compte tenu de l'énorme potentiel d'impact positif et négatif de l'IA, il n'est pas suffisant de supposer que ces incitations seront toujours alignées sur le bien public. Pour que l'essor de l'IA profite à tous, les gouvernements doivent commencer dès maintenant à mettre en place des cadres réglementaires efficaces.

« Si une entreprise avait pu s'autogérer avec succès tout en développant en toute sécurité et de manière éthique des systèmes d'IA avancés, c'était bien OpenAI. L'organisation a été créée à l'origine en tant qu'organisation à but non lucratif avec une mission louable : veiller à ce que l'IAG, ou intelligence artificielle générale - les systèmes d'IA qui sont généralement plus intelligents que les humains - profite à "l'ensemble de l'humanité". Par la suite, une filiale à but lucratif a été créée pour réunir les capitaux nécessaires, mais l'association à but non lucratif est restée aux commandes. L'objectif déclaré de cette structure inhabituelle était de protéger la capacité de l'entreprise à s'en tenir à sa mission initiale, et le conseil d'administration avait pour mandat de faire respecter cette mission. C'était sans précédent, mais cela valait la peine d'essayer. Malheureusement, cela n'a pas fonctionné.

« En novembre dernier, dans un effort pour sauver cette structure d'autorégulation, le conseil d'administration de l'OpenAI a licencié son PDG, Sam Altman. La capacité du conseil d'administration à défendre la mission de l'entreprise était devenue de plus en plus limitée en raison des comportements de longue date de M. Altman, qui, entre autres choses, ont, selon nous, sapé la surveillance du conseil d'administration sur les décisions clés et les protocoles de sécurité internes. Plusieurs hauts responsables ont fait part en privé de leurs graves préoccupations au conseil d'administration, affirmant qu'ils pensaient que M. Altman cultivait "une culture toxique du mensonge" et se livrait à "un comportement [qui] peut être qualifié d'abus psychologique". Selon OpenAI, une enquête interne a révélé que le conseil d'administration avait
"agi dans le cadre de son large pouvoir discrétionnaire" pour licencier M. Altman, mais a également conclu que sa conduite n'avait pas "justifié son renvoi". OpenAI a fourni peu de détails justifiant cette conclusion et n'a pas mis le rapport d'enquête à la disposition des employés, de la presse ou du public.

« La question de savoir si un tel comportement devrait généralement "justifier la révocation" d'un PDG est un sujet à débattre ultérieurement. Mais dans le cas spécifique d'OpenAI, étant donné le devoir du conseil d'administration de fournir un contrôle indépendant et de protéger la mission d'intérêt public de l'entreprise, nous soutenons l'action du conseil d'administration de licencier M. Altman. Nous pensons également que les développements survenus depuis son retour dans l'entreprise - y compris sa réintégration au conseil d'administration et le départ de talents seniors axés sur la sécurité - n'augurent rien de bon pour l'expérience d'OpenAI en matière d'autogouvernance ».

Source : interview (vidéo dans le texte)

Et vous ?

Quelle est votre opinion sur l’opacité des modèles d’IA comme GPT ? Pensez-vous que les entreprises devraient être plus transparentes quant à la manière dont ces systèmes fonctionnent ?
Comment percevez-vous le rôle de l’IA dans notre société ? Est-ce une opportunité pour l’innovation ou une menace pour l’emploi et la vie privée ?
Croyez-vous que nous devrions accorder plus d’attention à la sécurité des systèmes d’IA ? Si oui, quelles mesures devraient être prises pour garantir leur utilisation responsable ?
Pensez-vous que l’IA pourrait un jour atteindre un niveau d’intelligence comparable à celui de l’homme ? Quelles seraient les implications d’une telle avancée ?
Quelles sont vos préoccupations concernant l’avenir de l’IA ? Comment pouvons-nous maximiser les avantages tout en minimisant les risques ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2024 à 12:03
Citation Envoyé par Jules34 Voir le message
C'est hallucinant non ?P
Ben, non.

Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire
5  0 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 16/10/2024 à 15:09
Tant que les réponses ne seront pas plus fiables qu’actuellement, pourquoi payer ?
3  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 9:50
C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

Je caricature mais c'est un peu flippant quand même.

Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 4:06
Citation Envoyé par kain_tn Voir le message
Il existe encore, ce type là? Je croyais que la bulle des IA génératives était en train d'éclater et que les investisseurs commençaient enfin à douter et à retirer leurs billes... Oh wait! C'est pour ça qu'il continue de raconter n'importe quoi
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.

BàT et Peace & Love
2  0 
Avatar de d_d_v
Membre éprouvé https://www.developpez.com
Le 17/10/2024 à 10:14
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
2  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 08/06/2024 à 14:30
Cédric Villani (https://www.thinkerview.com/justine-...ouveau-maitre/) dit que c'est un des cas de l'histoire où on arrive de manière imprévue à de très bons résultats empiriquement alors même que la théorie est en retard sur la pratique.
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 09/09/2024 à 9:12
Citation Envoyé par OuftiBoy Voir le message
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.
Oui mais cette version est quand même 100fois plus puissante que celle d'avant, il faut à la fois faire pas trop - pour réussir à perpétrer la révolution - et promettre un gros chiffre pour que ça reste une révolution.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 15:55
Citation Envoyé par totozor Voir le message
Oui mais cette version est quand même 100fois plus puissante que celle d'avant, il faut à la fois faire pas trop - pour réussir à perpétrer la révolution - et promettre un gros chiffre pour que ça reste une révolution.
Et je le vois mal dire que la suivante sera moins puissante que celle d'avant. Ce mec c'est un vendeur, et on vend de l'IA exactement de la même manière qu'une poudre à laver, et le mec en blouse blanche pour faire sérieux et clinique, qui te répête pour la milièmme foisque suite à une étude auprès d'utilisateurs, on clairement remarquer que grâce à machin-truc-bidule, la lessive Y lave mieux de 50% à basse température. Faut pas demander comme ça lavait mal avant

BàT et peace and love.
1  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 15/09/2024 à 20:35
Citation Envoyé par shenron666 Voir le message
Désolé, je suis mauvais en maths, 100 fois de la merde ça fait combien ?
Faut demander à ChatGépéto.

Faut qu'il fasse attention Mr Altman, si il continue il va brasser plus de vent que le nuage magique de Sangoku.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 17/10/2024 à 13:24
Citation Envoyé par d_d_v Voir le message
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
Le problème c'est que dans Intelligence Artificielle, seul le second mot est exact, l'autre n'est qu'un fantasme
1  0