IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG d'OpenAI confirme que l'entreprise ne travaille pas actuellement sur GPT-5 :
« Nous ne le faisons pas et ne le ferons pas avant un certain temps »

Le , par Stéphane le calme

7PARTAGES

8  0 
Le mois dernier, OpenAI a officialisé l'arrivée de GPT-4, la nouvelle version du modèle de langage utilisé pour faire fonctionner ChatGPT. Siqi Chen, l'un des investisseurs d'OpenAI, a indiqué avoir des sources qui lui ont confirmé que GPT-5 devait arriver fin 2023. Mais Sam Altman, PDG et cofondateur d'OpenAI, a mis fin aux spéculations : dans une discussion sur les menaces posées par les systèmes d'IA, il a confirmé que la société ne forme pas actuellement GPT-5, le successeur présumé de son modèle de langage d'IA GPT-4, publié en mars.

ChatGPT est le produit d'IA générative le plus en vogue, les entreprises s'efforçant de tirer parti de la nouvelle technologie d'IA à la mode. Microsoft a un accès direct au produit OpenAI grâce à un investissement majeur, et l'entreprise a inclus la technologie dans divers services qui lui sont propres. Google développe Bard, une alternative à ChatGPT qui sera disponible dans son outil de recherche. Pendant ce temps, OpenAI n'a cessé d'améliorer le chatbot ChatGPT et a récemment publié la puissante mise à jour GPT-4.

D’après Siqi Chen, PDG de la startup Runway financée par a16z et investisseur dans l'IA, GPT-4 devrait être remplacé par une nouvelle version GPT-5 dès la fin de l’année 2023 : « Il m'a été rapporté que GPT-5 devrait terminer sa formation en décembre et qu'OpenAI s'attend à ce qu'il atteigne l'IAG. Ce qui signifie que nous débattrons tous vivement pour savoir s'il atteint réellement l'IAG. Ce qui signifie que ce sera le cas ».

Elon Musk et des experts demandent à OpenAI d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4

Dans une lettre ouverte publiée en mars, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité.

La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants. « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.

Une doléance entendue ?

S'exprimant lors d'un événement au MIT, Altman a été interrogé sur cette lettre ouverte diffusée dans le monde de la technologie qui demandait que des laboratoires comme OpenAI suspendent le développement de systèmes d'IA « plus puissants que GPT-4 ». La lettre a mis en évidence des préoccupations concernant la sécurité des futurs systèmes, mais a été critiquée par de nombreux acteurs de l'industrie, y compris un certain nombre de signataires. Les experts ne sont pas d'accord sur la nature de la menace posée par l'IA (est-elle existentielle ou plus banale ?) ainsi que sur la manière dont l'industrie pourrait s'y prendre pour « suspendre » le développement en premier lieu.

Au MIT, Sam Altman a expliqué qu’il approuve certaines parties de la lettre ouverte. Il n'a pas manqué de rappeler qu’OpenAI a observé une pause de six mois après l’entraînement de GPT-4. Un délai au cours duquel l’entreprise dit avoir cherché à rendre l’outil plus sûr, pour limiter des comportements inadéquats, bien que dans la pratique ils existent encore. Rappelons à ce titre l'enquête conduite News Guard, qui étudie la fiabilité et la véracité des contenus diffusés en ligne. GPT-4 « est en fait plus susceptible de générer des informations erronées », avance News Guard, mais en plus l’outil se montre « plus convaincant dans sa capacité à le faire ».

Sam Altman a aussi affiché son accord avec l’idée de rehausser les exigences en matière de sûreté en fonction des progrès de ces outils. « Nous faisons d'autres choses en plus du GPT-4 qui, je pense, à toutes sortes de problèmes de sécurité qu'il est important de résoudre et qui ont été totalement ignorés », a-t-il reconnu.

Cependant, il a affirmé que la lettre « manquait la plupart des nuances techniques sur l'endroit où nous avons besoin de la pause » et a noté qu'une version antérieure affirmait qu'OpenAI entraînait actuellement GPT-5. « Nous ne le faisons pas et ne le ferons pas avant un certain temps », a déclaré Altman. « Donc, dans ce sens, c'était un peu idiot ».

Ci-dessous, le passage vidéo sur le sujet qui nous intéresse.


Pas un développement de GPT-5 dans l'immédiat, oui, mais ?

Les commentaires d'Altman sont intéressants, mais pas nécessairement à cause de ce qu'ils révèlent sur les plans futurs d'OpenAI. Au lieu de cela, ils mettent en évidence un défi important dans le débat sur la sécurité de l'IA : la difficulté de mesurer et de suivre les progrès. Altman peut dire qu'OpenAI ne forme pas actuellement GPT-5, mais ce n'est pas une déclaration particulièrement significative.

Une partie de la confusion peut être attribuée aux numéros de version. Plus précisément, l'idée selon laquelle les mises à jour techniques numérotées reflètent des améliorations définitives et linéaires des capacités. C'est une idée fausse qui a été nourrie dans le monde de la technologie grand public pendant des années, où les numéros attribués aux nouveaux téléphones ou systèmes d'exploitation aspirent à la rigueur du contrôle de version mais ne sont en réalité que des outils de marketing. Il en va de même pour le hardware. « L'iPhone 50 est meilleur que l'iPhone 49 » va dans la logique du système « le nombre est plus grand ipso facto, le téléphone est meilleur ».

En raison du chevauchement entre les mondes de la technologie grand public et de l'intelligence artificielle, cette même logique est maintenant souvent appliquée à des systèmes comme les modèles de langage d'OpenAI.

Il ne s'agit pas ici de rejeter les craintes concernant la sécurité de l'IA ou d'ignorer le fait que ces systèmes s'améliorent rapidement et ne sont pas entièrement sous notre contrôle. Mais il s'agit de rappeler qu'il y a de bons et de mauvais arguments, et ce n'est pas parce que quelque chose (un téléphone ou un système) a un numéro que nous en avons la pleine mesure. Au lieu de cela, l'accent dans ces discussions gagnerait à être mis sur les capacités*: sur les démonstrations de ce que ces systèmes peuvent et ne peuvent pas faire et sur les prévisions de la façon dont cela peut changer au fil du temps.

C'est pourquoi la confirmation d'Altman qu'OpenAI ne développe pas actuellement GPT-5 ne sera d'aucune consolation pour les personnes préoccupées par la sécurité de l'IA. L'entreprise continue d'étendre le potentiel de GPT-4 (en le connectant à Internet, par exemple), et d'autres dans l'industrie construisent des outils tout aussi ambitieux, laissant les systèmes d'IA agir au nom des utilisateurs. Il y a aussi toutes sortes de travaux qui sont sans aucun doute en cours pour optimiser GPT-4, et OpenAI peut publier GPT-4.5 (comme il l'a fait en publiant GPT-3.5) en premier (une autre façon dont les numéros de version peuvent induire en erreur).


La prudence de Sam Altman

La prudence de Sam Altman à l’égard de l’IA n’est pas nouvelle, bien qu’elle puisse surprendre compte tenu de sa place dans le secteur de l’IA. Il exprime des craintes régulières à l’égard la technologie que son entreprise met au point, mais aussi la concurrence, entre autres pour les effets de l’IA sur la désinformation et l’économie.

« Je pense que c'est bizarre quand les gens trouvent étrange que j'avoue avoir un peu peur », a déclaré Sam Altman au podcasteur Lex Fridman . « Je pense que ce serait fou de ne pas avoir un peu peur et j'ai de l'empathie pour les gens qui ont très peur ».


Dans une autre interview, accordée cette fois à ABC News, il a indiqué avoir des doutes sur ChatGPT. Altman a mentionné quelques domaines clés dans lesquels l'IA pourrait s'avérer problématique. Il a également fait part de ses craintes de voir des régimes autoritaires qui finissent par créer leur propre IA et s'empressent de l'utiliser pour diffuser de la désinformation et de fausses nouvelles à leurs propres fins néfastes.

Altman s'intéresse également à l'élection présidentielle américaine de 2024, estimant que ChatGPT et d'autres formes d'IA pourraient avoir de nombreuses répercussions sur l'élection. Il reste à voir si l'IA jouera un rôle négatif ou non.


Cette inquiétude peut expliquer pourquoi OpenAI n’a pas, à en croire Sam Altman, lancé les travaux sur GPT-5. Il reste à voir si cette position sera capable de tenir dans le temps et si les promesses de prudence formulées lors de cet échange au MIT perdureront, comme la nécessité d’évaluer l’impact de son déploiement.

Source : vidéo dans le texte

Et vous ?

Quelle lecture faites-vous des déclarations de Sam Altman ?
Les craintes du PDG d'OpenAI vous semblent-elles justifiées ? Dans quelle mesure ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2024 à 12:03
Citation Envoyé par Jules34 Voir le message
C'est hallucinant non ?P
Ben, non.

Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire
5  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 18/11/2023 à 11:32
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
5  1 
Avatar de nefelpitto
Membre du Club https://www.developpez.com
Le 19/11/2023 à 6:50
Citation Envoyé par Anselme45 Voir le message
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!") reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
Faut arreter avec le délire du vilain capitalisme
Le défenestrage de Sam Altman a été orchestré par Ilya Sutskever, un autre co-fondateur, qui lui est scientifique en chef de l'entreprise. En gros, le Technicien, celui qui comprend vraiment le produit, a viré le Commercial. Il me semble que l'année dernière des employés sous couvert d'anonymat avaient déja critiqué Altman pour n'avoir qu'une compréhension superficielle des LLMs. Ce n'est finalement pas tres different de ce qu'avait fait John Carmack a John Romero. Franchement perso je préfère ca que le contraire.
4  1 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 16/10/2024 à 15:09
Tant que les réponses ne seront pas plus fiables qu’actuellement, pourquoi payer ?
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 9:50
C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

Je caricature mais c'est un peu flippant quand même.

Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 4:06
Citation Envoyé par kain_tn Voir le message
Il existe encore, ce type là? Je croyais que la bulle des IA génératives était en train d'éclater et que les investisseurs commençaient enfin à douter et à retirer leurs billes... Oh wait! C'est pour ça qu'il continue de raconter n'importe quoi
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.

BàT et Peace & Love
2  0 
Avatar de d_d_v
Membre éprouvé https://www.developpez.com
Le 17/10/2024 à 10:14
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 16/11/2023 à 0:23
Je verrais plutôt cette question:

Que pensez-vous des communications à outrance de OpenIA, ces temps?
Je pense que toutes ces déclarations de Altman et la diarrhée d'articles qui s'en suit un peu partout dans les médias sert uniquement à demander plus d'argent aux actionnaires.
2  1