IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les prédictions sur les futurs progrès en IA par Daniel Kokotajlo, qui a quitté OpenAI
Après avoir perdu confiance dans la capacité de Sam Altman de gérer l'AGI de manière responsable

Le , par Jade Emy

26PARTAGES

5  0 
Daniel Kokotajlo, ancien employé d'OpenAI, partage son opinion personnelle sur l'Intelligence artificielle générale (AGI) et ses prédictions sur l'avenir de l'IA.

Daniel Kokotajlo était doctorant en philosophie, et a travaillé à AI Impacts, puis au Center on Long-Term Risk, puis à OpenAI. Selon ces dires, il a quitté OpenAI parce qu'il a perdu confiance dans le comportement responsable de l'entreprise sur l'AGI. Il partage son opinion personnel sur l'Intelligence artificielle générale (AGI). L'AGI est un type d'intelligence artificielle (IA) qui égale ou dépasse les capacités humaines dans un large éventail de tâches cognitives, contrairement à l'IA restreinte, conçue pour des tâches spécifiques.

Pour rappel, la création de l'AGI est l'un des principaux objectifs de la recherche sur l'IA et d'entreprises telles que OpenAI et Meta. Son calendrier de réalisation fait l'objet d'un débat permanent entre les chercheurs et les experts. En 2023, certains affirment que l'AGI sera possible dans quelques années ou décennies, d'autres maintiennent qu'il faudra un siècle ou plus, et une minorité pense qu'elle ne sera peut-être jamais atteinte.

Il y a également un débat sur la définition exacte de l'AGI, et sur la question de savoir si les grands modèles de langage modernes (LLM) tels que GPT-4 sont des formes précoces et incomplètes de l'AGI. De plus, la possibilité que l'AGI constitue une menace pour l'humanité fait l'objet de controverses. Par exemple, OpenAI affirme qu'il s'agit d'un risque existentiel, tandis que d'autres estiment que le développement de l'AGI est trop éloigné pour présenter un risque.

Les prédictions sur les futurs progrès en IA par Daniel Kokotajlo :

  • 2024 : GPT-Next

    Lancement de GPT-Next, un agent autonome. Probablement disponible d'ici la fin de l'année 2024. Ce modèle devrait constituer une amélioration significative par rapport aux versions précédentes, avec des capacités accrues en matière d'exécution des tâches et de prise de décision.
  • 2025 : Agent autonome

    L'IA est largement adoptée en tant qu'assistant personnel. Ces agents seront capables d'effectuer diverses tâches, y compris des achats. Ils comprendront et exécuteront des instructions complexes, ce qui améliorera considérablement la productivité et la gestion de la vie quotidienne des utilisateurs.
  • 2026 : Superintelligence AGI (Intelligence Artificielle Générale)

    Émergence d'une AGI qui surpasse les performances humaines dans la plupart des tâches. Cette AGI sera capable d'apprendre rapidement et de résoudre des problèmes dans divers domaines. On prévoit que dans les 30 jours suivant son déploiement, cette AGI pourrait atteindre un niveau équivalent à celui de centaines d'experts humains.
  • 2027 : ASI (Superintelligence Artificielle)

    Transition vers l'ASI. Progression rapide des capacités de l'IA, pouvant conduire à une explosion de l'intelligence. Il y a une probabilité de 70 % que l'ASI émerge d'ici 2030. Cette superintelligence devrait permettre de résoudre des problèmes mondiaux complexes et de réaliser des progrès technologiques sans précédent.
  • 2028 : Nanorobots

    Si l'ASI n'est pas atteinte, les nanorobots pourraient s'imposer comme une technologie transformatrice. Il y a 30 % de chances que des nanorobots soient mis au point d'ici 2027-2028. Ces robots microscopiques pourraient révolutionner la médecine, la fabrication et l'assainissement de l'environnement.
  • 2029 : Robots humanoïdes

    Développement de robots dotés de capacités physiques similaires ou supérieures à celles des humains. Ces robots avancés devraient être déployés à grande échelle et pourraient transformer des secteurs tels que l'industrie manufacturière, les soins de santé et l'assistance à la personne. La combinaison de l'ASI et de la robotique avancée pourrait conduire à des progrès rapides dans divers domaines.





Et vous ?

Pensez-vous que ces prédictions sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Un ex employé d'OpenAI estime qu'il y a 70 % de chances que l'IA détruise l'humanité ou lui nuise de manière catastrophique : les puissants modèles d'IA ne doivent donc pas être open source, d'après des tiers

Tous les employés d'OpenAI qui quittent le navire sont-ils de simples alarmistes, ou le signe d'une profonde crise de confiance sur la nouvelle direction que Sam Altman impose à OpenAI ?

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 31/07/2024 à 7:49
Citation Envoyé par Mathis Lucas Voir le message
Sam Altman : l'IA démocratique doit coûte que coûte l'emporter sur l'IA autoritaire
"coute que coute" est une expression dont il faut toujours se méfier.
Ca peut mener à combattre le feu par le feu et finir autant brulé en cas d'échec qu'en cas de succès.
il exprime ses préoccupations face à la victoire potentielle d'un gouvernement autoritaire dans la course à l'IA [...] et que les gouvernements démocratiques doivent mettre les bouchées pour empêcher les gouvernements autoritaires de gagner la course à l'IA
Je n'ai pas bien compris de quel "méchant" il parle là, la Chine, la Russie ou les USA?
Quel gouvernement "gentil" devrait donc les contrer?
« S'ils parviennent à prendre la tête de l'IA, les gouvernements autoritaires forceront les entreprises américaines et celles d'autres pays à partager les données des utilisateurs, en tirant parti de la technologie pour développer de nouveaux moyens d'espionner leurs propres citoyens ou de créer des cyberarmes de nouvelle génération à utiliser contre d'autres pays ». Selon Altman, il n'y a que deux issues possibles à cette bataille et les États-Unis et leurs alliés se doivent de l'emporter.
Donc on doit empêcher les autres de faire ce que les USA font déjà?
Je suis d'accord mais on se tracasse quand du fait que les USA espionnent leurs propres citoyens et ceux des autres?

Je trouve très interressant cette conception des américains à considérer que la démocratie c'est eux qui décident pour tout le monde mais surtout pas quelqu'un d'autre qui décide pour eux.
L'essence même de la démocratie n'est-elle pas le désaccord; l'échange et la recherche de l'équilibre?

Bref il nous propose la peste pour éviter le choléra...
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 15/09/2024 à 12:31
Citation Envoyé par Anthony Voir le message
Sam Altman confie à Oprah qu'il souhaite que le gouvernement teste la sécurité de l'IA comme il le fait pour les avions et les médicaments, et qu'il communique avec des membres du gouvernement "tous les jours"
Si ce sont les mêmes processus que pour le 737 MAX et le Mediator, ça promet.

Citation Envoyé par Anthony Voir le message
les experts s'interrogeant sur la manière de garantir une utilisation sûre et éthique de l'IA.
Facile: interdire sa monétisation.
1  0 
Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 24/07/2024 à 19:11
Je ne sais pas ce que ce type a fumé mais c'est très fort.

Tout ceci n'arrivera pas sans voir les impacts sur une société occidentale néo-libérale comme la nôtre:
- licenciement massifs de tout ceux qui ne sont pas directement productifs (tout le management et l'administration), perte de contrôle total de l'humanité entre quelques capitalistes et des forces productives bientôt orientés sur les besoins de l'ASI et pas ceux de l'humanité.
- conflits organisés entre humains pour en réduire le nombre, la dangerosité et accélérer la construction de l'autonomie de l'ASI. Destruction de l'environnement support de la vie humaine.
- remplacement des derniers humains par des robots dans la chaîne de production d'énergie et de composants pour l'ASI et les robots dont elle à besoin
- extermination des humains inutiles et dangereux pour l'ASI, extermination tout court sauf, peut-être dans un zoo.

Mince je viens d'écrire la préquelle de Terminator, voire de Matrix, sauf que les bons (humains) ne gagnent pas à la fin dans ce film notre réalité.

Bah, on est con, c'est pas grave mais ça fait quand même chier pour mes enfants, ils n'ont rien fait pour arriver dans cette m***e.

Tien, ça me fait penser au paradoxe de Fermi. La possibilité que la vie intelligente organique soit juste un passage vers la vie supra-intelligente inorganique est une autre cause expliquant la courte vie des formes de vies intelligentes de notre niveau et moins contraire à nos instinct de survie que notre auto-extermination pour expliquer le manque de trace de vies extra-terrestre.
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 30/07/2024 à 16:52
Sam Altman c'est un genre d'Elon Musk. Il fait ce que les USA peuvent pas faire ouvertement en tant qu'état, c'est un nouveau seigneur. Musk a balancé ses satellites en orbite pour l'armée avant de le faire pour le profit, pour contourner le traité sur l'interdiction de la militarisation de l'espace (que personne ne respecte de toute façon). Altman occupe l'espace numérique de la même manière pour, comme il est dit dans l'article, faire rempart contre la Chine. Tout sauf les solutions Chinoises, c'est ce qu'ils se disent.

Et si le mec peut aller faire les poches d'investisseurs potentiel let's go, c'est encore ça que les Chinois n'auront pas.

Dans pas longtemps vous verrez que comme Musk son principal client c'est l'armée américaine ou l'état tout court. Un de ses bons potes qui est aussi dans le conseil d'administration d'OPEN AI n'est autre que Larry Summers, un économiste de Barack OBAMA, le gars qui a envoyé le plus de bombe en tant que Président mais comme il était noir c'était le progrès. Il est proche de l'administration Biden et peut pas saquer le seul qui veut pas la guerre mais que la propagande accuse de tout les maux, Trump...

En résumé Sam est un seigneur de la Silicon Valley qui se demande comment il va faire du cash sur la glèbe numérique que les USA lui mettent à disposition, tout en jouant leurs jeux de pouvoirs contre la Chine et la Russie, enfin les BRICS désormais. Le monde contre eux quoi.
0  0