IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Les membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de "dieux numériques" en 2027 »,
Selon un doctorant en sciences de l'information

Le , par Mathis Lucas

12PARTAGES

4  0 
De nombreux chercheurs en IA prédisent l'arrivée imminente d'une IA avec des capacités supérieures à celles des humains. Leopold Aschenbrenner, ancien chercheur en sécurité de l'équipe Superalignment d'OpenAI, affirme qu'il est tout à fait plausible que d'ici 2027, des modèles soient capables de faire le travail d'un chercheur ou d'un ingénieur en IA. Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, ont également fait allusion à ce calendrier. Cependant, les limites actuelles de l'IA jettent un sérieux doute sur ce calendrier et d'autres pionniers de l'IA, tels que Yann LeCun, affirment que l'AGI ne sera pas l'œuvre des modèles de langage actuels.

Des spécialistes en IA se prépareraient à l'arrivée de "dieux numériques" en 2027

Quand l'IA sera-t-elle assez intelligente pour surpasser l'homme ? D'une certaine manière, certains experts en IA expliquent que c'est déjà le cas. À d'autres égards, cela dépend de la définition que vous donnez à l'expression "être plus intelligent". L'AGI représente un grand pas en avant par rapport à l'IA actuelle. Contrairement à l'IA actuelle (dite faible), qui se limite souvent à des tâches spécifiques, l'AGI (dite forte) sera capable de comprendre, d'apprendre et d'appliquer ses connaissances à un large éventail de tâches. Et des avancées majeures ont été réalisées dans le domaine de l'IA au cours de ces dernières années.

Tablant sur de nouvelles avancées majeures dans les années à venir, des acteurs de l'industrie tels que Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, Demis Hassabis, PDG de Google DeepMind, affirment que l'AGI est possible dans "quelques années seulement". Les travaux de recherche et de développement d'OpenAI et de ses rivaux repoussent les limites de ce que l'IA peut faire. Les employés d'OpenAI sont confiants dans leur horizon temporel basé sur les avancées actuelles. Nombre de ces dirigeants de la technologie sont très optimistes et s'attendent au développement d'une forme d'AGI d'ici à 2027.

Alors que ces dirigeants tentent de prédire tant bien que mal l'arrivée de l'AGI, James Campbell, doctorant à l'université Carnegie Mellon (CMU), a récemment évoqué l'arrivée imminente, d'ici à 2027, de modèles superintelligents comparables à "des dieux numériques". Il a déclaré que les membres du personnel des entreprises d'IA les plus avancées se préparent déjà à l'arrivée d'une superintelligence. Dans un billet sur X (ex-Twitter), Campbell a déclaré :


Je suis tout à fait d'accord pour que chacun se fasse sa propre idée de l'AGI et de ce qu'il faut faire pour y parvenir, mais la charge de la preuve vous incombe lorsque la plupart des membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de dieux numériques en 2027.

Compte tenu de ce que disent les experts, je pense qu'il est raisonnable de dire par défaut que l'AGI sera disponible dans quelques années et d'actualiser cette estimation au fur et à mesure que l'on se forge sa propre opinion.
Cependant, cette déclaration fait l'objet de controverses, les critiques affirmant qu'il ne s'agit que d'un battage médiatique. « C'est un argument peu convaincant, du battage médiatique. Je me souviens qu'en 2018, tous les experts nous disaient que les voitures entièrement autonomes seraient un problème résolu et commenceraient à être produites en masse avant 2020. Aujourd'hui, en 2024, nous n'y sommes toujours pas et les estimations sont maintenant plus proches de 2030. Et les voitures à conduite autonome semblent un problème plus facile à résoudre qu'une superintelligence », peut-on lire dans les commentaires.

« On pourrait penser qu'un étudiant entrant à la CMU comprendrait des notions simples comme "l'argument d'autorité" et "la charge de la preuve incombe au croyant", en particulier lorsque les personnes qui crient le plus fort à ce sujet s'apprêtent à faire fortune en faisant croire à d'autres personnes qu'elles sont dignes de confiance. », a écrit un critique. Un autre souligne : « pensez à l'effet papillon (la théorie populaire plutôt que la réalité). Vous pouvez envisager des résultats terribles bien avant qu'ils n'arrivent. Le fait d'avoir peur de ce qui va arriver ne signifie pas que c'est en train d'arriver maintenant/imminemment ».

« C'est une mise en accusation de l'ensemble du système éducatif que d'être un étudiant en doctorat lorsque vous placez la charge de la preuve sur la mauvaise partie. Ce sont les auteurs des affirmations qui doivent fournir des preuves, et non ceux qui les critiquent. Réfléchissez de manière critique à la partie qui a une incitation financière à mentir », lit-on dans les commentaires. Selon les critiques, cette prédiction relève plus de la science-fiction que la réalité.

Les limites actuelles de l'IA remettent en cause les prédictions sur l'arrivée de l'AGI

Lors de son discours de clôture de l'événement "Beneficial AGI Summit" de cette année au Panama, Ben Goertzel, mathématicien et chercheur américain en IA, a déclaré que même si l'homme ne construira probablement pas d'IA de niveau humain ou surhumain avant 2029 ou 2030, il y a une chance que cela se produise dès 2027. Il a ajouté que l'AGI pourrait évoluer rapidement vers une superintelligence artificielle (ASI), qu'il définit comme une IA dotée de toutes les connaissances combinées de la civilisation humaine. Le discours de Goertzel semble toutefois alambiqué. Il a notamment été fortement critiqué par la suite.

Goertzel a déclaré : « personne n'a encore créé d'intelligence artificielle générale de niveau humain ; personne ne sait vraiment quand nous y parviendrons. Je veux dire qu'il y a des inconnues connues et probablement des inconnues inconnues. D'un autre côté, il me semble tout à fait plausible que nous puissions parvenir à une IAG de niveau humain d'ici, disons, les 3 à 8 prochaines années ». Goertzel est loin d'être le seul à tenter de prédire quand l'AGI verra le jour. Mais ce calendrier audacieux se heurte à plusieurs défis, et des experts pensent qu'il n'est pas certain que l'industrie arrive à tous les surmonter de sitôt.

L'un de ces défis est le mur de données : les sources de données pour la formation des modèles commencent à manquer. Cela pourrait signifier que, très bientôt, l'approche naïve consistant à préentraîner des modèles plus grands sur des données plus volumineuses pourrait commencer à se heurter à de sérieux goulets d'étranglement. En outre, Jeffrey Funk, professeur à la retraite et consultant sur les nouvelles technologies, souligne que les entreprises d'IA ont dépensé d'énormes sommes d'argent pour lutter contre les hallucinations (lorsque les systèmes d'IA inventent des faits), mais n'ont pas résolu le problème.

Il explique : « les revenus ne sont pas encore là et ne viendront peut-être jamais. Les valorisations anticipent des marchés de plusieurs milliards de dollars, mais les revenus actuels de l'IA générative se chiffrent, selon les rumeurs, à quelques centaines de millions. Ces revenus pourraient réellement être multipliés par 1000, mais il s'agit là d'une hypothèse très spéculative. Nous ne devrions pas nous contenter de le supposer ». Funk prévient également que le rythme de l'innovation dans le domaine de l'IA générative semble ralentir. Il a cité de nombreux facteurs qui sont à l'origine du ralentissement de l'innovation.

Il a déclaré : « pensez aux PC ou à l'iPhone. Les premières années ont été marquées par d'importantes améliorations des performances du système, qui ont diminué au fil du temps malgré des améliorations annuelles de 40 % du rapport performance/prix de la mémoire et des puces de processeur ». Dans le même temps, la loi de Moore s'étant considérablement ralentie au cours des 5 à 10 dernières années, les fabricants de puces ne peuvent en attendre beaucoup plus, et ceux qui s'inquiètent de la grande consommation d'énergie de l'IA générative ne manqueront pas de faire pression en faveur d'une réglementation stricte.

L'AGI ne sera pas uniquement l'œuvre des grands modèles de langage actuels

Les chercheurs de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions et pousse plusieurs investisseurs et entreprises à investir massivement dans les entreprises qui fabriquent des robots humanoïdes à usage général.

Yann LeCun, lauréat du prix Turing et responsable de l'IA chez Meta, affirme que l'AGI est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Selon lui, ces modèles ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

« Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les LLM qui propulsent actuellement l'IA.

Selon LeCun, les LLM sont limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En gros, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.

Par ailleurs, le matériel nécessaire à l'AGI est encore en cours de développement. La puissance de calcul requise est immense. Toutefois, les experts estiment que les progrès dans ce domaine sont rapides. Ces progrès sont essentiels pour que l'AGI devienne une réalité.

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous qu'une forme de superintelligence surpassant l'homme arrivera d'ici à 2027 ?
Cette prédiction est-elle réaliste au regard de l'état actuel de la technologie ?
Selon vous, pourquoi le domaine de l'IA est-il sujet à un battage médiatique aussi intense ?
L'humanité doit-elle se préparer à l'arrivée d'une AGI ? Si oui, quelles sont les dispositions à prendre selon vous ?

Voir aussi

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Dario Amodei, PDG d'Anthropic, affirme que la formation des modèles d'IA coûtera jusqu'à 100 milliards de dollars d'ici 2027 et qu'ils seront "meilleurs que la plupart des humains pour la plupart des choses"

Shane Legg, cofondateur de Google DeepMind, est convaincu depuis 2009 qu'il y a 50 % de chances de parvenir à l'intelligence artificielle générale d'ici à 2028 et maintient cette conviction à date

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 7:35
Citation Envoyé par Jade Emy Voir le message
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Bien sur, nous savons tous que le climat c'est comme une voiture, quand il est cassé on le répare, avec des tournevis et du WD40.
Bien sur, nous savons tous, surtout depuis la physique quantique, que la physique est un domaine fini que nous mettons du temps à découvrir parce que nous sommes médiocres.
Quel est votre avis sur le sujet ?
Sam Altman est un clown qui ne sait pas de quoi il parle.
Mais il le dit surement mieux que moi parce qu'il lève des millions d'euros avec ce genre d'intervention.
Sam Altman prévoit que l'IA sera une ressource qui fera l'objet de guerres et deviendra principalement un outil pour les riches.[...]
Bref la même chose qu'aujourd'hui mais en pire
[...]Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
Ah beh tout va bien alors...
Ceci dit non seulement on va réparer le climat et découvrir la physique mais en plus se sera monnaie courante...
11  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/07/2024 à 9:34
Citation Envoyé par calvaire Voir le message
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter

De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.

Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.

Si vous voyez ou je veux en venir. Le loup et le troupeau.
10  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 11:13
Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
MDR, l'IA, dont l'entraînement et l'utilisation des modèles génèrent d'importantes émissions de CO2 et dont les centres de données nécessaires à son fonctionnement consomment d'importantes quantités d'eau pour le refroidissement, serait bon pour le climat !!!
9  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 24/09/2024 à 16:45
Il fume la même chose que Musk, celui-là ?
7  0 
Avatar de PhilippeGibault
Membre éprouvé https://www.developpez.com
Le 30/07/2024 à 17:32
Quand j'étais prof de Physique (dans une autre vie, j'en ai un exécrable souvenir), j'expliquais que la calculatrice est outil formidable. Mais qu'il ne dispense pas de savoir faire les calculs à la main.

En résumé, la calculatrice est un outil qui permet de gagner du temps, mais il ne dispense pas de savoir faire les calculs à la main.

C'est la même chose avec l'IA générative. Il génère peut-être le code, mais ça ne dispense pas d'avoir un esprit critique, et donc de fait des bases solides, notamment en architecture de code.

C'est aussi le cas avec des frameworks comme Hibernate. Celui-ci ne dispense pas d'avoir des notions solides en BDD, sinon, bonjour la catastrophe (notamment au niveau des performances).
6  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 25/09/2024 à 8:54
Sam Altman, PDG d'OpenAI, prévoit une superintelligence dans "quelques milliers de jours", qui permettra de réparer le climat, d'établir une colonie spatiale et de découvrir toute la physique
Fuite en avant, solutionnisme technologique, annonces itératives (Coué ?)
Le problème actuellement est dans l'orientation "business as usual" d'LLM par exemple : c'est comme de faire d'un-e hyperingénieur-e généraliste ... un distributeur de prospectus. Question d'usage et de mode de vie : faire croire que de frotter un smartphone va faire apparaître un génie alors qu'i s'agit de géolocaliser, orienter le désir, toussa ...
Hors la question n'est pas de savoir à qui ça profite : la question est de découvrir si un génie va apparaître. Et à l'intérieur de cette question, il y a : quel(s) vœu(x) allons-nous faire ?
Et ça ... c'est une question d'esprit.
4  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 30/09/2024 à 7:57
Le terme "IA" dans la gen AI est un pur terme marketing (et ça marche) alors qu'on a en vérité un produit qui est un simple exécutant qui ne prend aucune décision.
Pour moi, la révolution est dans la capacité d'analyse sémantique, et il est vrai que ça permet des usages très cool, avec un gain de temps certain.

Mais il faut un prompt. L'outil fait (plutôt très bien) ce qu'on lui demande. Il n'y a pas d'intelligence, de capacité d'initiative, d'autonomie dans ce qu'on nous vend comme étant de l''IA aujourd'hui.
4  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 30/09/2024 à 18:44
Citation Envoyé par OuftiBoy Voir le message
Pour en revenir au prédiction d'Altman, qui profétice qu'on aura cela dans quelques milliers de jours, c'est assez flou comme délai... quelques milliers de jours, c'est au minimum dans (2 milliers de jours), soit 6 ans (quelques induisant un chiffre > 1), soit dans (10 milliers de jour), et donc dans 27 ans, bref, ça ne veut strictement rien dire, c'est parler pour parler, et surtout pour ne rien dire.
Oh, il y en a tout plein, ici et ailleurs, qui écrivent pour écrire-pour-eux parce que les autres ne peuvent pas comprendre ce qui est écrit tellement c'est bourré de tout et n'importe quoi, suivez mon regard...
Par exemple, les bouts de phrases entre parenthèses peuvent en général être enlevés, ce qui pourrait donner c'est au minimum dans, soit 6 ans, soit dans, et donc dans 27 ans, charabia incompréhensible et gaspilleur d'espace disque, comme souvent ici.

Tu as une manière bien personnelle d'écrire et donc (d'essayer) de communiquer mais àmha, avec cette méthode tu vas dans le mur...
Tu devrais la revoir.
4  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 12/11/2024 à 11:57
est il vraiment pertinent de faire un gros modèle ?

j'ai déja eu un cas concret dans le passé (rien a voir avec les llm), plus on faisait un gros réseau de neurone avec de la data (de "qualité" en plus) plus le modèle était mauvais/stagnait (overfitting).
au final nous avons fait plusieurs petit modèle et un classifier en front pour choisir le modèle en fonction des données d'entrées, les résultats était bien meilleurs ainsi.
l'article parle t'il d'ia généraliste comme chatgpt ou d'ia spécialisé par exemple dans le code ou des 2 ?

De toute façon cette technos et fatalement limité par la production humaine, si demain l'ia remplace les devs, alors l'ia ne pourra plus évoluer. C'est grâce à des humains qui écrive des docs, trouve des bugs les corrige ou écrive sur les forum comment les contourner et donne des réponses bénévolement sur stackoverflow que l'ia progresse.

Or l’informatique c'est surement le domaine le moins stable dans le monde, y'a toujours une nouvelle technos, une nouvelle version, des patchs de sécurité a faire...si bien que il faut évoluer et s'adapter, pour un humain, c'est un aspect que l'on peut aimer ou détester, mais ce que l'on apprends à la sortie d'école et déjà obsolète, c'est de l'apprentissage continue.

edit: même dans le cas d'ia orienté code, une fois ratissez les forums style stackoverflow, c'est compliqué d'aller plus loins

par contre, j'imagine dans le futur une fonctionnalité pour les entreprises permettant de donner à l'ia toute la base de code et doc technique de l'entreprise et s'entrainer dessus, ainsi l'ia aurait le contexte de l'entreprise et le coding standard. Ca serait déja une belle amélioration dans la qualité des réponses.
par exemple je lui demande comment me connecter une l'api d'un service interne, elle va me donner le code, comment m'y connecter (demander à Jean Jacque sur teams de me crée un compte machine avec token en lecture, ensuite de tester la connexion avec ce code et enfin la fonctionnalité que vous avez demandez)
4  0 
Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 11/12/2024 à 17:33
Triste comme ces personnes peuvent fumer de la moquette !
Ils sont donc arrivé à faire une AI Générale !
Alors plus d'hallucinations, de mensonges, de biais ! Wahoo !!!
Cette AIG est capable d'évaluer la pertinence de ce qu'elle dit avec les sources ? De tester la robustesse des données de sa base d'intelligence ? D'en demander de supplémentaires car elle ne peut répondre a la question posée ? ...
Ah ! Non... Crottes !!!

Les IA des modèles actuels sont des perroquets scolastiques qui proposent le plus probable et normalement (malheureusement) incapables de produire une idée neuve par rapport à sa base d' apprentissage.
La connaissance encyclopédique n'est pas de l'intelligence, c'est juste bluffant.
Si cette iag fait de l'inférence, quelles sont les domaines mathématiques qu'elle aurait déjà épuisé ? Les trucs sympas qu'elle a démontré avec plus de finesse que l'humain ?
Altman sera mort avant que l'humanité le voit. Il est jeune Altman...
4  0