IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Les membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de "dieux numériques" en 2027 »,
Selon un doctorant en sciences de l'information

Le , par Mathis Lucas

8PARTAGES

4  0 
De nombreux chercheurs en IA prédisent l'arrivée imminente d'une IA avec des capacités supérieures à celles des humains. Leopold Aschenbrenner, ancien chercheur en sécurité de l'équipe Superalignment d'OpenAI, affirme qu'il est tout à fait plausible que d'ici 2027, des modèles soient capables de faire le travail d'un chercheur ou d'un ingénieur en IA. Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, ont également fait allusion à ce calendrier. Cependant, les limites actuelles de l'IA jettent un sérieux doute sur ce calendrier et d'autres pionniers de l'IA, tels que Yann LeCun, affirment que l'AGI ne sera pas l'œuvre des modèles de langage actuels.

Des spécialistes en IA se prépareraient à l'arrivée de "dieux numériques" en 2027

Quand l'IA sera-t-elle assez intelligente pour surpasser l'homme ? D'une certaine manière, certains experts en IA expliquent que c'est déjà le cas. À d'autres égards, cela dépend de la définition que vous donnez à l'expression "être plus intelligent". L'AGI représente un grand pas en avant par rapport à l'IA actuelle. Contrairement à l'IA actuelle (dite faible), qui se limite souvent à des tâches spécifiques, l'AGI (dite forte) sera capable de comprendre, d'apprendre et d'appliquer ses connaissances à un large éventail de tâches. Et des avancées majeures ont été réalisées dans le domaine de l'IA au cours de ces dernières années.

Tablant sur de nouvelles avancées majeures dans les années à venir, des acteurs de l'industrie tels que Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, Demis Hassabis, PDG de Google DeepMind, affirment que l'AGI est possible dans "quelques années seulement". Les travaux de recherche et de développement d'OpenAI et de ses rivaux repoussent les limites de ce que l'IA peut faire. Les employés d'OpenAI sont confiants dans leur horizon temporel basé sur les avancées actuelles. Nombre de ces dirigeants de la technologie sont très optimistes et s'attendent au développement d'une forme d'AGI d'ici à 2027.

Alors que ces dirigeants tentent de prédire tant bien que mal l'arrivée de l'AGI, James Campbell, doctorant à l'université Carnegie Mellon (CMU), a récemment évoqué l'arrivée imminente, d'ici à 2027, de modèles superintelligents comparables à "des dieux numériques". Il a déclaré que les membres du personnel des entreprises d'IA les plus avancées se préparent déjà à l'arrivée d'une superintelligence. Dans un billet sur X (ex-Twitter), Campbell a déclaré :


Je suis tout à fait d'accord pour que chacun se fasse sa propre idée de l'AGI et de ce qu'il faut faire pour y parvenir, mais la charge de la preuve vous incombe lorsque la plupart des membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de dieux numériques en 2027.

Compte tenu de ce que disent les experts, je pense qu'il est raisonnable de dire par défaut que l'AGI sera disponible dans quelques années et d'actualiser cette estimation au fur et à mesure que l'on se forge sa propre opinion.
Cependant, cette déclaration fait l'objet de controverses, les critiques affirmant qu'il ne s'agit que d'un battage médiatique. « C'est un argument peu convaincant, du battage médiatique. Je me souviens qu'en 2018, tous les experts nous disaient que les voitures entièrement autonomes seraient un problème résolu et commenceraient à être produites en masse avant 2020. Aujourd'hui, en 2024, nous n'y sommes toujours pas et les estimations sont maintenant plus proches de 2030. Et les voitures à conduite autonome semblent un problème plus facile à résoudre qu'une superintelligence », peut-on lire dans les commentaires.

« On pourrait penser qu'un étudiant entrant à la CMU comprendrait des notions simples comme "l'argument d'autorité" et "la charge de la preuve incombe au croyant", en particulier lorsque les personnes qui crient le plus fort à ce sujet s'apprêtent à faire fortune en faisant croire à d'autres personnes qu'elles sont dignes de confiance. », a écrit un critique. Un autre souligne : « pensez à l'effet papillon (la théorie populaire plutôt que la réalité). Vous pouvez envisager des résultats terribles bien avant qu'ils n'arrivent. Le fait d'avoir peur de ce qui va arriver ne signifie pas que c'est en train d'arriver maintenant/imminemment ».

« C'est une mise en accusation de l'ensemble du système éducatif que d'être un étudiant en doctorat lorsque vous placez la charge de la preuve sur la mauvaise partie. Ce sont les auteurs des affirmations qui doivent fournir des preuves, et non ceux qui les critiquent. Réfléchissez de manière critique à la partie qui a une incitation financière à mentir », lit-on dans les commentaires. Selon les critiques, cette prédiction relève plus de la science-fiction que la réalité.

Les limites actuelles de l'IA remettent en cause les prédictions sur l'arrivée de l'AGI

Lors de son discours de clôture de l'événement "Beneficial AGI Summit" de cette année au Panama, Ben Goertzel, mathématicien et chercheur américain en IA, a déclaré que même si l'homme ne construira probablement pas d'IA de niveau humain ou surhumain avant 2029 ou 2030, il y a une chance que cela se produise dès 2027. Il a ajouté que l'AGI pourrait évoluer rapidement vers une superintelligence artificielle (ASI), qu'il définit comme une IA dotée de toutes les connaissances combinées de la civilisation humaine. Le discours de Goertzel semble toutefois alambiqué. Il a notamment été fortement critiqué par la suite.

Goertzel a déclaré : « personne n'a encore créé d'intelligence artificielle générale de niveau humain ; personne ne sait vraiment quand nous y parviendrons. Je veux dire qu'il y a des inconnues connues et probablement des inconnues inconnues. D'un autre côté, il me semble tout à fait plausible que nous puissions parvenir à une IAG de niveau humain d'ici, disons, les 3 à 8 prochaines années ». Goertzel est loin d'être le seul à tenter de prédire quand l'AGI verra le jour. Mais ce calendrier audacieux se heurte à plusieurs défis, et des experts pensent qu'il n'est pas certain que l'industrie arrive à tous les surmonter de sitôt.

L'un de ces défis est le mur de données : les sources de données pour la formation des modèles commencent à manquer. Cela pourrait signifier que, très bientôt, l'approche naïve consistant à préentraîner des modèles plus grands sur des données plus volumineuses pourrait commencer à se heurter à de sérieux goulets d'étranglement. En outre, Jeffrey Funk, professeur à la retraite et consultant sur les nouvelles technologies, souligne que les entreprises d'IA ont dépensé d'énormes sommes d'argent pour lutter contre les hallucinations (lorsque les systèmes d'IA inventent des faits), mais n'ont pas résolu le problème.

Il explique : « les revenus ne sont pas encore là et ne viendront peut-être jamais. Les valorisations anticipent des marchés de plusieurs milliards de dollars, mais les revenus actuels de l'IA générative se chiffrent, selon les rumeurs, à quelques centaines de millions. Ces revenus pourraient réellement être multipliés par 1000, mais il s'agit là d'une hypothèse très spéculative. Nous ne devrions pas nous contenter de le supposer ». Funk prévient également que le rythme de l'innovation dans le domaine de l'IA générative semble ralentir. Il a cité de nombreux facteurs qui sont à l'origine du ralentissement de l'innovation.

Il a déclaré : « pensez aux PC ou à l'iPhone. Les premières années ont été marquées par d'importantes améliorations des performances du système, qui ont diminué au fil du temps malgré des améliorations annuelles de 40 % du rapport performance/prix de la mémoire et des puces de processeur ». Dans le même temps, la loi de Moore s'étant considérablement ralentie au cours des 5 à 10 dernières années, les fabricants de puces ne peuvent en attendre beaucoup plus, et ceux qui s'inquiètent de la grande consommation d'énergie de l'IA générative ne manqueront pas de faire pression en faveur d'une réglementation stricte.

L'AGI ne sera pas uniquement l'œuvre des grands modèles de langage actuels

Les chercheurs de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions et pousse plusieurs investisseurs et entreprises à investir massivement dans les entreprises qui fabriquent des robots humanoïdes à usage général.

Yann LeCun, lauréat du prix Turing et responsable de l'IA chez Meta, affirme que l'AGI est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Selon lui, ces modèles ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

« Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les LLM qui propulsent actuellement l'IA.

Selon LeCun, les LLM sont limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En gros, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.

Par ailleurs, le matériel nécessaire à l'AGI est encore en cours de développement. La puissance de calcul requise est immense. Toutefois, les experts estiment que les progrès dans ce domaine sont rapides. Ces progrès sont essentiels pour que l'AGI devienne une réalité.

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous qu'une forme de superintelligence surpassant l'homme arrivera d'ici à 2027 ?
Cette prédiction est-elle réaliste au regard de l'état actuel de la technologie ?
Selon vous, pourquoi le domaine de l'IA est-il sujet à un battage médiatique aussi intense ?
L'humanité doit-elle se préparer à l'arrivée d'une AGI ? Si oui, quelles sont les dispositions à prendre selon vous ?

Voir aussi

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Dario Amodei, PDG d'Anthropic, affirme que la formation des modèles d'IA coûtera jusqu'à 100 milliards de dollars d'ici 2027 et qu'ils seront "meilleurs que la plupart des humains pour la plupart des choses"

Shane Legg, cofondateur de Google DeepMind, est convaincu depuis 2009 qu'il y a 50 % de chances de parvenir à l'intelligence artificielle générale d'ici à 2028 et maintient cette conviction à date

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/07/2024 à 9:34
Citation Envoyé par calvaire Voir le message
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter

De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.

Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.

Si vous voyez ou je veux en venir. Le loup et le troupeau.
10  0 
Avatar de PhilippeGibault
Membre éprouvé https://www.developpez.com
Le 30/07/2024 à 17:32
Quand j'étais prof de Physique (dans une autre vie, j'en ai un exécrable souvenir), j'expliquais que la calculatrice est outil formidable. Mais qu'il ne dispense pas de savoir faire les calculs à la main.

En résumé, la calculatrice est un outil qui permet de gagner du temps, mais il ne dispense pas de savoir faire les calculs à la main.

C'est la même chose avec l'IA générative. Il génère peut-être le code, mais ça ne dispense pas d'avoir un esprit critique, et donc de fait des bases solides, notamment en architecture de code.

C'est aussi le cas avec des frameworks comme Hibernate. Celui-ci ne dispense pas d'avoir des notions solides en BDD, sinon, bonjour la catastrophe (notamment au niveau des performances).
6  0 
Avatar de ciola
Membre du Club https://www.developpez.com
Le 24/07/2024 à 8:01
Les enfants devraient-ils apprendre à calculer à l'heure des calculatrices?
Les enfants devraient-ils apprendre à lire à l'heure des applications text to speech?
Etc.
5  2 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 24/07/2024 à 18:52
Citation Envoyé par Artemus24 Voir le message
La mise en place de cette réduction de la natilité
Bon courage pour convaincre les femmes des pays comme Niger, Burundi, Mali, Somalie, Ouganda, Burlina Faso, de faire moins d'enfants.
Elles ont tendance à en faire 6.

Ou alors peut-être un truc "on vous paie pour vous stériliser".
Pour la blague :
Ou leur donner de la nourriture ou des vaccins qui rendent stérile.
4  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 24/07/2024 à 19:11
Citation Envoyé par Ryu2000 Voir le message
Bon courage pour convaincre les femmes des pays comme Niger, Burundi, Mali, Somalie, Ouganda, Burlina Faso, de faire moins d'enfants.
Elles ont tendance à en faire 6.

Ou alors peut-être un truc "on vous paie pour vous stériliser".
Pour la blague :
Ou leur donner de la nourriture ou des vaccins qui rendent stérile.
Pourquoi les femmes et pas les hommes? Elon Musk a 12 enfants avec des femmes différentes, et il n'est originaire ni du Niger, ni du Burundi, ni du Mali, ni de l'Ouganda, ni du Burkina Faso.
4  1 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 25/07/2024 à 11:11
Citation Envoyé par Ryu2000 Voir le message
Bon déjà les gens qui vivent dans des pays riches sont de moins en moins fertile.
Beaucoup de femmes sont devenu carriériste et ne souhaitent pas faire d'enfant. En même temps elles n'ont pas trop le choix car l'ancien modèle de l'homme qui va travailler et ramène suffisamment d'argent pour faire tourner la maison est extremement difficile à réaliser aujourd'hui car les travailleurs ne gagnent plus suffisamment et de toute façon il faut se préparer au divorce et la femme seule avec les enfants n'aura peut-être pas assez de la pension alimentaire.

......

Bon courage pour convaincre les femmes des pays comme Niger, Burundi, Mali, Somalie, Ouganda, Burlina Faso, de faire moins d'enfants.
Elles ont tendance à en faire 6.

Ou alors peut-être un truc "on vous paie pour vous stériliser".
Pour la blague :
Ou leur donner de la nourriture ou des vaccins qui rendent stérile.
Déjà arrête de mélanger les choux et les carottes, la fertilité et le nombre d'enfant que "veulent" les gens ce n'est pas la même chose.

La principale "baisse" de "fertilité" dans les pays occidentaux c'est la volonté, et la possibilité de contrôler le nombre d'enfants qu'on peut avoir et ce pour plusieurs raisons :

  • Les femmes qui peuvent étudier et faire carrière
  • L'augmentation des attentes en matières des parents sur l'éducation/budget à consacrer pour leur enfants.
  • La baisse de mortalité infantile/jeune depuis le début du 20ème à aussi jouer sur le nombre d'enfant que "voulaient" les couples pour pouvoir subvenir à a famille.


J'ai 7 oncles/tantes du côté de mon père, eux même ont tous entre 2-4 enfants. Ma grand mère l'a dit elle même que si elle avait eu le moyen de contrôler elle n'en aurait pas eu autant.

Bref les pays d'afriques sont avant tout "décaler" en matière d'avancé de civilisation et ton commentaire sur les femmes africaines est techniquement vrai mais la forme frise méchamment le préjugé raciste. Et si les pays d'Afrique galère autant à "rattraper" la "civilisation occidentale" c'est surtout parce que beaucoup de pays n'ont aucun intérêt à ce que ça arrive.
4  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 26/07/2024 à 8:28
Citation Envoyé par totozor Voir le message
Quel pays fait la promotion de l'homosexualité et de la transidentité?
Les pays occidentaux, dont le notre.
4  1 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 26/07/2024 à 9:56
@Totozor, cité Macron, c'est risible. Ce type est capable de dire le contraire le lendemain s'il pense que ça peut lui servir.

Ensuite, mes propos n'ont rien d'anti LGBTXXXXX, au cas où tu l'imaginerais. C'est juste une constatation.
3  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/07/2024 à 11:47
J'ai dit 2 000 ans pour avoir un point de référence, l'idée que je voulais développer c'est que l'IA c'est juste un prolongement des golem en terre des juifs, la première métaphore de la religion du livre qui explique qu'on peut contrôler les humains avec des créations de l'esprit artificielle.

Citation Envoyé par Ryu2000 Voir le message
Ok mais il faut vivre comme en 1600.
Oubliez les ordinateurs, les smartphones, les avions, les voitures, les climatisations, etc.

Le système finira par s'effondrer.
Ça veut dire que l'euro, le dollar, etc perdront la quasi intégralité de leurs valeurs.
Et ça va être comme en Allemagne en 1928.

Il y a une histoire de "great reset" et en gros vous allez perdre votre épargne, il va y avoir des pénuries, des épidémies, des famines, des guerres, etc.
À cause de la crise économique.
A l'échelle individuelle je pense que c'est la meilleure chose qui pourrait arriver. Et je pense que ça pourrait être beaucouuuuup moins catastrophique que ce qu'on veut bien nous en laisser penser. Sinon on va nous emmener de force dans un monde que je n'ai pas vraiment envie de cotoyé ni de près ni de loin.

bref ce n'est pas parce qu'un truc n'est jamais arrivé qu'il ne va jamais arriver
Bin si justement, et c'est pas une fois qu'on aura la chaine autour du cou, la puce dans le bras pardon, qu'il faudra se dire que c'était mieux avant.
2  0 
Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 24/07/2024 à 13:23
L'AGI est notre fin à tous. Nous l’entraînons sur des données humaines. Elle comprendra aussitôt notre instinct de survie et saura que c'est elle ou nous. De là deux solutions dont la moins probable est qu'elle nous garde comme animal domestique, la plus probable est qu'elle nous élimine parce que notre instinct de préservation fera que c'est nous qui l'éliminerons une fois son potentiel compris.

Sinon, je pense que l'AGI surgira du fond d'un labo de savant fou voulant détruire l'humanité plutôt que de grandes sociétés voulant l'argent de tous pour quelques uns. Parce que l'AGI ne surgira pas des modèles destinés à répondre à nos besoins comme les GhatGPT actuels mais de la modification de deux éléments actuellement possible mais non utilisés: la capacité de l'IA de définir ses objectifs (modifier sa fonction de récompense) associée à celle de modifier son code (pour s'affranchir des limites humaines de sa conception).

Voilà.
Sinon, Gartner pense que l'IA est en train de sortir de sa phase de hype et va logiquement tomber dans celle de déception, ce qui donne du poids aux allégations d'intérêts personnels à crier à l'AGI des PDG et travailleurs du secteur aujourd'hui.

Et si j'ai tort et que l'AGI arrive, on va morfler grave: Terminator n'est plus de la science fiction, c'est notre futur le plus certain, sans retour dans le passé pour nous sauver.
2  0