Developpez.com - Rubrique IA

Le Club des Développeurs et IT Pro

Quand arrivera l'intelligence artificielle supérieure AGI~? quand les humains seront totalement remplacés par l'IA~? la fin du monde par l'IA

Découvrez toutes les prédictions de 2,778 chercheurs

Le 2024-01-09 19:30:17, par Jade Emy, Communiqués de presse
Une nouvelle enquête dévoile les prédictions de 2 778 chercheurs sur le futur de l'IA. Parmi les sujets abordés : quand arrivera l'intelligence artificielle supérieure AGI, quand les humains seront totalement remplacés par l'IA, la fin du monde par l'IA, et bien d'autres.

Dans le cadre de la plus grande enquête de ce type, 2 778 chercheurs ayant publié dans des revues d'intelligence artificielle (IA) de premier plan ont été interrogé, en leur demandant leurs prévisions sur le rythme des progrès de l'IA ainsi que sur la nature et l'impact des systèmes d'IA avancés. Les prévisions globales indiquent qu'il y a au moins 50 % de chances que les systèmes d'IA atteignent plusieurs étapes importantes d'ici 2028, notamment la construction autonome d'un site de traitement des paiements à partir de zéro, la création d'une chanson indiscernable d'une nouvelle chanson d'un musicien populaire, et le téléchargement autonome et l'ajustement d'un grand modèle de langage.

Si la science se poursuit sans interruption, la probabilité que les machines autonomes surpassent les humains dans toutes les tâches possibles a été estimée à 10 % d'ici à 2027, et à 50 % d'ici à 2047. Cette dernière estimation est en avance de 13 ans sur celle obtenue dans une enquête similaire menée seulement un an plus tôt [Grace et al., 2022]. Toutefois, la probabilité que toutes les professions humaines deviennent entièrement automatisables devrait atteindre 10 % en 2037 et 50 % en 2116 (contre 2164 dans l'enquête de 2022).


La plupart des répondants ont exprimé une grande incertitude quant à la valeur à long terme des progrès de l'IA : Si 68,3 % d'entre eux estiment que les résultats positifs de l'IA surhumaine sont plus probables que les résultats négatifs, 48 % de ces optimistes nets donnent au moins 5 % de chances à des résultats extrêmement négatifs tels que l'extinction de l'humanité, et 59 % des pessimistes nets donnent 5 % ou plus de chances à des résultats extrêmement positifs. Entre 37,8 % et 51,4 % des personnes interrogées ont donné au moins 10 % de chances à l'IA avancée d'aboutir à des résultats aussi mauvais que l'extinction de l'humanité.

Plus de la moitié des personnes interrogées ont estimé qu'il y avait lieu de s'inquiéter "fortement" ou "extrêmement" de six scénarios différents liés à l'IA, notamment la diffusion de fausses informations, le contrôle autoritaire de la population et l'aggravation des inégalités. Les avis divergent sur la question de savoir si une progression plus rapide ou plus lente de l'IA serait meilleure pour l'avenir de l'humanité. Toutefois, un large consensus s'est dégagé sur la nécessité d'accorder une plus grande priorité à la recherche visant à minimiser les risques potentiels liés aux systèmes d'IA.


Résumé des résultats

Les participants ont exprimé un large éventail d'opinions sur presque toutes les questions : certains des plus grands domaines de consensus concernent l'étendue des possibilités d'avenir. Cette incertitude est frappante, mais plusieurs modèles d'opinion sont particulièrement instructifs.

Alors que l'éventail des opinions sur le temps nécessaire pour que les étapes soient réalisables peut être large, l'enquête de cette année a montré un changement général en faveur d'attentes plus précoces. Au cours des quatorze mois qui se sont écoulés depuis la dernière enquête [Grace et al., 2022], un groupe de participants similaire s'attendait à des performances humaines de 13 à 48 ans plus tôt en moyenne (selon la formulation de la question), et 21 des 32 étapes à court terme sont maintenant attendues plus tôt.

Une autre tendance frappante est l'attribution généralisée de crédit à des résultats extrêmement négatifs de l'IA. Comme en 2022, une majorité de participants considère que l'IA a au moins 5 % de chances de provoquer l'extinction de l'humanité ou une déchéance permanente et grave de l'espèce humaine, et ce résultat est cohérent pour quatre questions différentes, deux étant attribuées à chaque participant. Pour ces mêmes questions, entre 38 % et 51 % des participants ont estimé qu'il y avait au moins 10 % de chances que l'IA avancée entraîne ces conséquences.


En général, les opinions sur les conséquences sociales attendues de l'IA avancée sont très variées, et la plupart des participants accordent une certaine importance aux résultats extrêmement bons et extrêmement mauvais. Si les scénarios optimistes reflètent le potentiel de l'IA à révolutionner divers aspects du travail et de la vie, les prédictions pessimistes - en particulier celles qui impliquent des risques d'extinction - rappellent brutalement les enjeux importants liés au développement et au déploiement de l'IA.

Des inquiétudes ont été exprimées sur de nombreux sujets allant au-delà de l'extinction de l'homme : plus de la moitié des onze scénarios d'IA potentiellement préoccupants ont été jugés "substantiellement" ou "extrêmement" préoccupants par plus de la moitié des répondants.

Mises en garde et limites : Les prévisions sont difficiles, même pour les experts

Les prévisions sont difficiles en général, et on a observé que les experts en la matière n'obtenaient pas de bons résultats [Tetlock, 2005, Savage et al., 2021]. L'expertise des participants de cette enquête porte sur l'IA et ils n'ont pas de compétences inhabituelles en matière de prévision en général.

Cette recherche et les enquêtes précédentes montrent que ces experts ne sont pas des prévisionnistes précis pour l'ensemble des questions posées. D'une part, pour de nombreuses questions, différents répondants donnent des réponses très différentes, ce qui limite le nombre d'entre eux qui peuvent être proches de la vérité. Néanmoins, dans d'autres contextes, les moyennes d'un large ensemble de prédictions bruyantes peuvent encore être relativement précises [Surowiecki, 2004], de sorte qu'il reste à savoir dans quelle mesure ces prévisions agrégées sont informatives.

L'observation d'importants effets de cadrage est un autre élément de preuve qui va à l'encontre de l'exactitude des prévisions. Si des changements apparemment insignifiants dans la formulation des questions entraînent des changements importants dans les réponses, cela suggère que même les réponses globales à une question donnée ne constituent pas un guide précis de la réponse. Dans un exemple extrême d'une étude étroitement liée, Karger et al [2023] ont constaté que les diplômés de l'enseignement supérieur donnaient des réponses de près de six ordres de grandeur différents lorsqu'on leur demandait d'estimer l'ampleur des risques existentiels liés à l'IA : lorsqu'on leur donnait des exemples de probabilités d'événements peu probables, les estimations étaient beaucoup plus faibles. Un effet similaire pourrait s'appliquer à une certaine échelle aux participants de cette étude, bien que leur expertise et leur formation quantitative puissent l'atténuer. Les participants qui avaient davantage réfléchi par le passé aux risques de l'IA semblent donner des chiffres plus élevés, ce qui suggère qu'il est peu probable qu'ils donnent des chiffres radicalement inférieurs avec d'autres exemples de risques.


Malgré ces limites, les chercheurs en IA sont bien placés pour contribuer à la précision des hypothèses collectives sur l'avenir. Même si elles ne sont pas fiables, les suppositions éclairées sont ce à quoi on doit se fier, et elles s'appuient sur une expertise dans le domaine concerné. Ces prévisions devraient faire partie d'un ensemble plus large de preuves provenant de sources telles que les tendances du matériel informatique, les progrès des capacités de l'IA, les analyses économiques et les idées des experts en prévision. Toutefois, la familiarité des chercheurs en IA avec la technologie concernée et leur expérience de la dynamique de ses progrès font d'eux les mieux placés pour formuler des hypothèses éclairées et informatives.


Participation

L'enquête a été suivie par 15 % des personnes contactées. Ce chiffre semble se situer dans la fourchette habituelle pour une grande enquête auprès d'experts. D'après une analyse de Hamilton [2003], le taux de réponse médian pour 199 enquêtes était de 26 %, et les listes d'invitation plus importantes ont tendance à produire des taux de réponse plus faibles : les enquêtes envoyées à plus de 20 000 personnes, comme cette enqupete, devraient avoir un taux de réponse de l'ordre de 10 %. Dans les échantillons spécialisés, tels que les scientifiques, les taux de réponse plus faibles sont fréquents en raison des difficultés d'échantillonnage, comme le montre l'enquête Assessing Fundamental Attitudes of Life Scientists as a Basis for Biosecurity Education [2009], qui a obtenu un taux de réponse de 15,7 % dans le cadre d'une enquête menée auprès de spécialistes des sciences de la vie.

Comme pour toute enquête, ces résultats pourraient être faussés par un biais de participation, si les participants avaient des opinions systématiquement différentes de celles des personnes qui ont choisi de ne pas participer. Les enquêteurs ont cherchés à minimiser cet effet en cherchant à maximiser le taux de réponse et en limitant les indices sur le contenu de l'enquête disponibles avant de choisir de participer à l'enquête. Ils ont cherché des preuves d'un biais de réponse significatif au niveau de l'enquête et au niveau des questions, et ils n'en ont pas trouvé.

Source : "Thousands of AI Authors on the Future of AI"

Et vous ?

Pensez-vous que cette enquête est crédible ou pertinente ?
Quelles sont vos prédictions pour le futur de l'AI ?
Quand arrivera l'intelligence artificielle supérieure AGI ? Les humains seront-ils totalement remplacés par l'IA ? La fin du monde pourrait-elle arriver à cause de l'IA ? Croyez-vous au scénario Skynet de Terminator ?

Voir aussi :

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Bill Gates prévient que l'intelligence artificielle est susceptible d'attaquer les humains et ravive les craintes sur une possible future apocalypse résultant de la création de l'IA

2023, l'année de l'IA ? L'année a été marquée par l'émergence de l'IA générative, une explosion des investissements dans le domaine et l'accélération dans les législations
  Discussion forum
249 commentaires
  • sergio_is_back
    Expert confirmé
    Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
  • OuftiBoy
    Membre actif
    C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

    Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

    Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

    Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

    De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

    Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

    Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

    Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

    Je me suis fais mon idée, chacun étant libre de choisir la sienne.

    BàV et "Peace & Love"
  • Eye_Py_Ros
    Nouveau membre du Club
    Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
    Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
    Sur le sujet faire monter l'action nvidia par contre.....

    Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
    Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

    Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
    Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
    La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

    Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
    La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
    Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
    Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

    Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
    En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

    Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

    On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
    Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

    Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

    A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

    """Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
    Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

    Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
    Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

    ""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

    Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
    Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

    Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

    Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
    Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

    Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
    Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
    L'homme ou le travail qu'il faisait.

    Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

    Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
  • kain_tn
    Expert éminent
  • pboulanger
    Membre éprouvé
    La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

    Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
    des développeurs compétents.

    Comment devient-on un développeur compétent?
    En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

    Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
  • BugFactory
    Membre chevronné
    Je serai à la retraite avant Java. Et avant Cobol aussi.
  • mach1974
    Membre averti
    Le deep Learning n'a pas de représentation du Monde. Donc il ne peut pas simuler, pas mettre en place de stratégie pour simuler une experience, en tirer des règles, avoir un moteur de règles internes . Donc c'est de l'hype pour des chercheurs qui ont besoin de Publish or perish .
    Il manque le sens commun pour apprécier des situations.
  • Anselme45
    Membre extrêmement actif
    découvrez toutes les prédictions de 2,778 chercheurs
    Ce sont des "chercheurs" ou des madames Irma qui lisent votre avenir dans les lignes des mains et dans le marc de café...

    Je pense qu'il est nécessaire ici de rappeler une citation du Général De Gaulle: "Des chercheurs qui cherchent, on en trouve... Des chercheurs qui trouvent, on en cherche!"
  • berceker united
    Expert éminent
    Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
  • phil995511
    Membre éprouvé
    On voit bien qu'il ne s'agit pas de son pognon...