IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google DeepMind vient de publier une liste de niveaux d'AGI et définir des niveaux de performance,
Elle suggère des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes

Le , par Bruno

15PARTAGES

4  0 
Un cadre de classification des modèles d’intelligence générale artificielle (AGI) et de leurs précurseurs a été proposé par des chercheurs de Google DeepMind. Ce cadre définit des niveaux de performance, de généralité et d’autonomie de l’AGI. Ils suggèrent des principes tels que se focaliser sur les capacités plutôt que sur les mécanismes, évaluer la performance et la généralité de manière indépendante, et identifier les étapes vers l’AGI, plutôt que de viser le point final. Les chercheurs de Google DeepMind ont ensuite défini des « niveaux d’AGI » basés sur la performance et la généralité des capacités, et ont examiné comment les systèmes actuels se situent dans cette ontologie.

« Nous discutons des exigences ambitieuses pour les futurs benchmarks qui quantifient le comportement et les capacités des modèles d'AGI par rapport à ces niveaux. Enfin, nous examinons comment ces niveaux d'AGI interagissent avec les considérations de déploiement telles que l'autonomie et le risque, et nous soulignons l'importance de sélectionner avec soin les paradigmes d'interaction homme-IA pour un déploiement responsable et sûr de systèmes d'IA hautement performants », Google DeepMind.

L'intelligence artificielle générale est un concept important et parfois controversé de la recherche informatique, utilisé pour décrire un système d'IA qui est au moins aussi capable qu'un être humain dans la plupart des tâches. Compte tenu des progrès rapides des modèles d'apprentissage machine (ML), le concept d'AGI est passé de l'objet d'un débat philosophique à un concept d'une pertinence pratique proche du terme.


Certains experts estiment que des "étincelles" d'AGI sont déjà présentes dans la dernière génération de modèles de langage étendu (LLM) ; d'autres prédisent que les AGI dépasseront largement les humains d'ici une dizaine d'années ; certains affirment même que les LLM actuels sont des AGI. Toutefois, si vous demandiez à 100 experts en AGI de définir ce qu'ils entendent par "AGI", vous obtiendriez probablement 100 définitions apparentées, mais différentes.

Une IA de niveau humain serait une machine, ou un réseau de machines, capable d'effectuer la même gamme de tâches que celles dont nous sommes capables. Il s'agirait d'une machine « capable d'apprendre à faire tout ce qu'un humain peut faire », comme le disent Norvig et Russell dans leur manuel sur l'IA. Elle serait capable de choisir les actions qui lui permettent d'atteindre ses objectifs et de les exécuter. Elle serait capable de faire le travail d'un traducteur, d'un médecin, d'un illustrateur, d'un enseignant, d'un thérapeute, d'un chauffeur, ou le travail d'un investisseur.

Selon le PDG de Google Deepmind, « Il est possible d’atteindre une forme d’intelligence artificielle au niveau humain dans une décennie », ce qui donnerait aux machines un « sens commun. » À ce stade d’intelligence artificielle générale, elles seraient capables de raisonnement causal, c’est-à-dire de cette aptitude à réfléchir sur « la raison pour laquelle les choses se passent. »

Il existe des hypothèses selon lesquelles les systèmes d’AGI auraient la capacité de percevoir et d’agir, de se procurer des ressources, de poursuivre des buts, de se montrer autonomes, de surpasser les humains dans divers domaines, de les écarter de positions importantes et/ou de se perfectionner continuellement. Selon Google DeepMind, les chercheurs en IA devraient se poser clairement la question de la signification de “AGI” et essayer de mesurer les caractéristiques liées à l’efficacité, à la polyvalence et à l’indépendance des systèmes d’IA.

Classification des modèles d’AGI basé sur la performance et la généralité

Les chercheurs de Google DeepMind ont analysé neuf cas de projets expérimentaux et exposé leurs atouts et leurs faiblesses. Voici, ci-dessous, quelques-uns de ces exemples :

Le test de Turing est sans doute la tentative la plus connue d'opérationnalisation d'un concept similaire à celui de l'AGI. Le « jeu d'imitation » de Turing a été conçu pour répondre à la question de savoir si les machines pouvaient penser et pour demander à un humain de distinguer de manière interactive si le texte est produit par un autre humain ou par une machine. Le test, tel qu'il a été conçu à l'origine, est une expérience de pensée et fait l'objet de nombreuses ; dans la pratique, le test met souvent en évidence la façon dont les gens sont dupés plutôt que l' « intelligence » de la machine.

Étant donné que les MLL modernes comportent certains éléments du test de Turing, il semble logique que ce critère soit suffisant pour l'opérationnalisation et l'étalonnage de l'AGI. « Nous sommes d'accord avec Turing pour dire que la question de savoir si une machine peut "penser", tout en étant une question philosophique et scientifique intéressante, semble distincte de la question de savoir ce que fait la machine ; cette dernière est beaucoup plus directe à mesurer et plus importante pour évaluer les impacts. Nous proposons donc que l'IAG soit définie en termes de capacités plutôt qu'en termes de processus. », indiquent les chercheurs.

D’après le philosophe John Searle, « l’IA forte affirme que l’ordinateur n’est pas seulement un instrument pour analyser l’esprit ; au contraire, l’ordinateur correctement programmé est véritablement l’esprit, c’est-à-dire que les ordinateurs possèdent un système de contrôle de la conscience et un système de contrôle de l’esprit. Les ordinateurs, s’ils sont bien programmés, peuvent réellement comprendre et éprouver d’autres états cognitifs ».

Bien que l'IA forte puisse être un moyen d'atteindre l'AGI, il n'existe pas de consensus scientifique sur les méthodes permettant de déterminer si les machines possèdent des attributs d'IA forts tels que la conscience, ce qui rend impraticable l'accent mis sur le processus dans ce cadre.

Analogie avec le cerveau humain. L'expression « intelligence générale artificielle » a été utilisée pour la première fois en 1997 dans un article de Mark Gubrud sur les technologies militaires, qui définissait l'IAG comme « des systèmes d'IA qui rivalisent en complexité et en vitesse avec le cerveau humain, qui peuvent acquérir, manipuler et raisonner avec des connaissances générales, et qui sont utilisables dans toutes les phases des opérations industrielles ou militaires où l'intelligence humaine serait par ailleurs nécessaire ».

Cette définition précoce met l'accent sur les processus (rivalisant avec le cerveau humain en termes de complexité) plutôt que sur les capacités ; alors que les architectures de réseaux neuronaux qui sous-tendent les systèmesML modernes sont vaguement inspirées du cerveau humain, le succès des architectures basées sur des transformateurs dont les performances ne dépendent pas d'un apprentissage semblable à celui de l'homme suggère que les processus et les points de référence basés sur le cerveau strict ne sont pas intrinsèquement nécessaires pour l'AGI.

Analogie avec le cerveau humain

L'expression « intelligence générale artificielle » a été utilisée pour la première fois en 1997 dans un article de Mark Gubrud sur les technologies militaires, qui définissait l'AGI comme « des systèmes d'IA qui rivalisent en complexité et en vitesse avec le cerveau humain, qui peuvent acquérir, manipuler et raisonner avec des connaissances générales, et qui sont utilisables dans toutes les phases des opérations industrielles ou militaires où l'intelligence humaine serait par ailleurs nécessaire ».

Cette définition précoce met l'accent sur les processus (rivalisant avec le cerveau humain en termes de complexité) plutôt que sur les capacités ; alors que les architectures de réseaux neuronaux qui sous-tendent les systèmes ML modernes sont vaguement inspirées du cerveau humain. En réfléchissant aux exemples de formulation de l'AG (ou des concepts adjacents de l'IAG), les chercheurs ont identifié les propriétés et les points communs qui, selon eux, contribuent à une définition claire et opérationnelle de l'AGI :

L'accent est mis sur les capacités et non sur les processus

La majorité des définitions se concentrent sur ce qu'une AGI peut accomplir et non sur le mécanisme par lequel elle accomplit les tâches. Ceci est important pour identifier les caractéristiques qui ne sont pas nécessairement indispensables à la réalisation d'une AGI (mais qui peuvent néanmoins constituer des sujets de recherche intéressants). Cette focalisation sur les capacités permet d'exclure les éléments suivants des exigences en matière d'AGI :

  • la réalisation de l'AGI n'implique pas que les systèmes pensent ou comprennent de manière humaine (puisqu'elle se concentre sur les processus et non sur les capacités) ;
  • la réalisation de l'AGI ne signifie pas que les systèmes présentent des inégalités telles que la conscience (conscience subjective) ou la sensibilité (capacité à éprouver des sentiments) (car ces conséquences sont non seulement axées sur les processus, mais ne sont pas actuellement mesurables par des méthodes scientifiques convenues).

Toutes les définitions précédentes mettent l'accent sur la généralité à des degrés divers, mais certaines excluent les critères de performance. Les chercheurs de Google DeepMind estiment que la généralité et la performance sont toutes deux des composantes essentielles de l'AGI. Voici, ci-dessous, la liste de niveaux de l'AGI publié par les chercheurs de Google DeepMind :


Les systèmes présentés dans chaque cellule sont des estimations fondées sur les descriptions existantes dans les publications ou sur les expériences d’interaction avec des systèmes en fonctionnement. Pour classer les systèmes d’IA de manière claire, il faudra un étalonnage normalisé des tâches.

Les chercheurs de Google DeepMind ont exploré des définitions originales de l’AGI, en mettant en évidence les avantages et les inconvénients. Sur la base de cette exploration, ils ont proposé les principes qu’ils jugent essentiels à une définition nette et pratique de l’AGI : se focaliser sur les compétences, et non sur les mécanismes ; se focaliser sur la généralité et la performance ; se focaliser sur les tâches cognitives et métacognitives (plutôt que physiques) ; se focaliser sur le potentiel plutôt que sur la mise en œuvre ; se focaliser sur la validité écologique pour les tâches de référence ; et se focaliser sur le parcours vers l’AGI plutôt que sur la destination.

Par ailleurs, les chercheurs ont discuté des conséquences des principes pour le développement d’une référence dynamique et écologiquement pertinente en matière d’AGI, et ils ont soutenu que cette approche (bien qu’elle puisse être ardue) est cruciale pour la mobilisation de la communauté.

La conclusion des chercheurs de Google DeepMind sur l’intelligence artificielle générale (AGI) est qu’elle est possible et proche, et qu’il faut la développer de manière responsable et éthique. Cependant, il convient de relever que :

L’AGI est un objectif ambitieux et fascinant, mais aussi très incertain et risqué. Il n’existe pas de définition claire et universelle de ce qu’est l’AGI, ni de critère objectif pour la mesurer ou la reconnaître. Il est donc difficile de prédire quand et comment elle sera atteinte, et quelles seront ses capacités et ses limites. L’AGI pose des défis techniques, mais aussi philosophiques, sociaux et éthiques. Il faut se demander quel est le but de l’AGI, quelles sont ses valeurs et ses motivations, comment elle interagit avec les humains et les autres formes de vie, comment elle apprend et se souvient, comment elle s’adapte et se corrige, comment elle est contrôlée et régulée, etc.

En fin, l’AGI doit être développé de manière responsable et éthique, en respectant les principes de transparence, de sécurité, de fiabilité, de justice, de diversité, de respect, de coopération, de durabilité, etc. Il faut aussi impliquer les parties prenantes, les experts, les citoyens, les régulateurs, les organisations internationales, etc. dans le processus de conception, de développement, de déploiement et de gouvernance de l’AGI.

Source : Google DeepMind

Et vous ?

À votre avis, la conclusion des chercheurs de Google DeepMind est-elle pertinente ?

Quels sont selon vous, les principes et les normes éthiques qui doivent guider le développement et l’utilisation de l’AGI ?

Quels sont les risques et les bénéfices potentiels de l’AGI pour l’humanité et l’environnement ?

Quels sont les cadres juridiques et institutionnels qui doivent réguler et contrôler l’AGI ? Comment assurer la transparence, la responsabilité, la fiabilité et la sécurité de l’AGI ? Comment prévenir et résoudre les conflits et les abus liés à l’AGI ?

Voir aussi :

L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue, testée et annoncée publiquement d'ici 2040

L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint», selon des chercheurs

L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans a déclaré Masayoshi Son, PDG de SoftBank

« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert éminent https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 22/07/2024 à 16:33
Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ?
La question devrait-être : Devrait-on encore penser par nous même à l'ère de l'IA ?
Bon, déjà qu'une bonne partie ne font que reprendre la pensée de pseudo journalistes (qui sont plus des épandeurs d'idées pré-machées)
13  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 03/05/2024 à 3:59
C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

Je me suis fais mon idée, chacun étant libre de choisir la sienne.

BàV et "Peace & Love"
11  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 7:35
Citation Envoyé par Jade Emy Voir le message
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Bien sur, nous savons tous que le climat c'est comme une voiture, quand il est cassé on le répare, avec des tournevis et du WD40.
Bien sur, nous savons tous, surtout depuis la physique quantique, que la physique est un domaine fini que nous mettons du temps à découvrir parce que nous sommes médiocres.
Quel est votre avis sur le sujet ?
Sam Altman est un clown qui ne sait pas de quoi il parle.
Mais il le dit surement mieux que moi parce qu'il lève des millions d'euros avec ce genre d'intervention.
Sam Altman prévoit que l'IA sera une ressource qui fera l'objet de guerres et deviendra principalement un outil pour les riches.[...]
Bref la même chose qu'aujourd'hui mais en pire
[...]Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
Ah beh tout va bien alors...
Ceci dit non seulement on va réparer le climat et découvrir la physique mais en plus se sera monnaie courante...
11  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 29/11/2023 à 19:41
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
10  0 
Avatar de vmagnin
Membre éprouvé https://www.developpez.com
Le 29/11/2023 à 21:07
Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
(Pensées diverses IV - 6/23)

A relayer ad libitum...
10  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/05/2024 à 0:45
10  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/07/2024 à 9:34
Citation Envoyé par calvaire Voir le message
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter

De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.

Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.

Si vous voyez ou je veux en venir. Le loup et le troupeau.
10  0 
Avatar de Seb_de_lille
Membre habitué https://www.developpez.com
Le 01/12/2023 à 9:27
Tout a fait d'accord.

Le battage médiatique autour de l'IA commence vraiment à faire ch... . Ca ressemble à ce qu'on a déjà eu précédemment sur le metavers, les NFT, les blockchains, etc.
Et Developpez.com participe à ce battage puisqu'on ne peut pas passer une journée sans avoir un article au sujet de l'IA. Un peu de recul me semble nécessaire, voir indispensable.
9  0 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0