IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ?
Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

Le , par Mathis Lucas

5PARTAGES

17  0 
L'atteinte d'une intelligence générale artificielle (AGI) est le but ultime des entreprises d'IA. Mais si les experts en IA tentent de prédire le moment où cela arrivera, presque aucun d'entre eux ne parvient clairement à répondre à la question : comment l'AGI se manifestera-t-elle ? La réponse semble facile, mais tout le monde ne s'accorde pas sur le sujet. Selon certains technologues et experts en IA, il est peu probable que les gens se rendent compte qu'ils interagissent avec une AGI. Un autre groupe estime que nous serons en présence d'une AGI lorsque la machine aura une cognition de niveau humain. Au sein de la communauté, la notion même d'AGI fait l'objet de polémiques.

En termes simples, l'intelligence artificielle générale est une forme "hypothétique" d'intelligence artificielle dans laquelle une machine peut apprendre et penser comme un humain. Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et une conscience tout court, afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâches. Si l'AGI - également appelée "IA forte" - semble relever de la science-fiction, c'est parce qu'elle est encore d'actualité. Les formes d'IA existantes n'ont pas encore atteint le niveau de l'AGI, mais les chercheurs en IA et les entreprises travaillent toujours pour en faire une réalité.

L'IA (dite faible) est en fait formée à partir de donnée pour effectuer des tâches spécifiques ou une série de tâches limitées à un seul contexte. Plusieurs formes d'IA s'appuient sur des algorithmes ou des règles préprogrammées pour guider leurs actions et apprendre à fonctionner dans un certain environnement. Par contre, l'AGI se veut capable de raisonner et de s'adapter à de nouveaux environnements et à différents types de données. Au lieu de dépendre de règles prédéfinies pour fonctionner, l'AGI adopte une approche de résolution de problèmes et d'apprentissage. Selon les experts, l'AGI devrait faire preuve des mêmes capacités de raisonnement que les humains.


L'IA faible ou étroite est le type d'IA qui pilote les véhicules autonomes, les générateurs d'images et les chatbots. En d'autres termes, il s'agit d'une IA qui exécute une gamme limitée de tâches. Deux sous-ensembles d'IA entrent dans la catégorie de l'IA faible : les machines réactives et les machines à mémoire limitée. Les machines réactives peuvent réagir à des stimuli immédiats, mais ne peuvent pas stocker ou apprendre à partir de souvenirs d'actions passées. Les machines à mémoire limitée peuvent stocker des informations passées afin d'améliorer leurs performances au fil du temps. Elles représentent la majorité des outils d'IA disponibles aujourd'hui.

Cependant, l'AGI brouille la frontière entre l'intelligence humaine et l'intelligence des machines. Il y a trois principaux avis sur le sujet. Certains experts en IA pensent que nous serons en présence d'une AGI lorsque les machines feront preuve d'une cognition de niveau humain. Mais cette affirmation est controversée par d'autres experts qui pensent que la manifestation de l'AGI sera implicite et qu'il sera difficile de prouver qu'une forme d'IA est une AGI. Un troisième groupe d'experts réfute ces deux arguments et affirme que l'AGI est "irréalisable". En outre, il faut aussi noter que les experts sont divisés sur la notion même d'intelligence générale artificielle.

« L'AGI n'est pas une ligne définie où elle existe d'un côté et n'existe pas de l'autre. Il s'agit d'un état subjectif de l'IA qui, à mon avis, se développera progressivement sur un spectre. À mon avis, certaines personnes penseront qu'elle existe, d'autres non, et cela s'ajustera graduellement jusqu'à ce qu'il y ait plus de gens qui pensent que cela existe que de gens qui ne le pensent pas », peut-on lire dans les commentaires. Un autre a écrit : « nous atteindrons l'AGI lorsque les capacités des machines seront bien supérieures à celles des humains dans de nombreux domaines. L'AGI n'existera jamais, car dès qu'elle sera là, elle sera déjà supérieure à l'homme ».

« Il ne s'agit pas d'une chose binaire. Les Transformers font déjà des choses de bas niveau en matière d'AGI. L'AGI augmentera probablement de manière progressive, avec quelques percées occasionnelles donnant lieu à des avancées plus importantes que la normale. Rien ne prouve que l'AGI passera de 1 à 1000 en une nuit. Je ne pense même pas que les Transformers soient capables d'une AGI de niveau humain, et je ne connais pas d'architecture qui le permette. Je ne parierai donc pas sur une AGI de niveau humain dans un avenir prévisible », a écrit un autre critique. Même les experts en IA de premier plan semblent divisés sur la question.


Après la sortie de GPT-4, une équipe de scientifiques de Microsoft a prétendu dans un rapport d'étude que la technologie d'OpenAI montre des "étincelles" d'une AGI. « Compte tenu de l'étendue et de la profondeur des capacités de GPT-4, nous pensons qu'il pourrait raisonnablement être considéré comme une version précoce, mais encore incomplète) d'une AGI ». Mais cette affirmation et la méthode utilisée par l'équipe pour arriver à cette conclusion ont fait l'objet d'une grande controverse. Mais comment l'AGI se manifestera-t-elle une fois qu'elle sera une réalité ? Les experts prédisent son arrivée, mais ne disent pas comment on saura qu'il est là :

Sam Altman, cofondateur et PDG d'OpenAI

Dans une interview avec Lex Fridman, expert en IA et présentateur de podcast, en mars dernier, Altman a déclaré que bien que les progrès rapides sont faits dans le domaine de l'IA, le calendrier de l'AGI est incertain. Il a souligné l'importance de discuter et d'aborder la possibilité que l'AGI constitue une menace existentielle pour l'humanité. Il préconise la découverte de nouvelles techniques pour atténuer les dangers potentiels et l'itération à travers des problèmes complexes pour apprendre tôt et limiter les scénarios à haut risque. Altman a demandé ensuite à son interlocuteur s'il pensait que GPT-4 était une AGI, ce à quoi Fridman a répondu :

« Je pense que si c'est le cas, comme pour les vidéos d'OVNI, nous ne le saurions pas tout de suite. Je pense qu'il est difficile de le savoir quand je réfléchis. Je jouais avec GPT-4 et je me demandais comment je pourrais savoir s'il s'agit d'une AGI ou non. En d'autres termes, quelle est la part de l'AGI dans l'interface que j'ai avec cette chose ? Et quelle est la part de la sagesse qu'elle renferme ? Une partie de moi pense que l'on pourrait avoir un modèle capable d'une "super intelligence" et qu'on ne l'a pas encore tout à fait débloquée. C'est ce que j'ai vu avec ChatGPT ». Altman a parlé ensuite des dangers potentiels de l'AGI et de ses avantages.

Altman a déclaré cette semaine dans le forum Reddit r/singularity que son entreprise avait mis au point une IA de niveau humain, mais il s'est tout de suite ravisé et a affirmé que le produit développé par OpenAI ne faisait que "mimer" l'intelligence humaine. Certains critiques l'ont accusé de faire la publicité mensongère. « De toute évidence, il s'agit juste d'un mème, vous n'avez pas froid aux yeux, lorsque l'AGI sera réalisée, elle ne sera pas annoncée par un commentaire sur Reddit », a-t-il déclaré.

Elon Musk, PDG de Tesla et de X.ai

Musk a créé une nouvelle startup d'IA, xAI, pour se lancer dans la course à l'IA. Avec xAI, Musk a rassemblé plusieurs experts en IA, avec l'objectif audacieux de "comprendre la vraie nature de l'univers". « L'objectif principal de xAI est de construire une AGI meilleure dont le but principal est d'essayer de comprendre l'univers. Je pense que nous pouvons créer une alternative compétitive qui, je l'espère, sera meilleure que Google DeepMind, OpenAI ou Microsoft », a déclaré Musk. Bien qu'il n'ait pas dit comment il compte y arriver, il a indiqué une date précise à laquelle il s'attend à ce que l'AGI devienne une réalité : à peu près en 2029.

Geoffrey Hinton, lauréat du prix Turing et ex-Googler

Geoffrey Hinton est un chercheur canadien spécialiste de l'IA et plus particulièrement des réseaux de neurones artificiels. Ancien membre de l'équipe Google Brain, il a choisi de quitter son poste pour mettre en garde contre les risques de l'IA. Après son départ, il a prédit le moment où l'IA dépassera l'intelligence humaine. « Je prédis maintenant cinq à 20 ans, mais sans grande confiance. Nous vivons une époque très incertaine. Il est possible que je me trompe totalement sur le fait que l'intelligence numérique nous dépasse. Personne ne le sait vraiment et c'est la raison pour laquelle nous devrions nous inquiéter dès maintenant », a-t-il déclaré en mai.

Ray Kurzweil, auteur, chercheur et futurologue

Ray Kurzweil, chercheur et célèbre futurologue américain, a fait de nombreuses prédictions au fil des ans et quelques-unes se sont avérées admirablement précises. Lors de la conférence SXSW 2017 à Austin, au Texas, Ray Kurzweil a fait la prédiction suivant : « d'ici 2029, les ordinateurs auront une intelligence de niveau humain. Cela signifie que les ordinateurs auront une intelligence humaine, que nous les mettrons dans nos cerveaux, que nous les connecterons au cloud et que nous élargirons ce que nous sommes. Aujourd'hui, il ne s'agit pas seulement d'un scénario futur. C'est déjà le cas, en partie, et cela va s'accélérer ».

Ben Goertzel, PDG de SingularityNET

Figure controversée dans les milieux technologiques, Ben Goertzel a contribué à populariser le terme AGI. Il est également enclin à faire des déclarations audacieuses sur l'avenir de la technologie. Lors d'une conférence en 2018, il en a ajouté quelques-unes. « Je ne pense pas que nous ayons besoin d'algorithmes fondamentalement nouveaux. Je pense que nous devons connecter nos algorithmes d'une manière différente de ce que nous faisons aujourd'hui. Si j'ai raison, alors nous avons déjà les algorithmes de base dont nous avons besoin. Je pense que nous sommes à moins de dix ans de la création d'une IA de niveau humain », a-t-il déclaré.

Mais il a ajouté une phrase laissant penser qu'il plaisantait à propos de cette prédiction. « Cela se produira le 8 décembre 2026, le jour de mon 60e anniversaire. Je retarderai l'événement jusqu'à cette date pour organiser une grande fête d'anniversaire », a-t-il ajouté.

John Carmack, développeur de Doom

John Carmack pense que l'AGI pourrait être atteinte d’ici 2030 et a lancé un partenariat avec un institut de recherche en Alberta pour en accélérer le développement. Carmack a fait part de son point de vue lors d'un événement organisé à l'occasion de l'annonce de l'embauche de Richard Sutton, conseiller scientifique en chef de l'Alberta Machine Intelligence Institute, par Keen, sa startup consacrée au développement de l’AGI. Sutton est d'avis qu'il n'est pas impossible de coder une AGI avec les techniques actuelles et considère l'année 2030 comme un objectif envisageable pour qu'un prototype d'IA montre des signes de conscience.

Yoshua Bengio, professeur d'informatique à l'Université de Montréal

Yoshua Bengio est également un lauréat du prix Turing. Comme son ami et collègue Yann LeCunn, lauréat du prix Turing, Bengio préfère le terme "intelligence de niveau humain" à celui d'intelligence artificielle. Quoi qu'il en soit, il est sceptique quant aux prédictions concernant son avènement. « Je ne pense pas qu'il soit plausible de savoir quand, dans combien d'années ou de décennies, il faudra atteindre l'IA de niveau humain », a déclaré Bengio.

Demis Hassabis, PDG de Google DeepMind

Demis Hassabis a fait de Google DeepMind (anciennement DeepMind), dont le siège est à Londres, en Angleterre, l'un des principaux laboratoires d'IA au monde. Sa mission principale est de développer une AGI. Il définit l'AGI comme "une cognition de niveau humain" et a déclaré au début de l'année : « les progrès réalisés ces dernières années ont été assez incroyables. Je ne vois aucune raison pour que ces progrès ralentissent. Je pense même qu'ils pourraient s'accélérer. Je pense donc que nous ne sommes plus qu'à quelques années, voire à une décennie près ». Il partage également l'avis selon lequel l'AGI est une menace existentielle pour l'humanité.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la notion d'AGI et des controverses qui l'entourent ?
Que pensez-vous des prédictions sur la date d'arrivée de la première forme d'AGI ? Sont-elles réalistes ?
Comment saurons-nous que nous avons atteint une forme d'AGI ? En existe-t-il déjà ?
Les systèmes d'IA actuels laissent-ils entrevoir l'arrivée prochaine d'une forme d'AGI ? Pourquoi ?
Partagez-vous l'avis selon lequel une forme d'AGI ne sera jamais atteinte ? Pourquoi ?

Voir aussi

John Carmack, développeur de Doom, pense que l'IA générale (AGI) est réalisable d'ici 2030 et lance un partenariat avec un institut de recherche en Alberta pour en accélérer le développement

Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale : « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique, selon Geoffrey Hinton, un des pionniers de la recherche en intelligence artificielle

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de OuftiBoy
Membre averti https://www.developpez.com
Le 03/05/2024 à 3:59
C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

Je me suis fais mon idée, chacun étant libre de choisir la sienne.

BàV et "Peace & Love"
11  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 29/11/2023 à 19:41
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
10  0 
Avatar de vmagnin
Membre éprouvé https://www.developpez.com
Le 29/11/2023 à 21:07
Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
(Pensées diverses IV - 6/23)

A relayer ad libitum...
10  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/05/2024 à 0:45
10  0 
Avatar de Seb_de_lille
Membre habitué https://www.developpez.com
Le 01/12/2023 à 9:27
Tout a fait d'accord.

Le battage médiatique autour de l'IA commence vraiment à faire ch... . Ca ressemble à ce qu'on a déjà eu précédemment sur le metavers, les NFT, les blockchains, etc.
Et Developpez.com participe à ce battage puisqu'on ne peut pas passer une journée sans avoir un article au sujet de l'IA. Un peu de recul me semble nécessaire, voir indispensable.
9  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/10/2023 à 8:19
Une étude utilise des modèles économiques pour estimer la date d’arrivée de l’intelligence artificielle de niveau humain
Ça dépend de l'humain pris en modèle. Tu prends G. Darmanin, ma calculatrice à déjà largement le niveau (et elle date de 1982)
8  0 
Avatar de rsuinux
Membre habitué https://www.developpez.com
Le 29/11/2023 à 20:02
Citation Envoyé par kain_tn Voir le message
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
D'accord avec vous.
Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
8  0 
Avatar de pboulanger
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 15:26
La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
des développeurs compétents.

Comment devient-on un développeur compétent?
En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
8  0