IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind
Pour le développement responsable des systèmes d'IA

Le , par Patrick Ruiz

3PARTAGES

10  0 
L’intelligence artificielle soulève déjà des questions difficiles pour l’humanité : les universitaires se demandent s’il faut revenir aux examens oraux à l’ère de ChatGPT, les professionnels de plusieurs métiers craignent désormais pour leurs emplois dans le futur, etc. La liste devrait aller en s’allongeant en cas d’atteinte par les équipes de recherche de l’intelligence artificielle de niveau humain. C’est la raison pour laquelle le PDG de Google Deepmind appelle au développement responsable des systèmes d’intelligence artificielle. La recette : poursuivre avec la compréhension des modèles actuels pour une transition en douce. Sinon, ce serait la porte ouverte à des catastrophes, comme déjà prédit par plusieurs acteurs et observateurs de la filière.

L’atteinte de l’intelligence artificielle de niveau humain est possible dans une décennie, selon le PDG de Google Deepmind. Rendues à ce stade, les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale (AGI), elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »


En attendant d’y être, le PDG de Google Deepmind recommande d’opter pour le développement responsable des systèmes d’intelligence artificielle pour une transition en douce. « Je suis pour que nous poursuivions avec les travaux sur des systèmes d’IA à déployer comme outils afin de nous permettre de mieux les comprendre avant d’aller à un autre stade », reconnaît-il en soulignant en sus que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »




Un ancien chercheur clé d'OpenAI estime qu'il y a des chances que l'intelligence artificielle générale (AGI) prenne le contrôle de l'humanité et la détruise

« Je le prends très au sérieux. Dans l'ensemble, nous parlons peut-être d'une probabilité de catastrophe de 50/50 peu de temps après que nous avons mis en place des systèmes qui concernent l'humain », déclare Paul Christiano.

Son propos rejoint celui de Geoffrey Hinton : « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. »


Stephen Hawking a prévenu en 2014 que le développement d'une IA de niveau humain pourrait sonner le glas de la race humaine

Stephen Hawking (1942-2018) est un physicien théoricien, cosmologiste et auteur britannique qui a apporté d'importantes contributions au domaine de la physique, en particulier dans l'étude des trous noirs et de la nature du temps. Il est également connu pour son livre à succès "Une brève histoire du temps", qui explique des concepts scientifiques complexes à un public populaire. Il a appris à 21 ans qu'il souffrait d'une sclérose latérale amyotrophique (SLA), une forme rare de maladie des neurones moteurs qui l'a progressivement laissé paralysé et incapable de parler. Mais malgré ses limitations physiques, il a continué à travailler et à communiquer.

Bien sûr, tout cela a été rendu possible grâce à des outils issus des premières années de l'IA : il s'est appuyé sur un dispositif de génération de la parole, qu'il utilisait pour donner des conférences et écrire des livres. Cet appareil, appelé "Equalizer", a été mis au point par une société californienne appelée Words Plus. Pour faire court, le gadget permettait à Hawking de sélectionner des mots et des phrases sur un écran d'ordinateur à l'aide d'un commutateur manuel, qu'il pouvait actionner grâce à ses fonctions motrices limitées. Une fois qu'il avait sélectionné un mot ou une phrase, l'appareil générait une voix synthétique qui prononçait les mots à haute voix.

Hawking a pu expérimenter l'un des cas d'utilisation de l'IA, mais quelques années avant sa mort, il a mis en garde contre les dangers potentiels que la technologie pourrait représenter pour l'humanité. Dans une interview accordée à la BBC en 2014, Hawking a déclaré que le développement d'une intelligence artificielle de niveau humain pourrait sonner le glas de l’espèce humaine. Bien qu'il utilisait lui-même une forme élémentaire d'IA, il a averti que la création de systèmes intelligents qui rivalisent avec l'intelligence humaine ou la surpassent pourrait être désastreuse pour l'homme. Rappelons qu'il a utilisé son dispositif de communication de 1985 à sa mort le 14 mars 2018.

« Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient supplantés », a ajouté Hawking. Dans son dernier livre, "Brief Answers to the Big Questions", publié après sa mort en 2018, Hawking a affirmé que les ordinateurs "dépasseront probablement les humains en matière d'intelligence" d'ici 100 ans. « Nous pourrions être confrontés à une explosion de l'intelligence qui aboutirait finalement à des machines dont l'intelligence dépasserait la nôtre de plus que la nôtre ne dépasse celle des escargots », a-t-il écrit dans son livre. Il a appelé à former l'IA pour qu'elle s'aligne systématiquement sur les objectifs humains.

En outre, il a prévenu que ne pas prendre au sérieux les risques associés à l'IA pourrait être la pire erreur que l'humanité ait jamais faite.

C’est la raison pour laquelle des experts de la filière demandent à tous les laboratoires d’interrompre la formation de systèmes d’intelligence artificielle

Dans une lettre ouverte, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie demandent une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité.

Au début du mois de mars, OpenAI, soutenue par Microsoft, a dévoilé la quatrième itération de son programme d'IA GPT (Generative Pre-trained Transformer), qui a séduit les utilisateurs par sa vaste gamme d'applications, allant de l'engagement des utilisateurs dans une conversation de type humain à la composition de chansons et au résumé de longs documents.

La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants.

« Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.

Selon le registre de transparence de l'Union européenne, Future of Life Institute est principalement financé par la Musk Foundation, ainsi que par le groupe Founders Pledge, basé à Londres, et la Silicon Valley Community Foundation.

Ces inquiétudes surviennent alors qu'Europol, la police de l'Union européenne, s'est jointe le 27 mars 2023 à un concert de préoccupations éthiques et juridiques concernant l'IA avancée telle que ChatGPT, mettant en garde contre l'utilisation abusive potentielle du système dans des tentatives de phishing, de désinformation et de cybercriminalité.

Dans le même temps, le gouvernement britannique a dévoilé des propositions pour un cadre réglementaire adaptable autour de l'IA. L'approche du gouvernement, décrite dans un document d'orientation publié il y a peu, répartirait la responsabilité de la gestion de l'intelligence artificielle entre les organismes de réglementation des droits de l'Homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie.

Les grandes enseignes technologiques multiplient les projets dans le but d’atteindre l’intelligence artificielle de niveau humain

Google par exemple est lancé en secret sur le développement de Pitchfork ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.

Un tel objectif pourrait ne plus relever de la science-fiction en cas d’atteinte du stade d’intelligence artificielle générale. Le tableau viendrait alors raviver la possibilité pour l’humanité d’entrer dans une ère de domination par les machines comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.

C’est d’ailleurs la raison pour laquelle Elon Musk travaille sur un projet visant à fusionner un cerveau humain et un ordinateur afin de permettre aux Hommes de rivaliser avec l’intelligence artificielle. Le « Neural Lace » est une interface cerveau-ordinateur permettant de relier le cerveau humain à des ordinateurs sans avoir besoin de connexion physique. Cette technologie donnerait aux humains la possibilité de fusionner avec l’intelligence artificielle et d’améliorer ainsi leur mémoire et leurs facultés cognitives. Cette puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau. C’est l’une des applications de cette interface cerveau-ordinateur à côté d’autres comme la possibilité de guérir la dépression et la dépendance.

Elon Musk est d’avis que seule la mise sur pied d’une interface cerveau-ordinateur peut permettre à l’Homme de subsister. Son initiative vise une sorte de symbiose avec l'intelligence artificielle, ce, à un degré qui rendrait le langage humain obsolète. Il suffirait alors de penser pour communiquer. Grosso modo, dans les laboratoires de la société d’Elon Musk, on est au « service de l’humanité. »

Source : Entretien en vidéo

Et vous ?

Quel est votre avis sur le sujet ?
Comment évaluez-vous les avancées en matière d’intelligence artificielle ? Quels sont les marqueurs qui laissent penser que ce n’est qu’une question de temps avant que la recherche n’atteigne le stade d’intelligence artificielle de niveau humain ? Est-il possible que ce ne soit jamais le cas ?

Voir aussi :

Les IA inamicales constituent-elles le plus grand risque pour l'humanité ? Oui, d'après le créateur d'Ethereum qui s'attend à une future catastrophe, causée par l'intelligence artificielle générale

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

Un chercheur de Google Deepmind cosigne un article selon lequel l'IA éliminera l'humanité et ravive les débats sur la possibilité d'un futur où la machine domine sur l'Homme

L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 29/11/2023 à 19:41
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
10  0 
Avatar de vmagnin
Membre éprouvé https://www.developpez.com
Le 29/11/2023 à 21:07
Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
(Pensées diverses IV - 6/23)

A relayer ad libitum...
10  0 
Avatar de Seb_de_lille
Membre habitué https://www.developpez.com
Le 01/12/2023 à 9:27
Tout a fait d'accord.

Le battage médiatique autour de l'IA commence vraiment à faire ch... . Ca ressemble à ce qu'on a déjà eu précédemment sur le metavers, les NFT, les blockchains, etc.
Et Developpez.com participe à ce battage puisqu'on ne peut pas passer une journée sans avoir un article au sujet de l'IA. Un peu de recul me semble nécessaire, voir indispensable.
9  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/10/2023 à 8:19
Une étude utilise des modèles économiques pour estimer la date d’arrivée de l’intelligence artificielle de niveau humain
Ça dépend de l'humain pris en modèle. Tu prends G. Darmanin, ma calculatrice à déjà largement le niveau (et elle date de 1982)
8  0 
Avatar de rsuinux
Membre habitué https://www.developpez.com
Le 29/11/2023 à 20:02
Citation Envoyé par kain_tn Voir le message
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
D'accord avec vous.
Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
8  0 
Avatar de pboulanger
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 15:26
La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
des développeurs compétents.

Comment devient-on un développeur compétent?
En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
8  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 28/02/2024 à 13:18
Je serai à la retraite avant Java. Et avant Cobol aussi.
7  0 
Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 18/09/2023 à 11:57
C'est pas tant les capacités de l'IA qui augmentent vite, l'abrutisation générale des gens facilite aussi la vie des vendeurs de rêve qui veulent vendre des trucs tous pourris
6  0