IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind
Pour le développement responsable des systèmes d'IA

Le , par Patrick Ruiz

3PARTAGES

9  0 
L’intelligence artificielle soulève déjà des questions difficiles pour l’humanité : les universitaires se demandent s’il faut revenir aux examens oraux à l’ère de ChatGPT, les professionnels de plusieurs métiers craignent désormais pour leurs emplois dans le futur, etc. La liste devrait aller en s’allongeant en cas d’atteinte par les équipes de recherche de l’intelligence artificielle de niveau humain. C’est la raison pour laquelle le PDG de Google Deepmind appelle au développement responsable des systèmes d’intelligence artificielle. La recette : poursuivre avec la compréhension des modèles actuels pour une transition en douce. Sinon, ce serait la porte ouverte à des catastrophes, comme déjà prédit par plusieurs acteurs et observateurs de la filière.

L’atteinte de l’intelligence artificielle de niveau humain est possible dans une décennie, selon le PDG de Google Deepmind. Rendues à ce stade, les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale (AGI), elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »


En attendant d’y être, le PDG de Google Deepmind recommande d’opter pour le développement responsable des systèmes d’intelligence artificielle pour une transition en douce. « Je suis pour que nous poursuivions avec les travaux sur des systèmes d’IA à déployer comme outils afin de nous permettre de mieux les comprendre avant d’aller à un autre stade », reconnaît-il en soulignant en sus que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »






Un ancien chercheur clé d'OpenAI estime qu'il y a des chances que l'intelligence artificielle générale (AGI) prenne le contrôle de l'humanité et la détruise

« Je le prends très au sérieux. Dans l'ensemble, nous parlons peut-être d'une probabilité de catastrophe de 50/50 peu de temps après que nous avons mis en place des systèmes qui concernent l'humain », déclare Paul Christiano.

Son propos rejoint celui de Geoffrey Hinton : « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. »


Stephen Hawking a prévenu en 2014 que le développement d'une IA de niveau humain pourrait sonner le glas de la race humaine

Stephen Hawking (1942-2018) est un physicien théoricien, cosmologiste et auteur britannique qui a apporté d'importantes contributions au domaine de la physique, en particulier dans l'étude des trous noirs et de la nature du temps. Il est également connu pour son livre à succès "Une brève histoire du temps", qui explique des concepts scientifiques complexes à un public populaire. Il a appris à 21 ans qu'il souffrait d'une sclérose latérale amyotrophique (SLA), une forme rare de maladie des neurones moteurs qui l'a progressivement laissé paralysé et incapable de parler. Mais malgré ses limitations physiques, il a continué à travailler et à communiquer.

Bien sûr, tout cela a été rendu possible grâce à des outils issus des premières années de l'IA : il s'est appuyé sur un dispositif de génération de la parole, qu'il utilisait pour donner des conférences et écrire des livres. Cet appareil, appelé "Equalizer", a été mis au point par une société californienne appelée Words Plus. Pour faire court, le gadget permettait à Hawking de sélectionner des mots et des phrases sur un écran d'ordinateur à l'aide d'un commutateur manuel, qu'il pouvait actionner grâce à ses fonctions motrices limitées. Une fois qu'il avait sélectionné un mot ou une phrase, l'appareil générait une voix synthétique qui prononçait les mots à haute voix.

Hawking a pu expérimenter l'un des cas d'utilisation de l'IA, mais quelques années avant sa mort, il a mis en garde contre les dangers potentiels que la technologie pourrait représenter pour l'humanité. Dans une interview accordée à la BBC en 2014, Hawking a déclaré que le développement d'une intelligence artificielle de niveau humain pourrait sonner le glas de l’espèce humaine. Bien qu'il utilisait lui-même une forme élémentaire d'IA, il a averti que la création de systèmes intelligents qui rivalisent avec l'intelligence humaine ou la surpassent pourrait être désastreuse pour l'homme. Rappelons qu'il a utilisé son dispositif de communication de 1985 à sa mort le 14 mars 2018.

« Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient supplantés », a ajouté Hawking. Dans son dernier livre, "Brief Answers to the Big Questions", publié après sa mort en 2018, Hawking a affirmé que les ordinateurs "dépasseront probablement les humains en matière d'intelligence" d'ici 100 ans. « Nous pourrions être confrontés à une explosion de l'intelligence qui aboutirait finalement à des machines dont l'intelligence dépasserait la nôtre de plus que la nôtre ne dépasse celle des escargots », a-t-il écrit dans son livre. Il a appelé à former l'IA pour qu'elle s'aligne systématiquement sur les objectifs humains.

En outre, il a prévenu que ne pas prendre au sérieux les risques associés à l'IA pourrait être la pire erreur que l'humanité ait jamais faite.

C’est la raison pour laquelle des experts de la filière demandent à tous les laboratoires d’interrompre la formation de systèmes d’intelligence artificielle

Dans une lettre ouverte, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie demandent une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité.

Au début du mois de mars, OpenAI, soutenue par Microsoft, a dévoilé la quatrième itération de son programme d'IA GPT (Generative Pre-trained Transformer), qui a séduit les utilisateurs par sa vaste gamme d'applications, allant de l'engagement des utilisateurs dans une conversation de type humain à la composition de chansons et au résumé de longs documents.

La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants.

« Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.

La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.

Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.

Selon le registre de transparence de l'Union européenne, Future of Life Institute est principalement financé par la Musk Foundation, ainsi que par le groupe Founders Pledge, basé à Londres, et la Silicon Valley Community Foundation.

Ces inquiétudes surviennent alors qu'Europol, la police de l'Union européenne, s'est jointe le 27 mars 2023 à un concert de préoccupations éthiques et juridiques concernant l'IA avancée telle que ChatGPT, mettant en garde contre l'utilisation abusive potentielle du système dans des tentatives de phishing, de désinformation et de cybercriminalité.

Dans le même temps, le gouvernement britannique a dévoilé des propositions pour un cadre réglementaire adaptable autour de l'IA. L'approche du gouvernement, décrite dans un document d'orientation publié il y a peu, répartirait la responsabilité de la gestion de l'intelligence artificielle entre les organismes de réglementation des droits de l'Homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie.

Les grandes enseignes technologiques multiplient les projets dans le but d’atteindre l’intelligence artificielle de niveau humain

Google par exemple est lancé en secret sur le développement de Pitchfork ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation et en appliquant ces connaissances pour écrire de nouvelles lignes de code.

L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.

Un tel objectif pourrait ne plus relever de la science-fiction en cas d’atteinte du stade d’intelligence artificielle générale. Le tableau viendrait alors raviver la possibilité pour l’humanité d’entrer dans une ère de domination par les machines comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.

C’est d’ailleurs la raison pour laquelle Elon Musk travaille sur un projet visant à fusionner un cerveau humain et un ordinateur afin de permettre aux Hommes de rivaliser avec l’intelligence artificielle. Le « Neural Lace » est une interface cerveau-ordinateur permettant de relier le cerveau humain à des ordinateurs sans avoir besoin de connexion physique. Cette technologie donnerait aux humains la possibilité de fusionner avec l’intelligence artificielle et d’améliorer ainsi leur mémoire et leurs facultés cognitives. Cette puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau. C’est l’une des applications de cette interface cerveau-ordinateur à côté d’autres comme la possibilité de guérir la dépression et la dépendance.

Elon Musk est d’avis que seule la mise sur pied d’une interface cerveau-ordinateur peut permettre à l’Homme de subsister. Son initiative vise une sorte de symbiose avec l'intelligence artificielle, ce, à un degré qui rendrait le langage humain obsolète. Il suffirait alors de penser pour communiquer. Grosso modo, dans les laboratoires de la société d’Elon Musk, on est au « service de l’humanité. »

Source : Entretien en vidéo

Et vous ?

Quel est votre avis sur le sujet ?
Comment évaluez-vous les avancées en matière d’intelligence artificielle ? Quels sont les marqueurs qui laissent penser que ce n’est qu’une question de temps avant que la recherche n’atteigne le stade d’intelligence artificielle de niveau humain ? Est-il possible que ce ne soit jamais le cas ?

Voir aussi :

Les IA inamicales constituent-elles le plus grand risque pour l'humanité ? Oui, d'après le créateur d'Ethereum qui s'attend à une future catastrophe, causée par l'intelligence artificielle générale

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

Un chercheur de Google Deepmind cosigne un article selon lequel l'IA éliminera l'humanité et ravive les débats sur la possibilité d'un futur où la machine domine sur l'Homme

L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 11/05/2023 à 10:11
Citation Envoyé par eric44000 Voir le message
Le stade est dépassé. ChatGPT réussit tous les concours avec mention "très bien". Aucun humain ne peut rivaliser, même en cherchant dans la catégorie surdoués. Alors bien sur, parfois il est très bête. Par exemple je lui ait demandé d'analyser la 1ere strophe du poème "Le bateau ivre" d'Arthur Rimbaud. C'est un désastre. Il faut que je lui explique que le narrateur n'est pas Rimbaud mais le bateau. En lui expliquant que le poète a fait une figure de style, une personnification en l’occurrence, il comprend très bien.
Alors je poursuis et lui demande de composer un tableau pour illustrer cette strophe. Et là, il est remarquable. Il connait les symboles des formes et des couleurs comme un critique d'art. Je transmet à Midjourney sa description du tableau en ajoutant quelques mots-clé (car il ne connait pas la manière de faire un prompt pour un générateur d'images).
Et bien le résultat est d'une très grande qualité. Bref, tout ça pour dire que la combinaison homme/machine est bénéfique. Alors avoir peur que la machine prenne le pouvoir, je vois pas comment. C'est la machine qui est au service de l'homme et non l'inverse. D'ailleurs, a écouter les Cassandre, la machine serait tellement intelligente qu'on serait trop bête pour comprendre ce qu'elle dit. Et puis quoi encore ?
Je vois que du faux dans ce que vous dites.
Au début ChatGpt qui n'est pas du tout une AGI et qui ne fait pas du mention très bien a tout. ChatGpt est un outil capable de tenir une conversation et si ce qu'il raconte est souvent impressionnant sur un sujet mal connu, il est plus proche de la médiocrité quand il échange avec un spécialiste. Bref il est remarquable sur la forme mais très médiocre sur le fond.
A la fin quelle naïveté que de penser qu'on peut comprendre ce que dit une machine. Aujourd'hui déjà aucun humain ne peut suivre en temps réelle ce que raconte une machine dans ses échanges internes alors que nous savons le langage qu'on lui a donné pour fonctionner, c'est bien pour cela qu'on l'utilise d'ailleurs. Si demain la machine est réellement intelligent libre a elle de communiquer de pleins de manières différentes que nous serions non seulement incapables de suivre assez vite comme aujourd'hui mais aussi incapable de suivre parce que totalement inconnu pour nous.
Les machines aujourd'hui nous aident parce qu'elles font ce qu'on leur demande et c'est bien pour cela que quand il y a problème on peut affirmer que le bug est entre la chaise et le clavier. Le jour où on pourra parler de machine intelligente alors la bêtise et maladresse dépassera largement le clavier.
1  1 
Avatar de Franck Z
Membre régulier https://www.developpez.com
Le 14/05/2023 à 15:08
Citation Envoyé par eric44000 Voir le message
[..]
Alors je poursuis et lui demande de composer un tableau pour illustrer cette strophe. Et là, il est remarquable. Il connait les symboles des formes et des couleurs comme un critique d'art. Je transmet à Midjourney sa description du tableau en ajoutant quelques mots-clé (car il ne connait pas la manière de faire un prompt pour un générateur d'images).
Et bien le résultat est d'une très grande qualité.
[..]
Sous réserve que je n'interprète pas mal l'origine de ces images, il me semble qu'on a commencé à voir dans les reportages JT/Envoyé Spécial de France 2 des images générées par IA comme illustration d'arrière-plan des commentaires ou des enregistrements audio.

Pour ma part, j'ai réagi par une sensation désagréable en les voyant : au lieu de suivre le message qu'elles contenaient, je les ai observées en tant qu'images artificielles, un peu comme un défaut de prononciation ou une déformation physique chez un interlocuteur parasite la possibilité de suivre son discours. Ça me rappelle les films en 3D de ces dernières années. Après en avoir vu quelques uns, je les ai évités parce qu'en tant que spectateur, cela me faisait "sortir du film".

Pour l'instant, pour moi, ces images générées, c'est "non".

A fortiori, qu'on ne s'aventure pas à parasiter mon cerveau avec des puces ! D'ailleurs, l'idée d'augmenter artificiellement les capacités cérébrales a déjà été jugée non-souhaitable par l'humanité. C'est le retour d'expérience des drogues. Même avec une intention thérapeutique, on sait qu'il y a un prix à payer en termes d'effets indésirables quand on prend un traitement psychotrope. Pour l'instant, il semble qu'on ne modifie pas l'équilibre systémique d'un cerveau sans qu'il perde de ses capacités : le projet d'Elon Musk serait naïf sur ce point.
0  0 
Avatar de eric44000
Membre actif https://www.developpez.com
Le 03/05/2023 à 22:53
Citation Envoyé par Patrick Ruiz Voir le message
Comment évaluez-vous les avancées en matière d’intelligence artificielle ? Quels sont les marqueurs qui laissent penser que ce n’est qu’une question de temps avant que la recherche n’atteigne le stade d’intelligence artificielle de niveau humain ? Est-il possible que ce ne soit jamais le cas ?
Le stade est dépassé. ChatGPT réussit tous les concours avec mention "très bien". Aucun humain ne peut rivaliser, même en cherchant dans la catégorie surdoués. Alors bien sur, parfois il est très bête. Par exemple je lui ait demandé d'analyser la 1ere strophe du poème "Le bateau ivre" d'Arthur Rimbaud. C'est un désastre. Il faut que je lui explique que le narrateur n'est pas Rimbaud mais le bateau. En lui expliquant que le poète a fait une figure de style, une personnification en l’occurrence, il comprend très bien.
Alors je poursuis et lui demande de composer un tableau pour illustrer cette strophe. Et là, il est remarquable. Il connait les symboles des formes et des couleurs comme un critique d'art. Je transmet à Midjourney sa description du tableau en ajoutant quelques mots-clé (car il ne connait pas la manière de faire un prompt pour un générateur d'images).
Et bien le résultat est d'une très grande qualité. Bref, tout ça pour dire que la combinaison homme/machine est bénéfique. Alors avoir peur que la machine prenne le pouvoir, je vois pas comment. C'est la machine qui est au service de l'homme et non l'inverse. D'ailleurs, a écouter les Cassandre, la machine serait tellement intelligente qu'on serait trop bête pour comprendre ce qu'elle dit. Et puis quoi encore ?
2  3