IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA
Dont la désinformation et l'élimination des humains par les robots

Le , par Patrick Ruiz

29PARTAGES

19  0 
Geoffrey Hinton, un des pionniers de l'apprentissage profond, a quitté son emploi chez Google pour être libre de parler des dangers de l'intelligence artificielle. Sa préoccupation immédiate : la désinformation. Sur le long terme, il craint que l’intelligence artificielle n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique.


Google a dévoilé Bard, sa réponse à ChatGPT, au début du mois de février suite à une alerte rouge lancée en son sein contre le chatbot de l’entreprise OpenAI. « Il pourrait être impossible de mettre un terme à cette concurrence féroce, qui aboutirait à un monde contenant tellement d'images et de textes truqués que plus personne ne serait en mesure de dire ce qui est vrai », déclare Hinton dans le cadre d’un récent entretien. Et c’est ce que confirment de récents développements en lien avec ChatGPT et Google Bard.


Google Bard contre ChatGPT et les dangers en lien avec la qualité de l’information

Google a annoncé l’intégration de l’IA conversationnelle à son moteur de recherches il y a peu. La décision n’est pas inattendue. En effet, elle fait suite au lancement par Microsoft d’une version de son propre moteur de recherches Bing qui s’appuie sur ChatGPT.

Ce qu’on sait de ces intelligences artificielles d’OpenAI et de Google est qu’il s’agit de chatbots capable de comprendre le langage naturel et de répondre en langage naturel. Elles peuvent donner de façon directe des solutions à des problèmes complexes. C’est la raison pour laquelle certaines institutions universitaires en interdisent l’usage à leurs étudiants. Le professeur Arvind Narayanan de l’université de Princeton tire néanmoins la sonnette d’alarme sur la pertinence de s’appuyer sur des moteurs de recherche intégrant ces chatbots en déclarant que c’est de la « poudre de perlimpinpin. »

« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.

Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il à propos de ChatGPT.

D’ailleurs, une mouture de Microsoft Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population de la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.


Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »


Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.


C’est cette imprécision qui a poussé les développeurs et les experts de la filière à avertir que cette technologie ne devrait pas être utilisée pour prendre des décisions importantes pour le moment.

L’intelligence artificielle générale serait plus proche qu’on ne le pense et avec elle des risques d’élimination des humains par les robots

« L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute-t-il. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.

« Ça fait dix ans que je lance cette alerte. Nous devrions nous inquiéter de la direction que prend l'intelligence artificielle. Les personnes que je vois se tromper le plus sur ce sujet sont celles qui sont très intelligentes, ce, parce qu'elles ne peuvent pas imaginer qu'un ordinateur puisse être beaucoup plus intelligent qu'elles. C'est la faille de leur raisonnement. Elles sont juste beaucoup plus bêtes qu'elles ne le pensent », rapporte un correspondant du Financial Times.

De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.

Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle.

Source : NYT

Et vous ?

Quelle pertinence trouvez-vous à ces différents propos en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Voyez-vous la recherche en la matière aboutisse à l’intelligence artificielle générale ?

Voir aussi :

L'IA de génération de texte d'Elon Musk trop dangereuse pour être rendue publique, selon ses créateurs
Le projet de tunnel du milliardaire de la tech Elon Musk est-il une vaste blague ? The Boring Company a inauguré son premier tunnel anti-bouchons
Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC et l'Homme fusionne avec l'IA, aberration ou fiction ?
Elon Musk rappelle qu'en rendant publics les brevets Tesla, il a œuvré pour le bien de la planète et l'essor du marché des véhicules électriques

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 02/05/2023 à 13:39
le problème c'est que si demain y'a plus personne pour écrire des pages web avec du vrai contenus, ces ia vont tourner en rond.

C'est ce qui pourrait bien se produire, si demain tous le monde abandonne les sites web au profit de chatgpt, plus aucun site web ne pourra fonctionner (soit car pas d'argent car personne ne voit plus les pub, soit car y'aura plus aucune fréquentation alors pourquoi tenir un blog de qualité si personne pour le lire...)
ca va faire du surplace tôt ou tard car ces ia ne crée rien.

si demain on les programmes pour écrire du contenus, elle apprendra sur elle même par la suite, donc sur ces propres conneries...
2  1 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 02/05/2023 à 17:47
Citation Envoyé par calvaire Voir le message
le problème c'est que si demain y'a plus personne pour écrire des pages web avec du vrai contenus, ces ia vont tourner en rond.

C'est ce qui pourrait bien se produire, si demain tous le monde abandonne les sites web au profit de chatgpt, plus aucun site web ne pourra fonctionner (soit car pas d'argent car personne ne voit plus les pub, soit car y'aura plus aucune fréquentation alors pourquoi tenir un blog de qualité si personne pour le lire...)
ca va faire du surplace tôt ou tard car ces ia ne crée rien.

si demain on les programmes pour écrire du contenus, elle apprendra sur elle même par la suite, donc sur ces propres conneries...
Je pense qu'on peut considérer que le web dont tu parles est déjà mort depuis des années.

developpez.net est un des derniers forum actif que je fréquente. Tous les forums, qui étaient très vivants il y a une dizaine d'année ont totalement été désertés et remplacés (en moins bien) par les réseaux sociaux. Pareil les blogs ont tendance à disparaître.

On a aussi tendance à oublier une chose, c'est que le web d'il y a 20-30 ans c'était beaucoup de sites auto hébergés. De nos jours c'est devenu trivial de faire son site web et de l'auto héberger, par exemple sur un raspberry pi. Et ça coûte presque rien, donc pas besoin de pubs. Pourtant je ne connais personne qui le fait.

La tendance actuelle est à alimenter des grosses plateformes, qui se font leur beurre sur les utilisateurs. Mais tout est déjà très centralisé.
Même dans les sites commerciaux se font absorber par de grosses plateformes style Amazon.

Puis tout le contenu produit est devenu très "consommation". Comme tu le relèves les plateformes sont à la course à la pub. Et c'est pas le contenu de qualité qui génère de la vue, mais du contenu produit en masse.

Bref je pense juste que ChatGPT et ces technos vont exacerber un problème qui était déjà bien présent.
Moi ce qui me fait le plus peur, c'est les entreprises qui sont derrière, comme OpenAI, qui considèrent le contenu d'internet comme leur appartenant.
Demain leur bot crawl un site web et hop, leur ChatGPT à ingurgité les données (pourtant protégées par le droit d'auteur) sans aucun consentement.

On se rappellera aussi l'épisode de Copilot. Pour l'instant limité à github, mais rien ne dit qu'ils n'iront pas plus loin...
1  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 03/05/2023 à 12:58
Citation Envoyé par calvaire Voir le message
le reste c'est inutile pour une ia, je vois pas comment on peut entrainer un chatbot de qualité avec le contenu qu'on trouve sur facebook ou twitter.
peut etre en volant la retranscription youtube pour des videos de qualité (comme ceux la chaine science étonnante)
Je pense que tout dépend ce qu'on appelle "qualité". Les critères ne sont pas les même selon le résultat voulus.

Pour le cas de ChatGPT l'idée a la base était surtout de faire un modèle étonnamment humain, et capable de converser.
Même des discutions de "mauvaise qualité" sur des réseaux sociaux peuvent faire l'affaire, puisque ça donne justement ce côté plus "naturel".

Puis quitte a "voler" un peu tout ce qui passe, il y a énormément d'ouvrages numérisés, ou le texte sera de "qualité".

Ensuite des entreprises comme google on accès a des datasets énormes directement depuis leur bases utilisateur:
- complétion de texte sur android
- mails sur gmail
- commentaires sur leurs plateformes

C'est aussi eux qui "crawl" le plus internet et évaluent les sites pour améliorer les recherches, donc j'imagine qu'ils ont pas mal de métriques pour définir la "qualité" d'un site pour l'utiliser dans leurs datasets.

D’où l'importance de définir des limites juridiques sur les données d'apprentissage...
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 03/05/2023 à 8:28
Citation Envoyé par onilink_ Voir le message
Je pense qu'on peut considérer que le web dont tu parles est déjà mort depuis des années.

developpez.net est un des derniers forum actif que je fréquente. Tous les forums, qui étaient très vivants il y a une dizaine d'année ont totalement été désertés et remplacés (en moins bien) par les réseaux sociaux. Pareil les blogs ont tendance à disparaître.

On a aussi tendance à oublier une chose, c'est que le web d'il y a 20-30 ans c'était beaucoup de sites auto hébergés. De nos jours c'est devenu trivial de faire son site web et de l'auto héberger, par exemple sur un raspberry pi. Et ça coûte presque rien, donc pas besoin de pubs. Pourtant je ne connais personne qui le fait.

La tendance actuelle est à alimenter des grosses plateformes, qui se font leur beurre sur les utilisateurs. Mais tout est déjà très centralisé.
Même dans les sites commerciaux se font absorber par de grosses plateformes style Amazon.

Puis tout le contenu produit est devenu très "consommation". Comme tu le relèves les plateformes sont à la course à la pub. Et c'est pas le contenu de qualité qui génère de la vue, mais du contenu produit en masse.

Bref je pense juste que ChatGPT et ces technos vont exacerber un problème qui était déjà bien présent.
Moi ce qui me fait le plus peur, c'est les entreprises qui sont derrière, comme OpenAI, qui considèrent le contenu d'internet comme leur appartenant.
Demain leur bot crawl un site web et hop, leur ChatGPT à ingurgité les données (pourtant protégées par le droit d'auteur) sans aucun consentement.

On se rappellera aussi l'épisode de Copilot. Pour l'instant limité à github, mais rien ne dit qu'ils n'iront pas plus loin...
il existe encore des blogs francophone de qualité comme minimachines.net ou des forums de passionnés comme win3x.org.
et aussi wikipedia qui contient du texte de qualité.

le reste c'est inutile pour une ia, je vois pas comment on peut entrainer un chatbot de qualité avec le contenu qu'on trouve sur facebook ou twitter.
peut etre en volant la retranscription youtube pour des videos de qualité (comme ceux la chaine science étonnante)

dans tous les cas les contenus de qualités se font de plus en plus rare, obtenir un bon dataset de qualité et a jours sera de plus en plus complexe.
OpenAI a d'ailleurs son dataset périmé de 2ans (2021), en informatique 2 ans c'est énorme, c'est pleins de fonction déprécié et de framework abandonnée.

Par contre oui, se pose un gros probleme de l'accés a ces données... ces ia volent le travail des autres pour une utilisation commercial.
J'aimerais bien demain une licence interdisant la lecture du code ou des photos pour être exploité pour du machine learning, ca va etre drole...
on va y venir, les artistes, développeurs et scientifiques vont peut être en voir marre de se faire voler leurs travail sans en retirer d'argent, surtout si demain ca commence a licencier et les remplacer par chatgpt.
1  1 
Avatar de SQLpro
Rédacteur https://www.developpez.com
Le 09/05/2023 à 18:58
Citation Envoyé par Anthony Voir le message
La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique...
Oui, c'est parfait pur les entreprises de la tech américaines... Comme ça on va pouvoir oublier l'écologie qui nous fait chier pour se consacrer à la bêtise naturelle (pardon, l'intelligence artificielle)...
On va donc laisser tranquille les plus gros consommateurs d’électricité du monde, ultra pollueur, anti écologique que sont les GAFA ! Pour dépenser toute notre énergie à combattre l'IA !

Merci Monsieur Geoffrey Hinton

A +
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 11/10/2023 à 14:50
Citation Envoyé par Patrick Ruiz Voir le message
« L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », ajoute Hinton. Ce dernier vient donc rejoindre des acteurs de la filière technologique comme Elon Musk qui sont d’avis que l’intelligence artificielle va surpasser les capacités cognitives des Hommes.
Je pense qu'il est possible que dans le futur l'intelligence artificielle surpasse l'humain.
Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que l'IA évolue rapidement et que 20 ans ça devienne quelque chose de réellement puissant.
0  0 
Avatar de fdecode
Membre régulier https://www.developpez.com
Le 12/10/2023 à 10:54
Citation Envoyé par Ryu2000 Voir le message
Vous n'êtes peut-être pas impressionné par l'es outils IA actuels, mais il est possible que [...] ça devienne quelque chose de réellement puissant.
Très concrètement, cela met déjà des êtres humains au chômage.
0  0