IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sundar Pichai, CEO de Google, annonce l'intégration de l'intelligence artificielle conversationnelle à son moteur de recherches
En réponse au succès de ChatGPT d'OpenAI financé par Microsoft

Le , par Patrick Ruiz

31PARTAGES

6  0 
Google annonce l’intégration de l’IA conversationnelle à son moteur de recherches. La décision n’est pas inattendue. En effet, elle fait suite au lancement par Microsoft d’une version de son propre moteur de recherches Bing qui s’appuie sur ChatGPT. La publication d’un comparatif entre ChatGPT et le moteur de recherche de Google (sans IA) aide en sus à comprendre la manœuvre en cours de gestation chez Google. C’est l’avenir des moteurs de recherche qui est en jeu avec une question centrale : les moteurs de recherche qui s’appuient sur l’intelligence artificielle sont-ils meilleurs que les moteurs de recherche classiques ?

La réponse de Google à ChatGPT a un nom : Bard. C’est une version allégée de LaMDA – le puissant modèle de langage de Google présenté lors de l’édition 2021 de la conférence Google I/O. Bard était d’abord réservé à des testeurs de confiance. L’annonce de Sundar Pichai est un signe de l’imminence de son ouverture au grand public dans les semaines à venir. Le tableau soulève la pertinence de la tendance des grandes entreprises technologiques à aller vers des moteurs de recherche qui s’appuient sur l’intelligence artificielle.


Les chatbots sont sujets à controverse en raison de la désinformation qui résulte de leur utilisation

Ce qu’on sait de ces intelligences artificielles d’OpenAI et de Google est qu’il s’agit de chatbots capable de comprendre le langage naturel et de répondre en langage naturel. Elles peuvent donner de façon directe des solutions à des problèmes complexes. C’est la raison pour laquelle certaines institutions universitaires en interdisent l’usage à leurs étudiants. Le professeur Arvind Narayanan de l’université de Princeton tire néanmoins la sonnette d’alarme sur la pertinence de s’appuyer sur des moteurs de recherche intégrant ces chatbots en déclarant que c’est de la « poudre de perlimpinpin. »

« Sayash Kapoor et moi-même l'appelons un générateur de conneries, comme d'autres l'ont aussi fait. Nous n'entendons pas cela dans un sens normatif mais dans un sens relativement précis. Nous voulons dire qu'il est entraîné à produire des textes plausibles. Il est très bon pour être persuasif, mais il n'est pas entraîné à produire des déclarations vraies. Il produit souvent des affirmations vraies comme effet secondaire de sa plausibilité et de sa persuasion, mais ce n'est pas son objectif.

Cela correspond en fait à ce que le philosophe Harry Frankfurt a appelé connerie, c'est-à-dire un discours destiné à persuader sans se soucier de la vérité. Un conteur humain ne se soucie pas de savoir si ce qu'il dit est vrai ou non ; il a certaines fins en tête. Tant qu'il persuade, ces objectifs sont atteints. En fait, c'est ce que fait ChatGPT. Il essaie d'être persuasif et il n'a aucun moyen de savoir avec certitude si les déclarations qu'il fait sont vraies ou non », déclare-t-il à propos de ChatGPT.
D’ailleurs, une mouture de Microsoft Bing a affiché 2,5 milliards de personnes en réponse à la question de savoir quelle est la population de la planète Mars. La situation soulève la question de savoir si la montée en puissance de l’intelligence artificielle ne va pas plutôt amener les humains à travailler plus dur pour lutter contre la désinformation.


Un GIF partagé par Google montre Bard répondant à la question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ? » Bard propose une liste à puces de trois éléments, parmi lesquels un élément indiquant que le télescope « a pris les toutes premières images d'une planète en dehors de notre propre système solaire. »


Cependant, un certain nombre d'astronomes sur Twitter ont souligné que c'était incorrect et que la première image d'une exoplanète avait été prise en 2004 - comme indiqué sur le site Web de la NASA (voir en source) : « Ce n'est pas pour faire mon connard (en fait, si finalement) et je suis sûr que Bard sera impressionnant, mais pour mémoire : JWST n'a pas pris 'la toute première image d'une planète en dehors de notre système solaire' », a tweeté l'astrophysicien Grant Tremblay.


Les développements en cours soulèvent des questions que l’on décide de faire de faire usage du moteur de recherche qu’il soit de Google ou de Microsoft : faut-il vraiment s’appuyer sur un chatbot pour rechercher des informations sur Internet ? L’approche est-elle meilleure que l’ancienne qui consiste à laisser l’humain aller lui-même à la recherche des informations pour en faire la synthèse ?

En effet, des chatbots comme ChatGPT ont une tendance bien documentée à présenter de fausses informations comme des faits. Les chercheurs mettent en garde contre ce problème depuis des années. C’est d’ailleurs la raison pour laquelle certains enseignants ont adopté des politiques ouvertes d’utilisation de ChatGPT en précisant à leurs étudiants que « l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. »

Source : Wall Street Journal

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Des chercheurs en IA affirment que le modèle de langage GPT-4 d'OpenAI pourrait passer l'examen du barreau, et relance le débat sur le remplacement des avocats et des juges par des systèmes d'IA

Microsoft investit 1 Md$ dans OpenAI, la société fondée par Elon Musk, qui tente de développer une IA semblable à l'intelligence humaine

Google a formé un modèle de langage qui serait capable de répondre aux questions d'ordre médicales avec une précision de 92,6 %, les médecins eux-mêmes ont obtenu un score de 92,9 %

Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/04/2023 à 9:55
"Hey chatGPT, voilà toutes les donneés confidentielles économiques de mon entreprises, fait moi le rapport financier stp, j'ai la flème".
8  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 11/04/2023 à 16:19
Citation Envoyé par HaryRoseAndMac Voir le message
Une mentalité d'extrême gauche qui préfère favoriser des envahisseurs et tout ceux qui ne sont pas Français, plutôt que leur propre famille, parce que dans un cycle d'autodestruction, presque sadique.
La France a une réelle capacité à générer des génies, de part la langue Française qui force le raisonnement et par la qualité de ses grandes écoles.
Hahaha, ton obsession pour l'extrême gauche et de lui refiler tous les maux de la France me font rire. Je veux bien comprendre qu'une partie de leurs représentants ne sont pas beaucoup plus malin qu'un mollusque mais je crois que la France est bien loin d'avoir un communisme si fort en son sein.
Quant à nos grandes écoles, de ceux que j'en ai vu sortir, elles sont justement la source la plus intarrissable de personnes " hautaine, sûr de soit, prête à mettre des dislike à tout vas sans essayer de comprendre réellement les propos et se remettre en question".
Chez nous on a un adjectif pour ces gens là : les "parisiens". Ils sont faciles à reconnaitre : ils arrivent à un poste à responsabilité, ils remettent tout en question dans leur environnement et expliquent aux autres comment bien faire leur travail (sans le connaitre). On les traite d'une façon simple : On les ignore, quand leur chef en a ras le cul d'eux, il l'envoi dans un placard, ce qui mène à une démission en général.
Et je ne dit pas qu'on ne se remet pas en cause, la plupart des managers qui arrivent en poste, pose des questions, observent puis suggèrent les améliorations qui sont suivies parce que raisonnables et expliquées.
Citation Envoyé par HaryRoseAndMac Voir le message
Cette boite viens me voir en disant qu'ils ont d'abord fait développer leur logiciel de A à Z par ... ChatGPT ! [...]
Puis, ... ils ont donnés les audit à des développeurs qu'ils ont pris à la sortie d'o'clock, alors qu'on sais tous que c'est le pire du bas de gamme et de l'incompétence possible que de piocher là dedans.
Je penses que ces scénarios vont se multiplier et je vais être honnete, je ne vais pas pleurer ces entreprises. Le groupe dans lequel je travaille nous encourageait très largement à des méthodes qui me paraissaient suicidaires.
Ils sont repassé chez nous semaine dernière, j'étais bien rassuré des les voir nous encourager à éviter le piège de ChatGPT (qui était le mot préféré de nos "sachant du 4.0"), des ESN cheap et de l'Offshore indien.

Il y a de ça un an on a lancé un grand projet de developpement d'un gros outil, j'ai décidé de quitter le navire quand on a choisi CapGemini parce qu'ils ont fait plusieurs projets pour nous, peu sont arrivés à au bout, et ceux qui l'ont été n'ont jamais été utilisé parce qu'ils ne répondaient ni à notre besoin ni à notre cahier des charges, qu'ils avaient refondus partiellement sans notre accord.
Nous avons interrompu le projet il y a peu, jetant par les fenetres quelques k€ au passage.
Je ne suis pas plus intelligents que les autres, je me souviens juste qu'on a toujours été déçu par leurs perstations mais je suis aussi trop personne pour que les jour où j'ai levé le warning tout le monde décide de m'ignorer. A la fin tout ça ne touche pas à mon salaire et ne me fait plus perdre mon temps donc je laisse faire mais c'est décourageant.
5  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 07/04/2023 à 11:57
Citation Envoyé par Jon Shannow Voir le message
Personnellement, ayant une bonne dose d'intelligence naturelle, je ne vois pas l'intérêt de me coltiner une intelligence artificielle.
Mais, comme toute prothèse, je pense que pour ceux qui ont un déficit de ce coté, une béquille ou un déambulateur comme ChatGPT peut leur venir en aide.
Ce n'est pas tout-à-fait ça, l'enjeu.
Ce qu'ils veulent, c'est se passer de ton intelligence pour ne pas avoir à te payer un salaire.
4  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 07/04/2023 à 12:19
Citation Envoyé par archqt Voir le message
Il n'y a qu'une seule solution, devoir sur table individuel ou un oral individuel. A la maison chatGPT ou travail de groupe et cela triche de tous les côtés
Ce n'est pas nouveau

<MODE VIEUX CON>
De mon temps, les devoirs à la maison, ça a toujours été inégalitaire :
- les parents diplômés (ou pas) pouvaient aider (ou pas)
- on pouvait avoir une encyclopédie à la maison (ou pas)
- on pouvait avoir un grand frère ou soeur (ou pas) intelligent (ou pas) qui aide (ou pas)
- un(e) amoureux(se) dévoué(e) en mode "esclave" qui fait tes devoirs (ou pas)
</MODE VIEUX CON>

J'ai coché toutes les cases "ou pas" du coup j'ai du tout faire moi-même ce qui m'a permis d'être débrouillard et une fois au collège et au lycée bon élève

Aujourd'hui tout le monde a accès à Internet.
ChatGPT permet aux moches / pas populaires / sans famille de tricher aussi - on va dire que c'est plus juste mais dans le mauvais sens, l'égalité par le nivellement par le bas

Les vedettes du collège et du lycée qui étaient gâtés et qui frimaient pas mal, bah... ils ne friment plus aujourd'hui

Quoique certains si quand même, car il y a des métiers (que je ne citerais pas) ou c'est la tactch' qui compte
4  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 07/04/2023 à 13:43
Citation Envoyé par HaryRoseAndMac Voir le message
Et du temps de Vercingétorix c'était comment ?
La réponse est dans une chanson de France Gall

Charlemagne n'avait pas encore inventé l'école à cette époque
4  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 25/05/2023 à 19:49
Plus stupide on a vu, déjà.

Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.
4  0 
Avatar de eternelNoob
Futur Membre du Club https://www.developpez.com
Le 09/05/2023 à 9:16
Et plus tard, on parlera de bulle de l'IA alors que certains auront effectivement décollé

Toujours les mêmes histoires...
3  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 23/05/2023 à 9:18
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.
3  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 26/05/2023 à 10:32
Citation Envoyé par Hexdrix1111 Voir le message
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
1. Respecter les droits de l'homme et les libertés fondamentales.
2. Agir de manière éthique et responsable.
3. Être transparentes dans leurs actions et décisions.
4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
6. Respecter la vie privée des individus et protéger leurs données personnelles.
7. Être conçues pour être accessibles et compréhensibles par tous.
8. Être utilisées de manière juste et non discriminatoire.
9. Contribuer au bien-être de la société en général.
10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
C'est un bon paquet de voeux pieux, mais ça sonne bien.

à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...
4  1 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 08/05/2023 à 17:30
Citation Envoyé par HaryRoseAndMac Voir le message
Et du temps de Vercingétorix c'était comment ?
Ils pratiquaient l'immigration choisie et voulue. Et la capacité d'intégration était un critère majeur. Tous les pays qui ont abandonné ce modèle sont en déclin ou carrément en crise. Alors que les pays asiatiques ont des politiques d'immigration qui tournent autour de zéro contrôlent les secteurs de pointes.
2  0