IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Bard de Google est pire que ChatGPT, car d'après une nouvelle analyse d'experts, Bard ne semble pas être un Chatbot aussi performant
Que GPT-4

Le , par Nancy Rey

0PARTAGES

7  0 
Google attend beaucoup de son dernier chatbot Bard, alimenté par l'IA. L'entreprise a récemment lancé Bard pour des tests bêta tout en déclarant qu'il y aurait des erreurs car il ne s'agit pas d'une alternative à la recherche mais d'un outil utilisé pour aider à la recherche.


Pendant longtemps, le géant de la technologie a été critiqué pour avoir passé autant de temps à lancer le chatbot alors que d'autres rivaux, dont Microsoft, faisaient des vagues avec leur Bing Search. Mais Google n'en a pas tenu compte et a voulu s'assurer qu'il était aussi proche de la perfection que possible.

Malgré tous les efforts et les retards, il semble que l'outil Bard ne soit pas à la hauteur de l'engouement et des attentes qu'il a suscités pendant si longtemps.

Bard avait vraiment besoin de s'améliorer pour rivaliser avec des outils tels que ChatGPT d'OpenAI et Bing de Microsoft, et il se pourrait qu'il n'y soit pas encore parvenu, comme le prouve une nouvelle analyse d'experts.

La popularité potentielle, ou plutôt le manque de popularité, aurait de graves conséquences sur le leadership de Google dans le domaine de la recherche.

Mais jusqu'à présent, il ne serait pas faux de dire qu'il n'y a pas de signes positifs importants.

Google a lancé le processus de test bêta mardi et a réellement ouvert son outil Bard en appelant les utilisateurs des États-Unis et du Royaume-Uni à se manifester et à s'inscrire pour utiliser l'outil. L'objectif est d'ouvrir l'accès pour l'instant et de l'étendre à l'avenir.

Google a indiqué que son produit se trouve actuellement dans la phase initiale d'essai et qu'il permet aux utilisateurs d'exploiter le monde de l'IA générative. Mais il faut être âgé de 18 ans et plus, posséder un compte Google et utiliser des navigateurs compatibles.

Mais les premiers testeurs ne sont pas satisfaits de ce qui leur a été proposé. Ils l'ont comparée à la technologie ChatGPT lancée par OpenAI et l'ont trouvée extrêmement décevante.

Ce démarrage en demi-teinte n'est évidemment pas ce que Google espérait. En effet, lors du lancement de la démo le mois dernier, la plateforme a fait perdre 100 milliards de dollars à la valorisation d'Alphabet et les actions se sont effondrées.

Nous ne pouvons qu'imaginer les dommages que cela peut causer à l'entreprise si elle n'est pas à la hauteur du battage médiatique et si elle est jugée inférieure à ChatGPT et à Bing.

Source : Ethan Mollick, Leo Kelion

Et vous ?

Trouvez-vous ces analyses pertinentes ?
Pensez-vous que ces nouveaux Chatbots sont des outils utiles ou plutôt des gadgets inutiles voir nuisibles ?
Avez-vous testé ChatGPT ou Bard ? Quelle est le meilleur selon vous et pourquoi ?

Voir aussi :

Microsoft ne s'inquiète pas du chatbot Bard de Google qu'elle qualifie d'inférieur à Bing Search

Bard : Google a ouvert la liste d'attente pour essayer son chatbot IA génératif pour les États-Unis et le Royaume-Uni. La réponse à ChatGPT n'est pas encore disponible en France

Une recherche avec Bard de Google et ChatGPT de Microsoft coûte probablement 10 fois plus qu'une recherche par mot-clé, ce qui pourrait représenter « plusieurs milliards de dollars de surcoûts »

Google dévoile Bard, sa réponse à l'intelligence artificielle ChatGPT de l'entreprise OpenAI, annoncée comme une menace pour l'existence de son moteur de recherches

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 21/04/2023 à 7:23
Citation Envoyé par Madmac Voir le message
C'est justement dans le domaine "socialo-politique" qu'ils deviennent merdiques. Si tu lui demandes si une transsexuelle est une femme. Il va te donner la réponse politiquement correcte. Mais cette intelligence artificielle se retrouve au contrôle de bras articulés servant à faire des opérations médicales, alors je, n'ose pas imaginer les dégâts.
Chat-GPT commande des bras articulés à faire des opérations médicales ? J'ai loupé l'info, source ?
Ou il manque un si dans ta phrase ?
Ouais si Deep blue se trouve au cœur d'une distributeur automatique de friandises pour mon chat j'ose pas imaginer les dégâts non plus.
Peut être qu'une solution serait de ne pas avoir les mêmes sources de données, ni les mêmes règles de gestion, ni les mêmes contraintes selon l'objectif de ton logiciel ?
1  0 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 21/04/2023 à 10:04
Citation Envoyé par Madmac Voir le message
Imagine si tu veux l'utilisation de Chat-GPT pour des diagnostics médicaux. Et tu te retrouves avec le même type de problème. Selon le marxisme culturel, tous les humains sont identiques. Mais dans la réalité, certains Asiatiques ont des réactions allergiques à la farine (intolérance au gluten). Certains Africains ont des réactions violentes aux amandes d'Amérique du Sud. Les médicaments ne réagissent pas toujours de la même façon selon les races. Et les greffes interraciales fonctionnent rarement.
C'est pour ça que je dit que ton prémisse est mauvais, on ne va ni faire des opérations, ni des diagnostics médicaux avec un chat bot (chat-GPT ou autre). Ça aura forcément des résultats désastreux, parce que c'est pas conçu pour ce genre d'utilisation.
Tu peux éventuellement utiliser chat-GPT pour mettre en forme le diagnostique pour les courriers que les médecins s'échangent, mais pas pour faire le diagnostique en lui même.
Il y a certainement déjà des reseaux neuronaux qui s'entrainent pour aider à (voire faire intégralement) le diagnostique. Mais il ne sera pas entrainé de la même façon que chat-GPT.
Sinon tu peux aussi dire que les machines à laver le linge sont mal conçues parce quand on berce un bébé dedans ça se passe mal.
1  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 11/05/2023 à 15:04
Dans 180 pays, mais pas la France ? il me dit que Bard n'est pas accessible !
1  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 12/05/2023 à 2:05
Citation Envoyé par Cpt Anderson Voir le message
Dans 180 pays, mais pas la France ? il me dit que Bard n'est pas accessible !
Ah mince, du coup ca va Barder !
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 21/04/2023 à 9:30
Citation Envoyé par virginieh Voir le message
Chat-GPT commande des bras articulés à faire des opérations médicales ? J'ai loupé l'info, source ?
Bon, pour le moment, ce n'est que la fiction. Mais cela pourrait devenir une réalité assez rapidement. L'utilisation de l'intelligence artificielle pour le contrôle de drone pour des fins militaires est déjà une réalité.

Imagine si tu veux l'utilisation de Chat-GPT pour des diagnostics médicaux. Et tu te retrouves avec le même type de problème. Selon le marxisme culturel, tous les humains sont identiques. Mais dans la réalité, certains Asiatiques ont des réactions allergiques à la farine (intolérance au gluten). Certains Africains ont des réactions violentes aux amandes d'Amérique du Sud. Les médicaments ne réagissent pas toujours de la même façon selon les races. Et les greffes interraciales fonctionnent rarement.

Mais si les gens qui fournissent les données omettent de mettre ces informations pour que l'ordinateur ne donne pas de réponses politiquement incorrectes. Alors dans ce cas de figure, la machine ne peut qu'échouer. Nous sommes dans le pire période de l'humanité pour nous lancer dans l'intelligence artificielle. Le politiquement correct, ce n'est pas autre chose, que des mensonges sous le prétexte de bonnes intentions.

Citation Envoyé par virginieh Voir le message
Peut être qu'une solution serait de ne pas avoir les mêmes sources de données, ni les mêmes règles de gestion, ni les mêmes contraintes selon l'objectif de ton logiciel ?
On devra aller forcément plus loin. Personne ne considère que ce serait une bonne idée de confier des enfants à des éducateurs avec des problèmes mentaux (sociopathe ou psychopathe) ou des personnes sans compas moral, sans principe solide. Alors, je prédis qui y aura de nouvelles branches de l'enseignement. associé au développement de l'intelligence artificielle.
0  1 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 21/04/2023 à 1:12
Citation Envoyé par walfrat Voir le message
Personnellement une IA qui se contente de me donner des informations sur la diététique, comment bien faire du sport, l'état l'art de la science dans un domaine, ou sur mon message d'erreur de code, et qui botte en touche tout ce touche au "socialo-politique" ça me va très bien.
C'est justement dans le domaine "socialo-politique" qu'ils deviennent merdiques. Si tu lui demandes si une transsexuelle est une femme. Il va te donner la réponse politiquement correcte. Mais cette intelligence artificielle se retrouve au contrôle de bras articulés servant à faire des opérations médicales, alors je, n'ose pas imaginer les dégâts.
0  2 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 25/04/2023 à 15:16
Citation Envoyé par virginieh Voir le message
C'est pour ça que je dit que ton prémisse est mauvais, on ne va ni faire des opérations, ni des diagnostics médicaux avec un chat bot (chat-GPT ou autre). Ça aura forcément des résultats désastreux, parce que c'est pas conçu pour ce genre d'utilisation.
Tu peux éventuellement utiliser chat-GPT pour mettre en forme le diagnostique pour les courriers que les médecins s'échangent, mais pas pour faire le diagnostique en lui même.
Il n'y a rien dans sa nature qui empêche Chat-GPT de faire des diagnostics. Si tu lui fournis les informations nécessaires, il pourra fournir les réponses. C'est en quelque sorte un système-expert autonome qui peut classifier les informations d'une façon autonome. Ce n'est qu'un moteur. Et comme un moteur à essence, tu peux le raccorder à une ambulance ou à un char d'assaut.
0  2