IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les employés de Google qualifient le chatbot IA Bard de « pire qu'inutile » et « menteur pathologique ».
Ils ont évoqué les conseils dangereux que l'IA donne fréquemment aux utilisateurs

Le , par Stéphane le calme

2PARTAGES

11  0 
Dans un effort pour ne pas se faire distancer par ses rivaux Microsoft et OpenAI, Google s'est précipité dans le développement et la présentation de son propre chatbot, Bard. Un nouveau rapport montre que les employés ont supplié l'entreprise de ne pas lancer le produit, qualifiant le système de « menteur pathologique » et de « pire qu'inutile ». Au cours de ces discussions internes, un employé a noté que Bard donnait fréquemment des conseils dangereux aux utilisateurs, que ce soit sur des sujets comme la façon de faire atterrir un avion ou la plongée sous-marine.

Le dilemme de Google sur l'IA

Pendant des années, Google a dominé à la fois la recherche en ligne et l'intelligence artificielle. Soudain, l'entreprise s'est vue menacée dans les deux cas, tout comme ses valeurs fondamentales. La façon dont elle réagit pourrait déterminer si elle reste au sommet de l'industrie technologique ou si elle va s'égarer, ce qui contribuera de toutes façons à modifier l'avenir d'Internet.

Tout d'abord, le chatbot ChatGPT d'OpenAI a captivé l'imagination avec sa capacité à répondre directement à toutes sortes de questions, bien que de manière peu fiable. Presque dès son lancement en novembre dernier, l'outil a soulevé des questions quant à savoir si l'IA conversationnelle pourrait un jour remplacer les moteurs de recherche traditionnels tels que Google.

Ensuite, Microsoft a incorporé une technologie OpenAI similaire dans son moteur de recherche Bing, faisant revivre un produit sur lequel beaucoup n'auraient pas pariés. Malgré quelques lacunes flagrantes, la popularité du chatbot Bing a contribué à faire dépasser la barre des 100 millions d'utilisateurs actifs au moteur de recherche, et la société intègre fiévreusement des outils d'IA similaires dans tout, de Microsoft Office à Skype en passant par Windows 11.

Les retombées n'ont pas tardé à se manifester : Samsung est actuellement en phase de négociation avec Microsoft pour faire de Bing le moteur de recherche par défaut sur ses appareils Galaxy à la place de Google Search. Cela inclut les smartphones et les tablettes basés sur Android.

La réaction de Google à la menace de Samsung a été la « panique », selon des messages internes examinés par le Times. Un chiffre d'affaires annuel estimé à 3 milliards de dollars était en jeu avec le contrat Samsung. Un montant supplémentaire de 20 milliards de dollars est lié à un contrat Apple similaire qui sera [peut-être] renouvelé cette année.

Des concurrents s'appuyant sur l'IA comme le nouveau Bing deviennent rapidement la menace la plus sérieuse pour l'activité de recherche de Google depuis 25 ans. En réponse, Google s'est précipité pour développer un tout nouveau moteur de recherche alimenté par la technologie. Il met également à niveau l'existant avec des caractéristiques IA, selon des documents internes examinés par le Times.


Les employés de Google critiquent Bard, évoquant un lancement trop rapide

Google a peut-être été lent à réagir à ce que plusieurs considèrent comme une explosion de l'intelligence artificielle générative formée sur de grands modèles de langage, ou LLM. ChatGPT ayant pris d'assaut le monde, intégré par la suite aux outils Microsoft comme Bing, sa suite bureautique Microsoft 365 et même son système d'exploitation, certains se sont demandé si Google finirait par se faire distancer.

La panique a contraint Google a publié trop vite Bard. C'est en tout cas l'avis d'un groupe d'employés de Google LLC qui travaillent sur Bard et qui ont déclaré que l'entreprise s'était empressée de publier le chatbot malgré des problèmes éthiques évidents d'après un rapport de Bloomberg, qui a cité des discussions avec 18 employés actuels et anciens de Google et s'est également appuyé sur des captures d'écran de messages internes.

Bien que Google ait pu sembler avoir été lent à réagir, un certain nombre de ses employés qui ont travaillé sur Bard ont déclaré que le chatbot avait été publié trop rapidement. L'un d'eux a qualifié Bard de « menteur pathologique ». Pour être juste envers Google, quiconque a utilisé ChatGPT ou le chatbot Bing à des fins de recherche sait que les outils semblent souvent très autoritaires lorsqu'ils produisent des informations erronées sans équivoque.

Un autre a dit: « Bard est pire qu'inutile: s'il vous plaît, ne le lancez pas ».

Bloomberg affirme que la société a même « infirmé une évaluation des risques » soumise par une équipe de sécurité interne qui indiquait aux grands pontes que le système n'était pas prêt pour une utilisation générale. Google a quand même ouvert un accès anticipé au bot « expérimental » en mars. Et si l'on en croit les salariés, c'est une expérience risquée. Non seulement Bard leur a fourni des réponses mensongères, faisant parfois « grincer des dents », mais dans un cas, il a expliqué comment faire atterrir un avion correctement, ce qui, selon les employés, aurait entraîné un accident. Ils ont également dit que Bard donnait des informations sur la sécurité de la plongée sous-marine qui auraient tué des gens s'ils avaient suivi les conseils.

Le rapport de Bloomberg illustre comment Google a apparemment mis de côté les préoccupations éthiques dans le but de suivre des rivaux comme Microsoft et OpenAI. L'entreprise vante fréquemment son travail de sécurité et d'éthique dans l'IA, mais a longtemps été critiquée pour avoir donné la priorité aux affaires.

Fin 2020 et début 2021, la société a licencié deux chercheurs (Timnit Gebru et Margaret Mitchell) après qu'ils ont rédigé un document de recherche exposant les failles des mêmes systèmes de langage d'IA qui sous-tendent les chatbots comme Bard. Et l'été dernier, l'entreprise a licencié un chercheur de son équipe d'IA responsable qui était devenu convaincu que l'un de ses modèles de langage, LaMDA, était sensible.

Maintenant, cependant, avec ces systèmes menaçant le modèle commercial de recherche de Google, l'entreprise semble encore plus axée sur les affaires que sur la sécurité. Comme le dit Bloomberg, en paraphrasant les témoignages d'employés actuels et anciens, « le géant de confiance de la recherche sur Internet fournit des informations de mauvaise qualité dans une course pour suivre la concurrence tout en accordant moins de priorité à ses engagements éthiques »,

D'autres chez Google (et plus généralement dans le monde de l'IA) ne seraient pas d'accord. Un argument courant est que les tests publics sont nécessaires pour développer et protéger ces systèmes et que les dommages connus causés par les chatbots sont minimes. Oui, ils produisent des textes toxiques et offrent des informations trompeuses, mais il en va de même pour d'innombrables autres sources sur le Web. (Ce à quoi d'autres répondent, oui, mais diriger un utilisateur vers une mauvaise source d'informations est différent de lui donner ces informations directement avec toute l'autorité d'un système d'IA.) Les rivaux de Google comme Microsoft et OpenAI sont sans doute aussi compromis que Google . La seule différence est qu'ils ne sont pas des leaders dans le secteur de la recherche et qu'ils ont moins à perdre.

« Nous continuons à investir dans les équipes qui travaillent à l'application de nos principes d'IA à notre technologie », a déclaré le porte-parole de Google, Brian Gabriel, au Washington Post. Il a déclaré que la publication d'une IA responsable était la « priorité absolue » de Google.

Conclusion

Avant ChatGPT, Google était considéré comme le leader du secteur dans le développement de « grands modèles de langage », les systèmes d'IA complexes qui sous-tendent les chatbots. Il a utilisé ces modèles dans les coulisses pour améliorer ses résultats de recherche et pour des outils linguistiques tels que Google Translate.

Mais la société avait été réticente à publier ses outils de langage les plus puissants sous forme de chatbot, préférant publier ses avancées de pointe dans des revues universitaires tout en les gardant secrètes pour une étude interne. La société a discrètement abandonné sa devise non officielle « Don't be evil » (« ne soyez pas méchant ») de son code de conduite il y a des années, mais se félicite toujours d'une approche « responsable » de l'IA, que ce soit dans la recherche ou les voitures autonomes.

Il y avait de bonnes raisons à sa relative prudence et la situation actuelle l'illustre parfaitement.

Quoiqu'il en soit, les gens pourraient simplement vouloir être prudents et ne pas croire toutes les réponses produites par l'IA générative.

Quant à savoir qui, de Bard et ChatGPT, est plus utile et précis, vous pouvez effectuer vos tests et partager votre expérience.

Source : rapport

Et vous ?

Qu'en pensez-vous ? Google en PLS face à l'association Microsoft + OpenAI notamment sur le domaine de la recherche ?
Comprenez-vous le dilemme de Google en matière d'IA (avancer rapidement ou « ne soyez pas méchant ») ? Quel serait, selon vous, le meilleur choix ? Pourquoi ?
Google risque-t-il de prendre du retard sur la course à l'IA générative s'il ne tente pas de telles expériences avec le public ? Cela est-il donc justifié selon vous ? Pourquoi ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 22/02/2024 à 17:13
Avant Gemini cette connerie wokiste est déjà dans les films américains depuis des années et sur les films historiques ça choque.

Aussi bien je trouve ça très bien d'avoir des séries avec un casting international comme par exemple on a vu sur Heroes, Lost, etc, d'autant que c'est vu dans le monde entier alors c'est cool pour tous le monde, aussi bien avoir dans les films historiques par exemple des nazis noirs ou je ne sais quelle autre imbécilité Woke c'est pénible, bientôt Hollywood va nous sortir un nouveau Biopic avec Napoléon et le personnage sera joué par un Chinois transsexuel
10  1 
Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 10/02/2024 à 23:42
Marrant comme les entreprises qui s'inquiète des "risques" des images de nus générés par IA sont aussi celles qui pompent allégrement les données privées pour former leurs modèles.
A l'opposé, l'IA l'open-source ne s'inquiète pas des risques mais respecte plus la vie privée
4  0 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 22/02/2024 à 18:49
Ils jouent d'autant plus les wokes car ils ont arrêtés ou au moins diminués les effectifs "diversitaires" parce qu'embaucher des tonnes de gens suivant leur type et non leurs compétences ça va un moment.

Heureusement pour le moment Stable diffusion est à peu près épargné par ces conneries.
4  0 
Avatar de irrmichael
Membre du Club https://www.developpez.com
Le 28/01/2024 à 15:10
Mistral 8B fait presque aussi bien que les modèles propriétaires à 80B et +, le jour où Mistral sortira un 80B, il faudra un gpt 6 pour l'égaler
Quant à Bard, il excelle surtout dans les tours de passe passe , un échec dès le départ et qui ne fait pas mieux un an après
3  0 
Avatar de fatbob
Membre éclairé https://www.developpez.com
Le 31/01/2024 à 15:58
Plus google avance et plus je suis content de ne l'utiliser que comme un moteur de recherche secondaire en cas de réponse insuffisamment pertinente de mon premier choix (actuellement Lilo qui se base sur bing mais sans collecter les données perso tout en reversant une partie de leurs revenus publicitaires à des projets de notre choix).
A vrai dire, je trouve d'ailleurs que les réponses de google, de plus en plus polluées par les pubs et les sites purement commerciaux, sont de moins en moins intéressantes (comprendre : il est de plus en plus rare que google m'apporte une réponse pertinente quand Lilo ne n'a pas fait).

Je trouve démentiel qu'une entreprise puisse s'octroyer le droit d'utiliser des données d'un passé lointain alors que les utilisateurs n'ont jamais donné leur accord.

Le pire, c'est que même si un jour la justice déclare cela illégal, ce sera trop tard. Personne n'ordonnera à google de détruire BARD parce qu'il sera construit sur une base totalement immorale (d'ailleurs, on voit bien que chatGPT peut piller internet sans problème, au contraire des vilains pirates qui veulent simplement mater un film sans se taper en plus de la pub).

Et pour citer le grand George (Abitbol) :
"Monde de merde."
4  1 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 10/02/2024 à 2:55
J'en penses qu'on a pas besoin d'une ia pour faire du code propre, c'est plus un outil pour les script kiddies
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 12/02/2024 à 11:01
Où est l'Union Européenne et son RGPD?

Où est la CNIL, son bras armé en France?

Ben ils regardent ailleurs... Occupés à emmerder la PME qui aurait l'idée d'enregistrer les activités de ses employés qui posent problèmes (vol, etc...), occupés à emmerder l'éditeur de logiciel qui veut mettre en place des rapports statistiques dans ses progiciels...
2  0 
Avatar de irrmichael
Membre du Club https://www.developpez.com
Le 22/02/2024 à 20:19
Bard Gemini cumule les échecs depuis un an.
ça répond à coté, sinon les présentations publiques sont fake, puis là le générateur de photo fait n'importe quoi.
Croire qu'il n'y a personne chez Google pour tester ces outils avant leur publication ?
Pour moi, Google a perdu la course à l'IA. C'est fini.
2  0 
Avatar de 23JFK
Membre expert https://www.developpez.com
Le 29/02/2024 à 22:47
Citation Envoyé par commandantFred Voir le message
...
N'importe qui peut mettre un casque de martien à un humain d'ethnie anti-martienne sous GIMP et ça n'a jamais fait jaser personne...

Le problème c'est que dans le cas présent, il n'a jamais été demandé à l'IA de faire preuve de fantaisie ou "d'imagination". Les requêtes étaient du genre : Montres-moi un authentique Viking de l'Histoire Norvégienne.
Se retrouver avec un Booba à casque ou un Gengis Khan sur un drakkar, ce n'est clairement pas ce qui était demandé.
2  0 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 21/04/2023 à 7:23
Citation Envoyé par Madmac Voir le message
C'est justement dans le domaine "socialo-politique" qu'ils deviennent merdiques. Si tu lui demandes si une transsexuelle est une femme. Il va te donner la réponse politiquement correcte. Mais cette intelligence artificielle se retrouve au contrôle de bras articulés servant à faire des opérations médicales, alors je, n'ose pas imaginer les dégâts.
Chat-GPT commande des bras articulés à faire des opérations médicales ? J'ai loupé l'info, source ?
Ou il manque un si dans ta phrase ?
Ouais si Deep blue se trouve au cœur d'une distributeur automatique de friandises pour mon chat j'ose pas imaginer les dégâts non plus.
Peut être qu'une solution serait de ne pas avoir les mêmes sources de données, ni les mêmes règles de gestion, ni les mêmes contraintes selon l'objectif de ton logiciel ?
1  0