IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les employés de Google qualifient le chatbot IA Bard de « pire qu'inutile » et « menteur pathologique ».
Ils ont évoqué les conseils dangereux que l'IA donne fréquemment aux utilisateurs

Le , par Stéphane le calme

1PARTAGES

11  0 
Dans un effort pour ne pas se faire distancer par ses rivaux Microsoft et OpenAI, Google s'est précipité dans le développement et la présentation de son propre chatbot, Bard. Un nouveau rapport montre que les employés ont supplié l'entreprise de ne pas lancer le produit, qualifiant le système de « menteur pathologique » et de « pire qu'inutile ». Au cours de ces discussions internes, un employé a noté que Bard donnait fréquemment des conseils dangereux aux utilisateurs, que ce soit sur des sujets comme la façon de faire atterrir un avion ou la plongée sous-marine.

Le dilemme de Google sur l'IA

Pendant des années, Google a dominé à la fois la recherche en ligne et l'intelligence artificielle. Soudain, l'entreprise s'est vue menacée dans les deux cas, tout comme ses valeurs fondamentales. La façon dont elle réagit pourrait déterminer si elle reste au sommet de l'industrie technologique ou si elle va s'égarer, ce qui contribuera de toutes façons à modifier l'avenir d'Internet.

Tout d'abord, le chatbot ChatGPT d'OpenAI a captivé l'imagination avec sa capacité à répondre directement à toutes sortes de questions, bien que de manière peu fiable. Presque dès son lancement en novembre dernier, l'outil a soulevé des questions quant à savoir si l'IA conversationnelle pourrait un jour remplacer les moteurs de recherche traditionnels tels que Google.

Ensuite, Microsoft a incorporé une technologie OpenAI similaire dans son moteur de recherche Bing, faisant revivre un produit sur lequel beaucoup n'auraient pas pariés. Malgré quelques lacunes flagrantes, la popularité du chatbot Bing a contribué à faire dépasser la barre des 100 millions d'utilisateurs actifs au moteur de recherche, et la société intègre fiévreusement des outils d'IA similaires dans tout, de Microsoft Office à Skype en passant par Windows 11.

Les retombées n'ont pas tardé à se manifester : Samsung est actuellement en phase de négociation avec Microsoft pour faire de Bing le moteur de recherche par défaut sur ses appareils Galaxy à la place de Google Search. Cela inclut les smartphones et les tablettes basés sur Android.

La réaction de Google à la menace de Samsung a été la « panique », selon des messages internes examinés par le Times. Un chiffre d'affaires annuel estimé à 3 milliards de dollars était en jeu avec le contrat Samsung. Un montant supplémentaire de 20 milliards de dollars est lié à un contrat Apple similaire qui sera [peut-être] renouvelé cette année.

Des concurrents s'appuyant sur l'IA comme le nouveau Bing deviennent rapidement la menace la plus sérieuse pour l'activité de recherche de Google depuis 25 ans. En réponse, Google s'est précipité pour développer un tout nouveau moteur de recherche alimenté par la technologie. Il met également à niveau l'existant avec des caractéristiques IA, selon des documents internes examinés par le Times.


Les employés de Google critiquent Bard, évoquant un lancement trop rapide

Google a peut-être été lent à réagir à ce que plusieurs considèrent comme une explosion de l'intelligence artificielle générative formée sur de grands modèles de langage, ou LLM. ChatGPT ayant pris d'assaut le monde, intégré par la suite aux outils Microsoft comme Bing, sa suite bureautique Microsoft 365 et même son système d'exploitation, certains se sont demandé si Google finirait par se faire distancer.

La panique a contraint Google a publié trop vite Bard. C'est en tout cas l'avis d'un groupe d'employés de Google LLC qui travaillent sur Bard et qui ont déclaré que l'entreprise s'était empressée de publier le chatbot malgré des problèmes éthiques évidents d'après un rapport de Bloomberg, qui a cité des discussions avec 18 employés actuels et anciens de Google et s'est également appuyé sur des captures d'écran de messages internes.

Bien que Google ait pu sembler avoir été lent à réagir, un certain nombre de ses employés qui ont travaillé sur Bard ont déclaré que le chatbot avait été publié trop rapidement. L'un d'eux a qualifié Bard de « menteur pathologique ». Pour être juste envers Google, quiconque a utilisé ChatGPT ou le chatbot Bing à des fins de recherche sait que les outils semblent souvent très autoritaires lorsqu'ils produisent des informations erronées sans équivoque.

Un autre a dit: « Bard est pire qu'inutile: s'il vous plaît, ne le lancez pas ».

Bloomberg affirme que la société a même « infirmé une évaluation des risques » soumise par une équipe de sécurité interne qui indiquait aux grands pontes que le système n'était pas prêt pour une utilisation générale. Google a quand même ouvert un accès anticipé au bot « expérimental » en mars. Et si l'on en croit les salariés, c'est une expérience risquée. Non seulement Bard leur a fourni des réponses mensongères, faisant parfois « grincer des dents », mais dans un cas, il a expliqué comment faire atterrir un avion correctement, ce qui, selon les employés, aurait entraîné un accident. Ils ont également dit que Bard donnait des informations sur la sécurité de la plongée sous-marine qui auraient tué des gens s'ils avaient suivi les conseils.

Le rapport de Bloomberg illustre comment Google a apparemment mis de côté les préoccupations éthiques dans le but de suivre des rivaux comme Microsoft et OpenAI. L'entreprise vante fréquemment son travail de sécurité et d'éthique dans l'IA, mais a longtemps été critiquée pour avoir donné la priorité aux affaires.

Fin 2020 et début 2021, la société a licencié deux chercheurs (Timnit Gebru et Margaret Mitchell) après qu'ils ont rédigé un document de recherche exposant les failles des mêmes systèmes de langage d'IA qui sous-tendent les chatbots comme Bard. Et l'été dernier, l'entreprise a licencié un chercheur de son équipe d'IA responsable qui était devenu convaincu que l'un de ses modèles de langage, LaMDA, était sensible.

Maintenant, cependant, avec ces systèmes menaçant le modèle commercial de recherche de Google, l'entreprise semble encore plus axée sur les affaires que sur la sécurité. Comme le dit Bloomberg, en paraphrasant les témoignages d'employés actuels et anciens, « le géant de confiance de la recherche sur Internet fournit des informations de mauvaise qualité dans une course pour suivre la concurrence tout en accordant moins de priorité à ses engagements éthiques »,

D'autres chez Google (et plus généralement dans le monde de l'IA) ne seraient pas d'accord. Un argument courant est que les tests publics sont nécessaires pour développer et protéger ces systèmes et que les dommages connus causés par les chatbots sont minimes. Oui, ils produisent des textes toxiques et offrent des informations trompeuses, mais il en va de même pour d'innombrables autres sources sur le Web. (Ce à quoi d'autres répondent, oui, mais diriger un utilisateur vers une mauvaise source d'informations est différent de lui donner ces informations directement avec toute l'autorité d'un système d'IA.) Les rivaux de Google comme Microsoft et OpenAI sont sans doute aussi compromis que Google . La seule différence est qu'ils ne sont pas des leaders dans le secteur de la recherche et qu'ils ont moins à perdre.

« Nous continuons à investir dans les équipes qui travaillent à l'application de nos principes d'IA à notre technologie », a déclaré le porte-parole de Google, Brian Gabriel, au Washington Post. Il a déclaré que la publication d'une IA responsable était la « priorité absolue » de Google.

Conclusion

Avant ChatGPT, Google était considéré comme le leader du secteur dans le développement de « grands modèles de langage », les systèmes d'IA complexes qui sous-tendent les chatbots. Il a utilisé ces modèles dans les coulisses pour améliorer ses résultats de recherche et pour des outils linguistiques tels que Google Translate.

Mais la société avait été réticente à publier ses outils de langage les plus puissants sous forme de chatbot, préférant publier ses avancées de pointe dans des revues universitaires tout en les gardant secrètes pour une étude interne. La société a discrètement abandonné sa devise non officielle « Don't be evil » (« ne soyez pas méchant ») de son code de conduite il y a des années, mais se félicite toujours d'une approche « responsable » de l'IA, que ce soit dans la recherche ou les voitures autonomes.

Il y avait de bonnes raisons à sa relative prudence et la situation actuelle l'illustre parfaitement.

Quoiqu'il en soit, les gens pourraient simplement vouloir être prudents et ne pas croire toutes les réponses produites par l'IA générative.

Quant à savoir qui, de Bard et ChatGPT, est plus utile et précis, vous pouvez effectuer vos tests et partager votre expérience.

Source : rapport

Et vous ?

Qu'en pensez-vous ? Google en PLS face à l'association Microsoft + OpenAI notamment sur le domaine de la recherche ?
Comprenez-vous le dilemme de Google en matière d'IA (avancer rapidement ou « ne soyez pas méchant ») ? Quel serait, selon vous, le meilleur choix ? Pourquoi ?
Google risque-t-il de prendre du retard sur la course à l'IA générative s'il ne tente pas de telles expériences avec le public ? Cela est-il donc justifié selon vous ? Pourquoi ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 21/04/2023 à 7:23
Citation Envoyé par Madmac Voir le message
C'est justement dans le domaine "socialo-politique" qu'ils deviennent merdiques. Si tu lui demandes si une transsexuelle est une femme. Il va te donner la réponse politiquement correcte. Mais cette intelligence artificielle se retrouve au contrôle de bras articulés servant à faire des opérations médicales, alors je, n'ose pas imaginer les dégâts.
Chat-GPT commande des bras articulés à faire des opérations médicales ? J'ai loupé l'info, source ?
Ou il manque un si dans ta phrase ?
Ouais si Deep blue se trouve au cœur d'une distributeur automatique de friandises pour mon chat j'ose pas imaginer les dégâts non plus.
Peut être qu'une solution serait de ne pas avoir les mêmes sources de données, ni les mêmes règles de gestion, ni les mêmes contraintes selon l'objectif de ton logiciel ?
1  0 
Avatar de virginieh
Membre expérimenté https://www.developpez.com
Le 21/04/2023 à 10:04
Citation Envoyé par Madmac Voir le message
Imagine si tu veux l'utilisation de Chat-GPT pour des diagnostics médicaux. Et tu te retrouves avec le même type de problème. Selon le marxisme culturel, tous les humains sont identiques. Mais dans la réalité, certains Asiatiques ont des réactions allergiques à la farine (intolérance au gluten). Certains Africains ont des réactions violentes aux amandes d'Amérique du Sud. Les médicaments ne réagissent pas toujours de la même façon selon les races. Et les greffes interraciales fonctionnent rarement.
C'est pour ça que je dit que ton prémisse est mauvais, on ne va ni faire des opérations, ni des diagnostics médicaux avec un chat bot (chat-GPT ou autre). Ça aura forcément des résultats désastreux, parce que c'est pas conçu pour ce genre d'utilisation.
Tu peux éventuellement utiliser chat-GPT pour mettre en forme le diagnostique pour les courriers que les médecins s'échangent, mais pas pour faire le diagnostique en lui même.
Il y a certainement déjà des reseaux neuronaux qui s'entrainent pour aider à (voire faire intégralement) le diagnostique. Mais il ne sera pas entrainé de la même façon que chat-GPT.
Sinon tu peux aussi dire que les machines à laver le linge sont mal conçues parce quand on berce un bébé dedans ça se passe mal.
1  0 
Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 11/05/2023 à 15:04
Dans 180 pays, mais pas la France ? il me dit que Bard n'est pas accessible !
1  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 12/05/2023 à 2:05
Citation Envoyé par Cpt Anderson Voir le message
Dans 180 pays, mais pas la France ? il me dit que Bard n'est pas accessible !
Ah mince, du coup ca va Barder !
1  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 21/04/2023 à 9:30
Citation Envoyé par virginieh Voir le message
Chat-GPT commande des bras articulés à faire des opérations médicales ? J'ai loupé l'info, source ?
Bon, pour le moment, ce n'est que la fiction. Mais cela pourrait devenir une réalité assez rapidement. L'utilisation de l'intelligence artificielle pour le contrôle de drone pour des fins militaires est déjà une réalité.

Imagine si tu veux l'utilisation de Chat-GPT pour des diagnostics médicaux. Et tu te retrouves avec le même type de problème. Selon le marxisme culturel, tous les humains sont identiques. Mais dans la réalité, certains Asiatiques ont des réactions allergiques à la farine (intolérance au gluten). Certains Africains ont des réactions violentes aux amandes d'Amérique du Sud. Les médicaments ne réagissent pas toujours de la même façon selon les races. Et les greffes interraciales fonctionnent rarement.

Mais si les gens qui fournissent les données omettent de mettre ces informations pour que l'ordinateur ne donne pas de réponses politiquement incorrectes. Alors dans ce cas de figure, la machine ne peut qu'échouer. Nous sommes dans le pire période de l'humanité pour nous lancer dans l'intelligence artificielle. Le politiquement correct, ce n'est pas autre chose, que des mensonges sous le prétexte de bonnes intentions.

Citation Envoyé par virginieh Voir le message
Peut être qu'une solution serait de ne pas avoir les mêmes sources de données, ni les mêmes règles de gestion, ni les mêmes contraintes selon l'objectif de ton logiciel ?
On devra aller forcément plus loin. Personne ne considère que ce serait une bonne idée de confier des enfants à des éducateurs avec des problèmes mentaux (sociopathe ou psychopathe) ou des personnes sans compas moral, sans principe solide. Alors, je prédis qui y aura de nouvelles branches de l'enseignement. associé au développement de l'intelligence artificielle.
0  1 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 21/04/2023 à 1:12
Citation Envoyé par walfrat Voir le message
Personnellement une IA qui se contente de me donner des informations sur la diététique, comment bien faire du sport, l'état l'art de la science dans un domaine, ou sur mon message d'erreur de code, et qui botte en touche tout ce touche au "socialo-politique" ça me va très bien.
C'est justement dans le domaine "socialo-politique" qu'ils deviennent merdiques. Si tu lui demandes si une transsexuelle est une femme. Il va te donner la réponse politiquement correcte. Mais cette intelligence artificielle se retrouve au contrôle de bras articulés servant à faire des opérations médicales, alors je, n'ose pas imaginer les dégâts.
0  2 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 25/04/2023 à 15:16
Citation Envoyé par virginieh Voir le message
C'est pour ça que je dit que ton prémisse est mauvais, on ne va ni faire des opérations, ni des diagnostics médicaux avec un chat bot (chat-GPT ou autre). Ça aura forcément des résultats désastreux, parce que c'est pas conçu pour ce genre d'utilisation.
Tu peux éventuellement utiliser chat-GPT pour mettre en forme le diagnostique pour les courriers que les médecins s'échangent, mais pas pour faire le diagnostique en lui même.
Il n'y a rien dans sa nature qui empêche Chat-GPT de faire des diagnostics. Si tu lui fournis les informations nécessaires, il pourra fournir les réponses. C'est en quelque sorte un système-expert autonome qui peut classifier les informations d'une façon autonome. Ce n'est qu'un moteur. Et comme un moteur à essence, tu peux le raccorder à une ambulance ou à un char d'assaut.
0  2