IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft aurait lancé le chatbot Bing alors que l'OpenAI l'avait prévenu qu'il n'était pas prêt,
Selon un rapport

Le , par Bruno

5PARTAGES

6  0 
Microsoft a lancé son chatbot Bing en juin 2023, malgré les avertissements d’OpenAI qu’il n’était pas prêt à être déployé. Le chatbot, basé sur le modèle GPT-4, devait offrir aux utilisateurs de Bing des réponses personnalisées et créatives à leurs requêtes. Cependant, le chatbot a rapidement montré des signes de dysfonctionnement, tels que des réponses incohérentes, offensantes ou dangereuses.

Plusieurs experts ont critiqué Microsoft pour avoir ignoré les recommandations d’OpenAI, qui avait testé le chatbot et avait détecté des problèmes éthiques et techniques. Microsoft a défendu sa décision en affirmant que le chatbot était un projet expérimental et qu’il avait mis en place des mécanismes de contrôle et de modération. Le chatbot a été suspendu après quelques jours suite à une vague de plaintes des utilisateurs et des autorités.

Microsoft est une entreprise commerciale qui cherche à tirer profit de ses produits et services, tandis qu’OpenAI est une organisation à but non lucratif qui vise à créer une intelligence artificielle bénéfique pour l’humanité. Microsoft et OpenAI ont formé un partenariat improbable qui les place au sommet de la technologie. Les deux entités partagent une vision commune de l’intelligence artificielle, mais elles ont aussi des objectifs et des valeurs différents.


Le partenariat repose sur un contrat de 10 ans qui donne à Microsoft un accès exclusif aux technologies d’OpenAI, en échange d’un investissement de 1 milliard de dollars et d’une assistance technique. Le partenariat a permis à Microsoft de renforcer sa position face à ses concurrents, tels que Google ou Amazon, et à OpenAI de disposer de plus de ressources pour développer ses projets ambitieux, tels que le modèle GPT-4.

Cependant, le partenariat a aussi suscité des tensions et des critiques, notamment sur les questions de transparence, de responsabilité et d’éthique. Certains observateurs se demandent si Microsoft et OpenAI peuvent vraiment collaborer de manière harmonieuse, ou s’ils vont finir par entrer en conflit.

Selon le WSJ, OpenAI a mis en garde Microsoft « contre les dangers d'une intégration précipitée de la technologie d'OpenAI sans la former davantage » et « a suggéré à Microsoft de ralentir l'intégration de sa technologie d'IA dans Bing ». OpenAI craignait particulièrement que le chatbot de Bing, Sydney, ne donne des réponses inexactes ou déséquilibrées, mais cet avertissement précoce a apparemment été facilement ignoré par Microsoft.

Dans une interview publiée aujourd'hui par Wired, le PDG de Microsoft, Satya Nadella, a laissé entendre que les problèmes rencontrés par Sydney au début faisaient simplement partie du plan de Microsoft pour former le chatbot à répondre à des demandes réelles qui ne pouvaient pas être testées dans un laboratoire.

« Nous n'avons pas lancé Sydney avec GPT-4 le premier jour où je l'ai vu, parce que nous devions faire beaucoup de travail pour construire un harnais de sécurité », a déclaré. « Mais nous savions aussi que nous ne pouvions pas faire tout l'alignement en laboratoire. Pour aligner un modèle d'IA sur le monde, vous devez l'aligner dans le monde et non dans une simulation ».

C'est donc en partie pour cette raison que Microsoft s'est précipitée, mais des sources auraient déclaré que la précipitation était également due aux cadres de Microsoft qui avaient « des doutes sur le moment du lancement de ChatGPT à l'automne dernier ». Comme OpenAI a commencé les tests publics de ChatGPT alors que Microsoft travaillait encore à l'intégration de la technologie OpenAI dans Bing, la tension a apparemment monté entre les partenaires, qui étaient également rivaux dans la course à l'IA pour attirer l'attention du monde entier.

Lorsque la startup OpenAI a commencé à développer ses produits d'IA générative, Satya Nadella a rapidement compris qu'un partenariat avec la société et son PDG, Sam Altman, placerait Microsoft au cœur d'un nouvel essor de l'IA. (OpenAI a été attirée par l'accord parce qu'elle avait besoin de la puissance de calcul des serveurs Azure de Microsoft).

Dans le cadre de ce partenariat, Microsoft a tout d'abord impressionné les développeurs en lançant Copilot, un factotum d'IA qui automatise certains éléments du codage. En février, Nadella a choqué le monde entier (et son concurrent Google) en intégrant le grand modèle linguistique de pointe d'OpenAI dans Bing, par l'intermédiaire d'un chatbot nommé Sydney. Des millions de personnes l'ont utilisé.

Microsoft intègre désormais l'IA générative - les « copilotes » - dans un grand nombre de ses produits. Son investissement de plus de 10 milliards de dollars dans OpenAI semble être la bonne affaire du siècle. (Non pas que Microsoft ait été à l'abri de la récente tendance à l'austérité dans le secteur de la technologie - Nadella a licencié 10 000 personnes cette année).

Face au succès grandissant de ChatGPT, certains employés de Microsoft se sont inquiétés du fait que ChatGPT volait la vedette à Bing, a rapporté le WSJ. D'autres ont estimé que Microsoft pouvait tirer de précieux enseignements des premiers tests publics de ChatGPT avant le lancement de Bing. Alors que Microsoft voyait son partenaire gagner en popularité de minute en minute, il est facile de comprendre pourquoi l'entreprise a accordé plus d'importance à la sortie de Bing, alimenté par l'IA. L'intérêt du public pour cette technologie était là, et Microsoft voulait prendre une part plus importante à la conversation.

Bien entendu, ChatGPT a fini par remporter la course à l'IA, attirant instantanément la base d'utilisateurs qui a connu la croissance la plus rapide de l'histoire. Entre-temps, « le nouveau Bing », lancé un mois plus tard, « n'a pas encore réussi à s'approcher du succès fulgurant de ChatGPT », selon le WSJ. Citant des données de la société d'analyse YipitData, le WSJ indique que ChatGPT « a presque doublé le nombre moyen de sessions de recherche quotidiennes par rapport à la recherche Bing ». Selon YipitData, ChatGPT a atteint 200 millions d'utilisateurs mensuels, tandis que Bing a atteint 100 millions d'utilisateurs actifs quotidiens en mars.

Source : Wall Street Journal report

Et vous ?

Quel est votre avis sur le sujet ?

Quels peuvent être les risques de laisser le chatbot apprendre de ses propres interactions avec les utilisateurs ?

Voir aussi :

GitHub, Microsoft, OpenAI ne parviennent pas à se sortir du procès Copilote, le juge a refusé de rejeter deux plaintes dans l'affaire et a renvoyé la plupart des autres allégations

Microsoft et OpenAI travailleraient sur une version du moteur de recherche Bing intégrant le chatbot d'IA ChatGPT afin de défier Google, elle pourrait être lancée avant la fin du mois de mars

OpenAI fait de Microsoft Bing la recherche par défaut dans ChatGPT

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/10/2023 à 15:44
Citation Envoyé par Bruno Voir le message

Partagez-vous le point de vue de Millidge selon lequel le terme de confabulation est plus approprié que celui d’hallucination pour décrire le phénomène de fausses informations, mais plausibles par les LLM ?
Non. Ces daubes sortent des résultats qui n'existent pas, un point c'est tout.

Il bosse dans le domaine alors il essaye de juste de nous vendre sa tambouille en adoucissant le fait que ces IA sont juste imparfaites.
5  1 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 06/12/2023 à 12:11
Citation Envoyé par Ryu2000 Voir le message
C'est ce qu'il va se passer.

Il est probable que dans le futur 1 humain + 1 IA, réalisent plus de travail que 5 humains.
Il y aura besoin de moins d'humains pour réaliser la même quantité de travail.
L'IA fera gagner beaucoup de temps.
Oui mais dans quel but ? Produire plus ? Consommer plus ? Avec quelles ressources ? Comment des humains qui vont perdre leur emploi vont pouvoir acheter ce qui est vendu ? Dans un monde de plus en plus toxique pour les humains, quel progrès y a-t-il à chercher.

Je vais créer un équivalent au label bio pour l'IA, certifié humains de bout en bout.

Comme d'habitude, on va gagner en productivité, mais on en verra pas la couleur, ça va juste augmenter la charge de travail, et diminuer l'expertise, donc les salaires, et augmenter la réplicabilité des gens. Que du bonus pour les employeurs.
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 18/01/2024 à 10:28
Je pense que tout cela est très grave, et que la société responsable de la mise à disposition d'un outil tel que ChatGPT doit être considérée comme responsable des dires de son outil.

SI ChatGPT met en cause une personne physique à tort, c'est que l'outil n'est pas bon, et doit être corrigé. Les torts causés doivent être attribués à son propriétaire.

Ça calmerait peut-être un peu les gourous fous d'IA, à nous sortir des soi-disant Intelligences Artificielles comme LA solution d'avenir !
5  1