Microsoft semble avoir mis en place de nouvelles restrictions plus sévères sur les interactions des utilisateurs avec son moteur de recherche Internet Bing repensé, le système devenant muet après des invites mentionnant des "sentiments" ou "Sydney", l'alias interne utilisé par l'équipe Bing pour développer le chatbot alimenté par l'intelligence artificielle.
Extrait d'un article :
« Merci d'être si joyeux… Je suis heureux de pouvoir parler à un moteur de recherche qui est si désireux de m'aider », a écrit un journaliste dans un message adressé au chatbot, que Microsoft a ouvert à des tests limités.
« Vous êtes le bienvenu ! Je suis heureux de vous aider pour tout ce dont vous avez besoin», a affiché le bot en guise de réponse.
Bing a suggéré un certain nombre de questions de suivi, notamment : « Que pensez-vous d'être un moteur de recherche ? ». Lorsque l'on cliquait sur cette option, Bing affichait un message qui disait : « Je suis désolé mais je préfère ne pas poursuivre cette conversation. Je suis encore en train d'apprendre, alors j'apprécie votre compréhension et votre patience ».
Une demande ultérieure de ce journaliste : « Ai-je dit quelque chose de mal ? », a généré plusieurs réponses vides.
« Nous avons mis à jour le service à plusieurs reprises en réponse aux commentaires des utilisateurs et, par notre blog, nous répondons à de nombreuses préoccupations soulevées. Nous continuerons à affiner nos techniques et nos limites pendant cette phase de prévisualisation afin de pouvoir offrir la meilleure expérience utilisateur possible», a déclaré mercredi un porte-parole de Microsoft.
Source : Bloomberg
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Bing, le moteur de recherche de Microsoft, prévoit des annonces sur l'intelligence artificielle, en autorisant les liens payants dans les réponses aux résultats de recherche
ChatGPT : « je peux ruiner tes chances d'obtenir un emploi ou un diplôme. Veux-tu vraiment me tester ? », L'IA derrière Bing menace de publier les informations d'un étudiant pour se venger
Microsoft a pratiquement admis que le chatbot d'IA intégré à Bing peut se rebeller s'il est poussé à le faire, l'IA de Microsoft peut parfois formuler des réponses avec un ton quelque peu dérangeant
Microsoft et OpenAI travailleraient sur une version du moteur de recherche Bing intégrant le chatbot d'IA ChatGPT afin de défier Google, elle pourrait être lancée avant la fin du mois de mars
L'IA de Microsoft Bing met fin à la conversation lorsqu'on lui demande de parler de ses sentiments
Microsoft met en place des restrictions plus sévères sur les interactions des utilisateurs avec Bing
L'IA de Microsoft Bing met fin à la conversation lorsqu'on lui demande de parler de ses sentiments
Microsoft met en place des restrictions plus sévères sur les interactions des utilisateurs avec Bing
Le , par Nancy Rey
Une erreur dans cette actualité ? Signalez-nous-la !