Alphabet Inc. met en garde ses employés sur la façon dont ils utilisent les chatbots, y compris son propre Bard, tout en commercialisant le programme dans le monde entier, ont déclaré quatre personnes familières avec le sujet.
La société mère de Google a conseillé à ses employés de ne pas entrer ses documents confidentiels dans les chatbots d'IA, ont indiqué ces personnes et l'entreprise l'a confirmé, citant une politique de longue date sur la protection des informations.
Les chatbots, parmi lesquels Bard et ChatGPT, sont des programmes à consonance humaine qui utilisent ce que l'on appelle l'intelligence artificielle générative pour tenir des conversations avec les utilisateurs et répondre à une myriade de questions. Des examinateurs humains peuvent lire les conversations, et les chercheurs ont constaté qu'une IA similaire pouvait reproduire les données qu'elle avait absorbées pendant la formation, créant ainsi un risque de fuite.
Alphabet a également alerté ses ingénieurs pour qu'ils évitent d'utiliser directement le code informatique que les chatbots peuvent générer, ont déclaré certaines de ces personnes.
Interrogée à ce sujet, l'entreprise a déclaré que Bard pouvait faire des suggestions de code indésirables, mais qu'il aidait néanmoins les programmeurs. Google a également déclaré qu'elle visait à être transparente sur les limites de sa technologie.
Ces préoccupations montrent comment Google souhaite éviter que les logiciels qu'il a lancés en concurrence avec ChatGPT ne nuisent à son activité. L'enjeu de la course de Google contre OpenAI et Microsoft Corp, qui soutiennent ChatGPT, se chiffre en milliards de dollars d'investissement ainsi qu'en recettes publicitaires et en revenus de cloud computing encore incalculables provenant des nouveaux programmes d'intelligence artificielle.
La prudence de Google reflète également ce qui est en train de devenir une norme de sécurité pour les entreprises, à savoir la mise en garde du personnel contre l'utilisation de programmes de chat accessibles au public.
Un nombre croissant d'entreprises dans le monde ont mis en place des garde-fous sur les chatbots d'IA, parmi lesquelles Samsung, Amazon.com et Deutsche Bank. Apple, qui n'a pas répondu aux demandes de commentaires, aurait fait de même.
Quelque 43 % des professionnels utilisaient ChatGPT ou d'autres outils d'IA en janvier, souvent sans en parler à leur patron, selon une enquête menée par le site de réseautage Fishbowl auprès de près de 12 000 personnes, y compris dans les plus grandes entreprises américaines.
En février, Google a demandé au personnel qui testait Bard avant son lancement de ne pas lui communiquer d'informations internes. Aujourd'hui, Google déploie Bard dans plus de 180 pays et dans 40 langues, en tant que tremplin pour la créativité, et ses avertissements s'étendent à ses suggestions de code.
Google a déclaré qu'il avait eu des conversations détaillées avec la Commission irlandaise de protection des données et qu'il répondait aux questions des régulateurs, après un rapport de Politico publié mardi selon lequel l'entreprise reportait le lancement de Bard dans l'UE dans l'attente de plus d'informations sur l'impact du chatbot sur la vie privée.
Inquiétudes concernant les informations sensibles
Ces technologies peuvent rédiger des courriels, des documents, voire même des logiciels, promettant ainsi d'accélérer considérablement les tâches. Toutefois, ce contenu peut contenir des informations erronées, des données sensibles ou même des passages protégés par des droits d'auteur d'un roman "Harry Potter".
Un avis de confidentialité de Google, mis à jour le 1er juin, stipule également ce qui suit : "N'incluez pas d'informations confidentielles ou sensibles dans vos conversations Bard".
Certaines entreprises ont développé des logiciels pour répondre à ces préoccupations. Par exemple, Cloudflare, qui défend les sites web contre les cyberattaques et offre d'autres services en nuage, commercialise une capacité permettant aux entreprises de marquer et de restreindre la circulation de certaines données vers l'extérieur.
Google et Microsoft proposent également aux entreprises des outils conversationnels plus onéreux, mais qui s'abstiennent d'absorber des données dans des modèles d'IA publics. Bard et ChatGPT enregistrent par défaut l'historique des conversations des utilisateurs, qui peuvent choisir de le supprimer.
Il est "logique" que les entreprises ne veuillent pas que leur personnel utilise des chatbots publics pour le travail, a déclaré Yusuf Mehdi, directeur du marketing grand public de Microsoft.
"Les entreprises adoptent un point de vue dûment conservateur", a déclaré M. Mehdi, expliquant comment le chatbot gratuit Bing de Microsoft se compare à son logiciel d'entreprise. "Là, nos politiques sont beaucoup plus strictes."
Microsoft n'a pas commenté la question de savoir si elle interdit de manière générale à son personnel d'entrer des informations confidentielles dans des programmes d'IA publics, y compris le sien, bien qu'un autre cadre de l'entreprise ait déclaré qu'il en limitait personnellement l'utilisation.
Matthew Prince, PDG de Cloudflare, a déclaré que le fait de saisir des informations confidentielles dans des chatbots revenait à "confier à une bande d'étudiants en doctorat tous vos dossiers privés".
Source : Alphabet Inc.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que les recommandations d'Alphabet Inc sont pertinentes ?
Voir aussi
Google est contraint de reporter le lancement du chatbot Bard dans l'UE pour des raisons de protection de la vie privée, l'entreprise n'a pas fourni toutes les informations nécessaires sur son outil
Bard serait meilleur en matière de logique et de raisonnement, grâce à une nouvelle technique appelée "implicit code execution", d'après Google
Les employés de Google critiquent le PDG Sundar Pichai pour l'annonce « précipitée et bâclée » de Bard, le concurrent de ChatGPT. Certains ne savaient même pas qu'il allait être présenté
Google, l'un des plus grands défenseurs de l'IA, met en garde son propre personnel contre les chatbots d'IA, y compris Bard
Afin d'éviter tout risque de fuites de données sensibles
Google, l'un des plus grands défenseurs de l'IA, met en garde son propre personnel contre les chatbots d'IA, y compris Bard
Afin d'éviter tout risque de fuites de données sensibles
Le , par Anthony
Une erreur dans cette actualité ? Signalez-nous-la !