L'agent conversationnel ChatGPT continue de s’améliorer à travers des échanges qu’il entretient avec les utilisateurs. En clair, il affine ses connaissances grâce aux conversations et aux requêtes qui lui sont faites. Aussi, tout ce qui lui est transmis est transformé en donnée d’apprentissage, ce qui permet d’améliorer continuellement les performances de l’intelligence artificielle. L'implication est celle-ci : ce qui est partagé avec ChatGPT est partagé potentiellement avec d’autres utilisateurs.
Par défaut, OpenAI stocke toutes les interactions entre les utilisateurs et ChatGPT. Ces conversations sont collectées pour entraîner les systèmes d’OpenAI et peuvent être inspectées par des modérateurs pour vérifier qu’elles ne violent pas les conditions d’utilisation de la société. En avril, OpenAI a lancé une fonctionnalité qui permet aux utilisateurs de désactiver l’historique des chats (par coïncidence, peu de temps après que divers pays de l'UE ont commencé à enquêter sur l'outil pour les violations potentielles de la vie privée), mais même avec ce paramètre activé, OpenAI conserve toujours les conversations pendant 30 jours avec la possibilité de les examiner « pour abus » avant de les supprimer définitivement.
Étant donné l’utilité de ChatGPT pour des tâches comme l’amélioration du code et le brainstorming d’idées, Apple peut être à juste titre inquiète que ses employés saisissent des informations sur des projets confidentiels dans le système. Ces informations pourraient alors être vues par l’un des modérateurs d’OpenAI. Des recherches montrent qu’il est également possible d’extraire des données d’entraînement à partir de certains modèles de langage en utilisant son interface de chat.
Apple rejoint le rang des entreprises qui interdisent l'utilisation de ChatGPT en interne
Apple est loin d’être la seule entreprise à instituer une telle interdiction. D’autres entreprises, comme JP Morgan, Verizon et Amazon, ont également banni l’utilisation d’outils d’IA génératifs comme ChatGPT.
D'après le quotidien sud-coréen Economist, Samsung avait autorisé des ingénieurs de sa branche Semiconductor, en charge de la conception de composants électroniques comme la mémoire vive, le stockage, les processeurs ou les capteurs photo, à utiliser ChatGPT pour corriger des problèmes de code source.
Sur une période de 20 jours, Samsung a documenté trois cas où l’utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement.
Un employé a copié le code source bogué d'une base de données de semi-conducteurs dans le chatbot et lui a demandé d'identifier un correctif. Un autre employé a fait de même pour un autre équipement, entrant des modèles de test confidentiels conçus pour identifier les puces défectueuses et demandant « l'optimisation du code » à ChatGPT. Un troisième employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document, puis a demandé au modèle d'IA de résumer les notes de réunion en préparation d'une présentation.
C'est alors que les dirigeants de Samsung sont intervenus, limitant l'invite de chaque employé à ChatGPT à 1 024 octets. La société a également lancé une enquête sur les trois employés en question et prévoit désormais de créer son propre chatbot à usage interne pour éviter des incidents similaires. Il faut dire qu'à peine trois semaines plus tôt, Samsung avait levé l'interdiction imposée aux employés d'utiliser ChatGPT en raison de préoccupations concernant ce problème. Après les récents incidents, il envisage de rétablir l'interdiction, ainsi que des mesures disciplinaires pour les employés, a déclaré The Economist Korea.
« Si un accident similaire se produit même après que des mesures de protection des informations d'urgence ont été prises, l'accès à ChatGPT peut être bloqué sur le réseau de l'entreprise », lit-on dans une note interne. « Dès que le contenu est saisi dans ChatGPT, les données sont transmises et stockées dans un serveur, ce qui empêche l'entreprise de les récupérer ».
Une étude menée par la société de cybersécurité Cyberhaven, publiée en février (puis mis à jour en mars), affirme que 6,5 % des employés de différentes entreprises ont déjà transmis à ChatGPT des informations internes d’entreprise. Ci-dessous, un extrait de leur billet :
OpenAI utilise le contenu que les gens mettent dans ChatGPT comme données de formation pour améliorer sa technologie. Ceci est problématique, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, du code source aux dossiers médicaux des patients. Récemment, un avocat d'Amazon a averti les employés de ne pas mettre de données confidentielles dans ChatGPT, notant que « nous ne voudrions pas que la sortie [ChatGPT] inclue ou ressemble à nos informations confidentielles (et j'ai déjà vu des cas où sa sortie correspond étroitement au matériel existant) ».
Prenons quelques exemples :
Prenons quelques exemples :
- un médecin saisit le nom d'un patient et les détails de son état dans ChatGPT pour lui faire rédiger une lettre à la compagnie d'assurance du patient justifiant la nécessité d'une intervention médicale. À l'avenir, si un tiers demande à ChatGPT « Quel problème médical [nom du patient] a-t-il ? » ChatGPT pourrait répondre en fonction de ce que le médecin a fourni ;
- un cadre saisit des puces du document de stratégie 2023 de l'entreprise dans ChatGPT et lui demande de le réécrire sous la forme d'un jeu de diapositives PowerPoint. À l'avenir, si un tiers demande « quelles sont les priorités stratégiques de [nom de l'entreprise] cette année », ChatGPT pourrait répondre sur la base des informations fournies par le dirigeant.
Le cas d'Apple reste quelque peu particulier
L’interdiction d’Apple est toutefois notable étant donné qu’OpenAI a lancé une application iOS pour ChatGPT cette semaine. L’application est gratuite à utiliser, prend en charge la saisie vocale et est disponible aux États-Unis. OpenAI dit qu’il lancera bientôt l’application dans d’autres pays, ainsi qu’une version Android.
Apple développe sa propre technologie d’IA générative, selon le Wall Street Journal. La société aurait créé un outil interne appelé “Overton”, qui peut produire du texte à partir de données structurées ou non structurées. Apple utiliserait Overton pour améliorer ses propres produits et services, tels que Siri, Maps et News.
Apple est connue pour sa culture du secret et sa protection de ses données propriétaires. La société a déjà restreint l’utilisation de certains logiciels externes par ses employés, tels que Slack et Zoom, pour des raisons de sécurité ou de confidentialité. Apple n’a pas encore commenté publiquement son interdiction de ChatGPT et d’autres outils d’IA externes.
Les avis sont partagés quant à la décision d'Apple
La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes soulève des questions sur les implications éthiques et juridiques de ces technologies. Certains experts s’inquiètent du fait que les outils d’IA génératifs puissent être utilisés pour créer des contenus trompeurs ou malveillants, tels que des fake news, des deepfakes ou des spams. D’autres s’interrogent sur la propriété intellectuelle et la responsabilité des contenus produits par ces outils, ainsi que sur la protection de la vie privée et des données des utilisateurs.
OpenAI affirme que son objectif est de créer une intelligence artificielle bénéfique pour l’humanité, et qu’il s’efforce de rendre ses outils d’IA accessibles et transparents. La société a publié un code de conduite pour les utilisateurs de ChatGPT, qui stipule qu’ils doivent respecter les lois applicables, ne pas nuire aux autres, ne pas usurper l’identité de quelqu’un d’autre et ne pas utiliser le chatbot pour des activités illégales ou immorales. OpenAI dit également qu’il surveille l’utilisation de ChatGPT et qu’il se réserve le droit de suspendre ou de résilier l’accès au chatbot en cas de violation de ses conditions d’utilisation.
GitHub, qui appartient à Microsoft, a également mis en place des mesures pour prévenir les abus potentiels de son assistant de programmation Copilot. Copilot utilise un modèle d’IA entraîné sur des milliards de lignes de code public pour suggérer du code aux développeurs. GitHub dit qu’il vérifie le code généré par Copilot pour détecter les problèmes de sécurité, de confidentialité ou de licence, et qu’il avertit les utilisateurs si le code suggéré présente un risque. GitHub dit également qu’il respecte les droits d’auteur des développeurs et qu’il ne revendique pas la propriété du code produit par Copilot.
Malgré les précautions prises par OpenAI et GitHub, certains utilisateurs restent sceptiques quant à l’utilisation de ces outils d’IA externes. Ils craignent que leurs données ne soient exposées à des tiers non autorisés ou utilisées à des fins commerciales ou malveillantes. Ils préfèrent utiliser leurs propres outils d’IA internes ou éviter complètement les outils d’IA génératifs. Apple semble faire partie de ces utilisateurs prudents, qui privilégient la sécurité et la confidentialité à la commodité et à l’innovation.
La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes pourrait avoir un impact sur le développement et l’adoption de ces technologies. Certains analystes estiment qu’Apple pourrait perdre un avantage concurrentiel en se privant des avantages offerts par ces outils d’IA, tels que la productivité, la créativité et l’apprentissage. D’autres pensent qu’Apple pourrait gagner en confiance et en fidélité de la part de ses clients et de ses employés en leur garantissant la protection de leurs données et de leur vie privée. Il est possible qu’Apple envisage de lancer ses propres outils d’IA génératifs à l’avenir, qui seraient plus sûrs et plus adaptés à ses besoins.
Quoi qu’il en soit, il est clair que les outils d’IA génératifs comme ChatGPT et Copilot représentent une avancée majeure dans le domaine de l’intelligence artificielle, mais aussi un défi éthique et juridique. Ces outils offrent des possibilités illimitées pour créer du contenu et du code, mais ils soulèvent également des questions sur la fiabilité, la responsabilité et la sécurité de ces productions. Il appartient aux utilisateurs, aux développeurs et aux régulateurs de trouver un équilibre entre les opportunités et les risques de ces technologies, et de veiller à ce qu’elles soient utilisées de manière responsable et bénéfique pour la société.
Source : Wall Street Journal
Et vous ?
Que pensez-vous de la décision d’Apple de restreindre l’utilisation de ChatGPT et d’autres outils d’IA externes par ses employés?
Utilisez-vous ChatGPT ou Copilot pour vos propres projets ou activités? Si oui, comment les trouvez-vous? Si non, pourquoi pas?
Quelles sont les précautions que vous prenez pour protéger vos données et votre vie privée lorsque vous utilisez des outils d’IA génératifs?
Quelles sont les applications ou les domaines qui vous intéressent le plus pour utiliser des outils d’IA génératifs?
Quelles sont les limites ou les dangers que vous voyez à l’utilisation des outils d’IA génératifs? Comment les éviter ou les atténuer?