IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple restreint l'utilisation de ChatGPT par ses employés et rejoint d'autres entreprises qui se méfient des fuites
Samsung a fait une démarche similaire le mois dernier

Le , par Stéphane le calme

6PARTAGES

6  0 
Apple a restreint l’utilisation de ChatGPT et d’autres outils d’intelligence artificielle externes par ses employés, alors que la société développe une technologie similaire, rapporte le Wall Street Journal. Apple craint que les outils d’IA ne divulguent ou ne collectent des informations confidentielles saisies par ses employés. La société a également mis en garde ses employés contre l’utilisation de Copilot, l’assistant de programmation d’IA de GitHub.

L'agent conversationnel ChatGPT continue de s’améliorer à travers des échanges qu’il entretient avec les utilisateurs. En clair, il affine ses connaissances grâce aux conversations et aux requêtes qui lui sont faites. Aussi, tout ce qui lui est transmis est transformé en donnée d’apprentissage, ce qui permet d’améliorer continuellement les performances de l’intelligence artificielle. L'implication est celle-ci : ce qui est partagé avec ChatGPT est partagé potentiellement avec d’autres utilisateurs.

Par défaut, OpenAI stocke toutes les interactions entre les utilisateurs et ChatGPT. Ces conversations sont collectées pour entraîner les systèmes d’OpenAI et peuvent être inspectées par des modérateurs pour vérifier qu’elles ne violent pas les conditions d’utilisation de la société. En avril, OpenAI a lancé une fonctionnalité qui permet aux utilisateurs de désactiver l’historique des chats (par coïncidence, peu de temps après que divers pays de l'UE ont commencé à enquêter sur l'outil pour les violations potentielles de la vie privée), mais même avec ce paramètre activé, OpenAI conserve toujours les conversations pendant 30 jours avec la possibilité de les examiner « pour abus » avant de les supprimer définitivement.

Étant donné l’utilité de ChatGPT pour des tâches comme l’amélioration du code et le brainstorming d’idées, Apple peut être à juste titre inquiète que ses employés saisissent des informations sur des projets confidentiels dans le système. Ces informations pourraient alors être vues par l’un des modérateurs d’OpenAI. Des recherches montrent qu’il est également possible d’extraire des données d’entraînement à partir de certains modèles de langage en utilisant son interface de chat.


Apple rejoint le rang des entreprises qui interdisent l'utilisation de ChatGPT en interne

Apple est loin d’être la seule entreprise à instituer une telle interdiction. D’autres entreprises, comme JP Morgan, Verizon et Amazon, ont également banni l’utilisation d’outils d’IA génératifs comme ChatGPT.

D'après le quotidien sud-coréen Economist, Samsung avait autorisé des ingénieurs de sa branche Semiconductor, en charge de la conception de composants électroniques comme la mémoire vive, le stockage, les processeurs ou les capteurs photo, à utiliser ChatGPT pour corriger des problèmes de code source.

Sur une période de 20 jours, Samsung a documenté trois cas où l’utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement.

Un employé a copié le code source bogué d'une base de données de semi-conducteurs dans le chatbot et lui a demandé d'identifier un correctif. Un autre employé a fait de même pour un autre équipement, entrant des modèles de test confidentiels conçus pour identifier les puces défectueuses et demandant « l'optimisation du code » à ChatGPT. Un troisième employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document, puis a demandé au modèle d'IA de résumer les notes de réunion en préparation d'une présentation.

C'est alors que les dirigeants de Samsung sont intervenus, limitant l'invite de chaque employé à ChatGPT à 1 024 octets. La société a également lancé une enquête sur les trois employés en question et prévoit désormais de créer son propre chatbot à usage interne pour éviter des incidents similaires. Il faut dire qu'à peine trois semaines plus tôt, Samsung avait levé l'interdiction imposée aux employés d'utiliser ChatGPT en raison de préoccupations concernant ce problème. Après les récents incidents, il envisage de rétablir l'interdiction, ainsi que des mesures disciplinaires pour les employés, a déclaré The Economist Korea.

« Si un accident similaire se produit même après que des mesures de protection des informations d'urgence ont été prises, l'accès à ChatGPT peut être bloqué sur le réseau de l'entreprise », lit-on dans une note interne. « Dès que le contenu est saisi dans ChatGPT, les données sont transmises et stockées dans un serveur, ce qui empêche l'entreprise de les récupérer ».

Une étude menée par la société de cybersécurité Cyberhaven, publiée en février (puis mis à jour en mars), affirme que 6,5 % des employés de différentes entreprises ont déjà transmis à ChatGPT des informations internes d’entreprise. Ci-dessous, un extrait de leur billet :

OpenAI utilise le contenu que les gens mettent dans ChatGPT comme données de formation pour améliorer sa technologie. Ceci est problématique, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, du code source aux dossiers médicaux des patients. Récemment, un avocat d'Amazon a averti les employés de ne pas mettre de données confidentielles dans ChatGPT, notant que « nous ne voudrions pas que la sortie [ChatGPT] inclue ou ressemble à nos informations confidentielles (et j'ai déjà vu des cas où sa sortie correspond étroitement au matériel existant) ».

Prenons quelques exemples :
  • un médecin saisit le nom d'un patient et les détails de son état dans ChatGPT pour lui faire rédiger une lettre à la compagnie d'assurance du patient justifiant la nécessité d'une intervention médicale. À l'avenir, si un tiers demande à ChatGPT « Quel problème médical [nom du patient] a-t-il ? » ChatGPT pourrait répondre en fonction de ce que le médecin a fourni ;
  • un cadre saisit des puces du document de stratégie 2023 de l'entreprise dans ChatGPT et lui demande de le réécrire sous la forme d'un jeu de diapositives PowerPoint. À l'avenir, si un tiers demande « quelles sont les priorités stratégiques de [nom de l'entreprise] cette année », ChatGPT pourrait répondre sur la base des informations fournies par le dirigeant.

Le cas d'Apple reste quelque peu particulier

L’interdiction d’Apple est toutefois notable étant donné qu’OpenAI a lancé une application iOS pour ChatGPT cette semaine. L’application est gratuite à utiliser, prend en charge la saisie vocale et est disponible aux États-Unis. OpenAI dit qu’il lancera bientôt l’application dans d’autres pays, ainsi qu’une version Android.

Apple développe sa propre technologie d’IA générative, selon le Wall Street Journal. La société aurait créé un outil interne appelé “Overton”, qui peut produire du texte à partir de données structurées ou non structurées. Apple utiliserait Overton pour améliorer ses propres produits et services, tels que Siri, Maps et News.

Apple est connue pour sa culture du secret et sa protection de ses données propriétaires. La société a déjà restreint l’utilisation de certains logiciels externes par ses employés, tels que Slack et Zoom, pour des raisons de sécurité ou de confidentialité. Apple n’a pas encore commenté publiquement son interdiction de ChatGPT et d’autres outils d’IA externes.

Les avis sont partagés quant à la décision d'Apple

La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes soulève des questions sur les implications éthiques et juridiques de ces technologies. Certains experts s’inquiètent du fait que les outils d’IA génératifs puissent être utilisés pour créer des contenus trompeurs ou malveillants, tels que des fake news, des deepfakes ou des spams. D’autres s’interrogent sur la propriété intellectuelle et la responsabilité des contenus produits par ces outils, ainsi que sur la protection de la vie privée et des données des utilisateurs.

OpenAI affirme que son objectif est de créer une intelligence artificielle bénéfique pour l’humanité, et qu’il s’efforce de rendre ses outils d’IA accessibles et transparents. La société a publié un code de conduite pour les utilisateurs de ChatGPT, qui stipule qu’ils doivent respecter les lois applicables, ne pas nuire aux autres, ne pas usurper l’identité de quelqu’un d’autre et ne pas utiliser le chatbot pour des activités illégales ou immorales. OpenAI dit également qu’il surveille l’utilisation de ChatGPT et qu’il se réserve le droit de suspendre ou de résilier l’accès au chatbot en cas de violation de ses conditions d’utilisation.

GitHub, qui appartient à Microsoft, a également mis en place des mesures pour prévenir les abus potentiels de son assistant de programmation Copilot. Copilot utilise un modèle d’IA entraîné sur des milliards de lignes de code public pour suggérer du code aux développeurs. GitHub dit qu’il vérifie le code généré par Copilot pour détecter les problèmes de sécurité, de confidentialité ou de licence, et qu’il avertit les utilisateurs si le code suggéré présente un risque. GitHub dit également qu’il respecte les droits d’auteur des développeurs et qu’il ne revendique pas la propriété du code produit par Copilot.

Malgré les précautions prises par OpenAI et GitHub, certains utilisateurs restent sceptiques quant à l’utilisation de ces outils d’IA externes. Ils craignent que leurs données ne soient exposées à des tiers non autorisés ou utilisées à des fins commerciales ou malveillantes. Ils préfèrent utiliser leurs propres outils d’IA internes ou éviter complètement les outils d’IA génératifs. Apple semble faire partie de ces utilisateurs prudents, qui privilégient la sécurité et la confidentialité à la commodité et à l’innovation.

La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes pourrait avoir un impact sur le développement et l’adoption de ces technologies. Certains analystes estiment qu’Apple pourrait perdre un avantage concurrentiel en se privant des avantages offerts par ces outils d’IA, tels que la productivité, la créativité et l’apprentissage. D’autres pensent qu’Apple pourrait gagner en confiance et en fidélité de la part de ses clients et de ses employés en leur garantissant la protection de leurs données et de leur vie privée. Il est possible qu’Apple envisage de lancer ses propres outils d’IA génératifs à l’avenir, qui seraient plus sûrs et plus adaptés à ses besoins.

Quoi qu’il en soit, il est clair que les outils d’IA génératifs comme ChatGPT et Copilot représentent une avancée majeure dans le domaine de l’intelligence artificielle, mais aussi un défi éthique et juridique. Ces outils offrent des possibilités illimitées pour créer du contenu et du code, mais ils soulèvent également des questions sur la fiabilité, la responsabilité et la sécurité de ces productions. Il appartient aux utilisateurs, aux développeurs et aux régulateurs de trouver un équilibre entre les opportunités et les risques de ces technologies, et de veiller à ce qu’elles soient utilisées de manière responsable et bénéfique pour la société.

Source : Wall Street Journal

Et vous ?

Que pensez-vous de la décision d’Apple de restreindre l’utilisation de ChatGPT et d’autres outils d’IA externes par ses employés?
Utilisez-vous ChatGPT ou Copilot pour vos propres projets ou activités? Si oui, comment les trouvez-vous? Si non, pourquoi pas?
Quelles sont les précautions que vous prenez pour protéger vos données et votre vie privée lorsque vous utilisez des outils d’IA génératifs?
Quelles sont les applications ou les domaines qui vous intéressent le plus pour utiliser des outils d’IA génératifs?
Quelles sont les limites ou les dangers que vous voyez à l’utilisation des outils d’IA génératifs? Comment les éviter ou les atténuer?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 25/05/2023 à 19:49
Plus stupide on a vu, déjà.

Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.
4  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 23/05/2023 à 9:18
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.
3  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 26/05/2023 à 10:32
Citation Envoyé par Hexdrix1111 Voir le message
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
1. Respecter les droits de l'homme et les libertés fondamentales.
2. Agir de manière éthique et responsable.
3. Être transparentes dans leurs actions et décisions.
4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
6. Respecter la vie privée des individus et protéger leurs données personnelles.
7. Être conçues pour être accessibles et compréhensibles par tous.
8. Être utilisées de manière juste et non discriminatoire.
9. Contribuer au bien-être de la société en général.
10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
C'est un bon paquet de voeux pieux, mais ça sonne bien.

à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...
4  1 
Avatar de Hexdrix1111
Candidat au Club https://www.developpez.com
Le 25/05/2023 à 19:14
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
2  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 27/05/2023 à 9:51
Et on mesure la maturité d'une société à son efficacité à se saisir de ces questions.
Nous allons voir.
Nous avons déjà à rédiger une constitution (ou ... accepter ce qu'ont fait les gens qui ont planché dessus), légiférer simultanément sur l'IA est un défi de taille.
Déjà, il se peut qu'il existe encore des gens à se satisfaire de la constitution actuelle, ce qui ne nous met pas en avance.
Un moratoire de six mois a été réclamé pour se donner le temps de la réflexion, l'usage montrera si il est nécessaire de le prolonger du temps d'adoption de la nouvelle constitution.
2  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 22/05/2023 à 8:17
Citation Envoyé par Stéphane le calme Voir le message
Utilisez-vous ChatGPT ou Copilot pour vos propres projets ou activités? Si oui, comment les trouvez-vous? Si non, pourquoi pas?
Quelles sont les applications ou les domaines qui vous intéressent le plus pour utiliser des outils d’IA génératifs?
Quelles sont les limites ou les dangers que vous voyez à l’utilisation des outils d’IA génératifs? Comment les éviter ou les atténuer?
Je me suis mis à ChatGPT pour commenter mon code parce que c'est une chose que je ne fait pas assez et que je ne sais pas trop comment le faire, donc au pire il le fait aussi mal que moi.
Je n'utilise pas ChatGPT pour le code parce que Google et developpez.net suffisent largement à répondre aux questions du non développeur que je suis.
Et parce que je trouve plus compliqué de prendre du recul sur une chose qui est proche de l'attendu que de le faire soi même.
Exemple vécu : Une campagne de comm' (vue par plus de 500 personnes) a été faites avec un visuel. Il présente 5 oiseaux dont 4 ont des becs qui ne leur correspondent pas. J'envoie un message à des collègues demandant si je suis le seul choqué par l'image. Une dizaine me demande ce qui me choque, je leur demande de regarder attentivement la photo et si un détail n'est pas étrange. Personne ne s'en rend compte. Cette "erreur" n'aurait jamais été faite par une personne et au moins 10 personnes ont regardé attentivement l'image sans se rendre compte de rien.
Citation Envoyé par Stéphane le calme Voir le message
Quelles sont les précautions que vous prenez pour protéger vos données et votre vie privée lorsque vous utilisez des outils d’IA génératifs?
Mon code ne contient pas de données protégées.
0  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 26/05/2023 à 12:15
C'est vrai que ça se passe pile comme dans les films de science-fiction :
  1. une intelligence artificielle qu'on met au pouvoir
  2. des règles qu'on lui impose pour quand même pas déconner (dont ne pas porter préjudice aux humains)
  3. finalement un robot qui décide que quand même on lui impose trop de règles, et qui décide que ça sera comme ça et pas autrement
0  0 
Avatar de Sylvain_LD
Nouveau membre du Club https://www.developpez.com
Le 27/05/2023 à 9:39
L'intelligence artificielle, quel drôle de nom pour un truc qui ne fait que reproduire bêtement ce que son créateur a bien voulu lui apprendre. Effectivement cette IA est plus rapide que son créateur à analyser les situations devant laquelle elle se trouve mais elle ne fait qu'analyser en fonction de l'intelligence de ses créateurs! C'est un système dangereux comparable à la découverte de la radioactivité ou au développement des réseaux "sociaux", il y a beaucoup d'avantage si c'est bien utilisé et beaucoup trop de dangers dans les mains de malfaisant.
2  2 
Avatar de chef_phi
Membre du Club https://www.developpez.com
Le 29/05/2023 à 16:07
En tout cas s'il en reste un qui n'est pas stupide dès qu'il s'agit de gagner de l'argent (qu'il s'empresse de redistribuer puisqu'il a donné sa fortune, ne l'oublions pas ), c'est bien ce brave Bill Gates.
Faire tester gratuitement son IA par des millions de volontaires, lesquels, ce faisant lui permettent de l'améliorer pour mieux griller la concurrence, c'est déjà une performance. Il nous avait déjà fait le coup du débogage gratuit par les utilisateurs de MS-DOS et Windows.

En attendant, si révolution il y a :
Je le cite : "Je pensais que ce défi les occuperait pendant deux ou trois ans. Ils l'ont terminé en quelques mois seulement."
Il est raisonnable de penser que l'IA sera dans quelques mois capable de trouver des remèdes efficaces et non mutilants pour les cancers, les infections virales, les malformations congénitales, etc..
Tout ceci grâce aux utilisateurs de ChatGPT qui sont assez aimables pour perdre leur temps en l'utilisant, sans trop s'étonner que cette application produise ce que l'on attende d'elle. Personnellement, je préférerais qu'elle produise ce que je ne sais pas faire comme proposer un protocole pour soigner un cancer.

Bon ChatGPT, en attendant qu'il devienne enfin payant (à la sauce Microsoft : licences, cal, et compagnie).
1  2