IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple restreint l'utilisation de ChatGPT par ses employés et rejoint d'autres entreprises qui se méfient des fuites
Samsung a fait une démarche similaire le mois dernier

Le , par Stéphane le calme

6PARTAGES

6  0 
Apple a restreint l’utilisation de ChatGPT et d’autres outils d’intelligence artificielle externes par ses employés, alors que la société développe une technologie similaire, rapporte le Wall Street Journal. Apple craint que les outils d’IA ne divulguent ou ne collectent des informations confidentielles saisies par ses employés. La société a également mis en garde ses employés contre l’utilisation de Copilot, l’assistant de programmation d’IA de GitHub.

L'agent conversationnel ChatGPT continue de s’améliorer à travers des échanges qu’il entretient avec les utilisateurs. En clair, il affine ses connaissances grâce aux conversations et aux requêtes qui lui sont faites. Aussi, tout ce qui lui est transmis est transformé en donnée d’apprentissage, ce qui permet d’améliorer continuellement les performances de l’intelligence artificielle. L'implication est celle-ci : ce qui est partagé avec ChatGPT est partagé potentiellement avec d’autres utilisateurs.

Par défaut, OpenAI stocke toutes les interactions entre les utilisateurs et ChatGPT. Ces conversations sont collectées pour entraîner les systèmes d’OpenAI et peuvent être inspectées par des modérateurs pour vérifier qu’elles ne violent pas les conditions d’utilisation de la société. En avril, OpenAI a lancé une fonctionnalité qui permet aux utilisateurs de désactiver l’historique des chats (par coïncidence, peu de temps après que divers pays de l'UE ont commencé à enquêter sur l'outil pour les violations potentielles de la vie privée), mais même avec ce paramètre activé, OpenAI conserve toujours les conversations pendant 30 jours avec la possibilité de les examiner « pour abus » avant de les supprimer définitivement.

Étant donné l’utilité de ChatGPT pour des tâches comme l’amélioration du code et le brainstorming d’idées, Apple peut être à juste titre inquiète que ses employés saisissent des informations sur des projets confidentiels dans le système. Ces informations pourraient alors être vues par l’un des modérateurs d’OpenAI. Des recherches montrent qu’il est également possible d’extraire des données d’entraînement à partir de certains modèles de langage en utilisant son interface de chat.


Apple rejoint le rang des entreprises qui interdisent l'utilisation de ChatGPT en interne

Apple est loin d’être la seule entreprise à instituer une telle interdiction. D’autres entreprises, comme JP Morgan, Verizon et Amazon, ont également banni l’utilisation d’outils d’IA génératifs comme ChatGPT.

D'après le quotidien sud-coréen Economist, Samsung avait autorisé des ingénieurs de sa branche Semiconductor, en charge de la conception de composants électroniques comme la mémoire vive, le stockage, les processeurs ou les capteurs photo, à utiliser ChatGPT pour corriger des problèmes de code source.

Sur une période de 20 jours, Samsung a documenté trois cas où l’utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement.

Un employé a copié le code source bogué d'une base de données de semi-conducteurs dans le chatbot et lui a demandé d'identifier un correctif. Un autre employé a fait de même pour un autre équipement, entrant des modèles de test confidentiels conçus pour identifier les puces défectueuses et demandant « l'optimisation du code » à ChatGPT. Un troisième employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document, puis a demandé au modèle d'IA de résumer les notes de réunion en préparation d'une présentation.

C'est alors que les dirigeants de Samsung sont intervenus, limitant l'invite de chaque employé à ChatGPT à 1 024 octets. La société a également lancé une enquête sur les trois employés en question et prévoit désormais de créer son propre chatbot à usage interne pour éviter des incidents similaires. Il faut dire qu'à peine trois semaines plus tôt, Samsung avait levé l'interdiction imposée aux employés d'utiliser ChatGPT en raison de préoccupations concernant ce problème. Après les récents incidents, il envisage de rétablir l'interdiction, ainsi que des mesures disciplinaires pour les employés, a déclaré The Economist Korea.

« Si un accident similaire se produit même après que des mesures de protection des informations d'urgence ont été prises, l'accès à ChatGPT peut être bloqué sur le réseau de l'entreprise », lit-on dans une note interne. « Dès que le contenu est saisi dans ChatGPT, les données sont transmises et stockées dans un serveur, ce qui empêche l'entreprise de les récupérer ».

Une étude menée par la société de cybersécurité Cyberhaven, publiée en février (puis mis à jour en mars), affirme que 6,5 % des employés de différentes entreprises ont déjà transmis à ChatGPT des informations internes d’entreprise. Ci-dessous, un extrait de leur billet :

OpenAI utilise le contenu que les gens mettent dans ChatGPT comme données de formation pour améliorer sa technologie. Ceci est problématique, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, du code source aux dossiers médicaux des patients. Récemment, un avocat d'Amazon a averti les employés de ne pas mettre de données confidentielles dans ChatGPT, notant que « nous ne voudrions pas que la sortie [ChatGPT] inclue ou ressemble à nos informations confidentielles (et j'ai déjà vu des cas où sa sortie correspond étroitement au matériel existant) ».

Prenons quelques exemples :
  • un médecin saisit le nom d'un patient et les détails de son état dans ChatGPT pour lui faire rédiger une lettre à la compagnie d'assurance du patient justifiant la nécessité d'une intervention médicale. À l'avenir, si un tiers demande à ChatGPT « Quel problème médical [nom du patient] a-t-il ? » ChatGPT pourrait répondre en fonction de ce que le médecin a fourni ;
  • un cadre saisit des puces du document de stratégie 2023 de l'entreprise dans ChatGPT et lui demande de le réécrire sous la forme d'un jeu de diapositives PowerPoint. À l'avenir, si un tiers demande « quelles sont les priorités stratégiques de [nom de l'entreprise] cette année », ChatGPT pourrait répondre sur la base des informations fournies par le dirigeant.

Le cas d'Apple reste quelque peu particulier

L’interdiction d’Apple est toutefois notable étant donné qu’OpenAI a lancé une application iOS pour ChatGPT cette semaine. L’application est gratuite à utiliser, prend en charge la saisie vocale et est disponible aux États-Unis. OpenAI dit qu’il lancera bientôt l’application dans d’autres pays, ainsi qu’une version Android.

Apple développe sa propre technologie d’IA générative, selon le Wall Street Journal. La société aurait créé un outil interne appelé “Overton”, qui peut produire du texte à partir de données structurées ou non structurées. Apple utiliserait Overton pour améliorer ses propres produits et services, tels que Siri, Maps et News.

Apple est connue pour sa culture du secret et sa protection de ses données propriétaires. La société a déjà restreint l’utilisation de certains logiciels externes par ses employés, tels que Slack et Zoom, pour des raisons de sécurité ou de confidentialité. Apple n’a pas encore commenté publiquement son interdiction de ChatGPT et d’autres outils d’IA externes.

Les avis sont partagés quant à la décision d'Apple

La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes soulève des questions sur les implications éthiques et juridiques de ces technologies. Certains experts s’inquiètent du fait que les outils d’IA génératifs puissent être utilisés pour créer des contenus trompeurs ou malveillants, tels que des fake news, des deepfakes ou des spams. D’autres s’interrogent sur la propriété intellectuelle et la responsabilité des contenus produits par ces outils, ainsi que sur la protection de la vie privée et des données des utilisateurs.

OpenAI affirme que son objectif est de créer une intelligence artificielle bénéfique pour l’humanité, et qu’il s’efforce de rendre ses outils d’IA accessibles et transparents. La société a publié un code de conduite pour les utilisateurs de ChatGPT, qui stipule qu’ils doivent respecter les lois applicables, ne pas nuire aux autres, ne pas usurper l’identité de quelqu’un d’autre et ne pas utiliser le chatbot pour des activités illégales ou immorales. OpenAI dit également qu’il surveille l’utilisation de ChatGPT et qu’il se réserve le droit de suspendre ou de résilier l’accès au chatbot en cas de violation de ses conditions d’utilisation.

GitHub, qui appartient à Microsoft, a également mis en place des mesures pour prévenir les abus potentiels de son assistant de programmation Copilot. Copilot utilise un modèle d’IA entraîné sur des milliards de lignes de code public pour suggérer du code aux développeurs. GitHub dit qu’il vérifie le code généré par Copilot pour détecter les problèmes de sécurité, de confidentialité ou de licence, et qu’il avertit les utilisateurs si le code suggéré présente un risque. GitHub dit également qu’il respecte les droits d’auteur des développeurs et qu’il ne revendique pas la propriété du code produit par Copilot.

Malgré les précautions prises par OpenAI et GitHub, certains utilisateurs restent sceptiques quant à l’utilisation de ces outils d’IA externes. Ils craignent que leurs données ne soient exposées à des tiers non autorisés ou utilisées à des fins commerciales ou malveillantes. Ils préfèrent utiliser leurs propres outils d’IA internes ou éviter complètement les outils d’IA génératifs. Apple semble faire partie de ces utilisateurs prudents, qui privilégient la sécurité et la confidentialité à la commodité et à l’innovation.

La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes pourrait avoir un impact sur le développement et l’adoption de ces technologies. Certains analystes estiment qu’Apple pourrait perdre un avantage concurrentiel en se privant des avantages offerts par ces outils d’IA, tels que la productivité, la créativité et l’apprentissage. D’autres pensent qu’Apple pourrait gagner en confiance et en fidélité de la part de ses clients et de ses employés en leur garantissant la protection de leurs données et de leur vie privée. Il est possible qu’Apple envisage de lancer ses propres outils d’IA génératifs à l’avenir, qui seraient plus sûrs et plus adaptés à ses besoins.

Quoi qu’il en soit, il est clair que les outils d’IA génératifs comme ChatGPT et Copilot représentent une avancée majeure dans le domaine de l’intelligence artificielle, mais aussi un défi éthique et juridique. Ces outils offrent des possibilités illimitées pour créer du contenu et du code, mais ils soulèvent également des questions sur la fiabilité, la responsabilité et la sécurité de ces productions. Il appartient aux utilisateurs, aux développeurs et aux régulateurs de trouver un équilibre entre les opportunités et les risques de ces technologies, et de veiller à ce qu’elles soient utilisées de manière responsable et bénéfique pour la société.

Source : Wall Street Journal

Et vous ?

Que pensez-vous de la décision d’Apple de restreindre l’utilisation de ChatGPT et d’autres outils d’IA externes par ses employés?
Utilisez-vous ChatGPT ou Copilot pour vos propres projets ou activités? Si oui, comment les trouvez-vous? Si non, pourquoi pas?
Quelles sont les précautions que vous prenez pour protéger vos données et votre vie privée lorsque vous utilisez des outils d’IA génératifs?
Quelles sont les applications ou les domaines qui vous intéressent le plus pour utiliser des outils d’IA génératifs?
Quelles sont les limites ou les dangers que vous voyez à l’utilisation des outils d’IA génératifs? Comment les éviter ou les atténuer?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 09/06/2023 à 13:53
Pas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public

Je modifierais par :

Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises

pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics

en gros effondrement de notre modèle.

Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.

Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.

Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.
7  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 07/06/2023 à 9:40
Citation Envoyé par totozor Voir le message
Il y a quelques années il était évident pour certains que le travail à domicile était la solution à terme, les grands groupes informatiques en reviennent au fur et à mesure.
non, le full remote n'a jamais été l'avenir.
c'est le travail hybride qui était l'avenir et clairement ca prends, je trouve aucune boite en it qui impose du 100% en présentiel (et heureusement sinon ils trouverait personne), c'est 2-3j de télétravail/semaines.
capgemini (la plus grosse esn) c'est 4 jours de télétravail/semaines par exemple.



Citation Envoyé par totozor Voir le message
Remplacer les profs, les médecins par les IA serait créer la société décadente que beaucoup regrettent déjà. Je n'ai aucune considérations pour les profs pourtant certains m'ont quasiment sauvé la vie et je suis incapable d'apprendre avec un IA (avec leur état de maturité actuelle), et quand je vais voir mon médecin je ne vais pas juste récupérer une prescription, je vais aussi trouver l'avis d'un professionnel, pouvoir lui expliquer en quoi pratiquer un sport de contact alors que j'ai des problèmes de dos est une préoccupation et qu'il me fasse un retour sur les choses à favoriser/éviter. Ces consultations sont d'ailleurs assez caucasses parce qu'on envisage des vraies situaitons de jeu.
tu raisonnes en mode "l'état me le finance gratos ou hj'ai les moyens de me le payer"

dans les pays anglo-saxons, les populations s'appauvrisses avec l'inflation, ils a des grande coupe budgétaire à faire. éduquer ces enfants par chatgpt et se faire soigner par chatgpt c'est leurs seul solution pour survivre hélas.

dans les pays disons plus "socialiste" comme la France, les gens sont pauvres aussi mais peuvent encore avoir accès a ces services gratos. Mais la dette explose et quand faudra la rembourser, l'état va devoir bien tailler dans les dépenses, donc les flics ce seront des drones de combats autonomes, les profs remplacer par des bots et les docteurs (y'a déjà une pénurie) remplacer par chatgpt.
Faut bien payer la dette.

les pays comme la Roumanie, la France leurs volent leurs médecins, eux n'ont donc plus le choix c'est chatgpt ou crève.

La 5G ou les voitures électriques sont des fiascos industriels car les gens n'ont pas les moyens de se payer ces technos. Je me demande qui va acheter les batteries qu'ils vont produire dans le nord. La moyenne d'âge pour l'achat une voiture neuve en france c'est...57ans
donc la relance par l'industrie c'est juste une grosse blague.

et en 2027 ce sera la taxe carbone ne qui va venir (450€/ans)

donc les gens n'ont plus les moyens d'aller voir un médecin, de se payer un avocat ou d'aller a l'école, aujourd'hui beaucoup de francais peuvent juste acheter des pates le soir (le midi ils sautent le repas) pour se nourrir et acheter une tablette wiko pour lancer chatgpt pour s'instruire et se soigner.

C'est extrême ce que je dis mais lentement et surement on y va. Actuellement l'état est tellement dans la merde niveau finance qu'il en est a réfléchir a devenir copropriétaire de tous les bien immobilier de France pour déduire la dette. Donc de t'expropriée à terme.
Les entreprises doivent absolument alimenter la croissance pour les actionnaires, a n'importe quel prix, donc licenciements massifs obligatoire, même si la qualité est mauvaise.
8  2 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 08/06/2023 à 15:41
Citation Envoyé par Ryu2000 Voir le message
Consulter la documentation ou demander à ChatGPT c'est un peu la même chose au final.
Faux. ChatGPT, comme toutes les IA génératives est capable de te raconter un tissu de mensonges. Tu as même un article aujourd'hui sur l'exploitation de ces IA pour inciter les devs à intégrer des packages malveillants dans leurs projets...

Citation Envoyé par Ryu2000 Voir le message
Ils ne sont pas tous si doué que ça.
C'est fréquent qu'un patient soit mal diagnostiqué.
Au moins une IA aurait plus de données.
Les données, il faut les classer correctement. L'argument des données, c'est celui utilisé par Tesla pour dire que leurs voitures autonomes sont au top, et plus sûres qu'une voiture conventionnelle. Et pourtant, il suffit de chercher sur ce forum (avec le leak Tesla récent) pour voir que ce n'est pas vrai et qu'ils cachent les problèmes sous le tapis...

Citation Envoyé par Ryu2000 Voir le message
Bon là d'un côté c'est inquiétant.
Parce que si les gros vendeurs d'opiacé arrivent à corrompre les IA comme ils ont corrompus les médecins, peut-être que les IA vont se mettre à prescrire des médicaments beaucoup trop dangereux, comme avec l'oxycodone et le fentanyl.
Pas besoin. Une IA générative = une grosse société derrière. Ils feront simplement des partenariats financiers et leur IA dira ce qu'il faudra. Pour le prochain scandale du Mediator, ce sera plus simple de corrompre quelqu'un de chez OpenAI (ou autre), que tout un tas de médecins.
8  2 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 08/06/2023 à 20:21
Je n'ai aucune idée des références de ce monsieur. Mais, avec toutes les prédictions sur les voitures autonomes, les cryptos, le métavers, les objets connectés, etc... , on voit qu'on est toujours ratrappé par la complexité de la réalité.
6  0