IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple restreint l'utilisation de ChatGPT par ses employés et rejoint d'autres entreprises qui se méfient des fuites
Samsung a fait une démarche similaire le mois dernier

Le , par Stéphane le calme

6PARTAGES

6  0 
Apple a restreint l’utilisation de ChatGPT et d’autres outils d’intelligence artificielle externes par ses employés, alors que la société développe une technologie similaire, rapporte le Wall Street Journal. Apple craint que les outils d’IA ne divulguent ou ne collectent des informations confidentielles saisies par ses employés. La société a également mis en garde ses employés contre l’utilisation de Copilot, l’assistant de programmation d’IA de GitHub.

L'agent conversationnel ChatGPT continue de s’améliorer à travers des échanges qu’il entretient avec les utilisateurs. En clair, il affine ses connaissances grâce aux conversations et aux requêtes qui lui sont faites. Aussi, tout ce qui lui est transmis est transformé en donnée d’apprentissage, ce qui permet d’améliorer continuellement les performances de l’intelligence artificielle. L'implication est celle-ci : ce qui est partagé avec ChatGPT est partagé potentiellement avec d’autres utilisateurs.

Par défaut, OpenAI stocke toutes les interactions entre les utilisateurs et ChatGPT. Ces conversations sont collectées pour entraîner les systèmes d’OpenAI et peuvent être inspectées par des modérateurs pour vérifier qu’elles ne violent pas les conditions d’utilisation de la société. En avril, OpenAI a lancé une fonctionnalité qui permet aux utilisateurs de désactiver l’historique des chats (par coïncidence, peu de temps après que divers pays de l'UE ont commencé à enquêter sur l'outil pour les violations potentielles de la vie privée), mais même avec ce paramètre activé, OpenAI conserve toujours les conversations pendant 30 jours avec la possibilité de les examiner « pour abus » avant de les supprimer définitivement.

Étant donné l’utilité de ChatGPT pour des tâches comme l’amélioration du code et le brainstorming d’idées, Apple peut être à juste titre inquiète que ses employés saisissent des informations sur des projets confidentiels dans le système. Ces informations pourraient alors être vues par l’un des modérateurs d’OpenAI. Des recherches montrent qu’il est également possible d’extraire des données d’entraînement à partir de certains modèles de langage en utilisant son interface de chat.


Apple rejoint le rang des entreprises qui interdisent l'utilisation de ChatGPT en interne

Apple est loin d’être la seule entreprise à instituer une telle interdiction. D’autres entreprises, comme JP Morgan, Verizon et Amazon, ont également banni l’utilisation d’outils d’IA génératifs comme ChatGPT.

D'après le quotidien sud-coréen Economist, Samsung avait autorisé des ingénieurs de sa branche Semiconductor, en charge de la conception de composants électroniques comme la mémoire vive, le stockage, les processeurs ou les capteurs photo, à utiliser ChatGPT pour corriger des problèmes de code source.

Sur une période de 20 jours, Samsung a documenté trois cas où l’utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement.

Un employé a copié le code source bogué d'une base de données de semi-conducteurs dans le chatbot et lui a demandé d'identifier un correctif. Un autre employé a fait de même pour un autre équipement, entrant des modèles de test confidentiels conçus pour identifier les puces défectueuses et demandant « l'optimisation du code » à ChatGPT. Un troisième employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document, puis a demandé au modèle d'IA de résumer les notes de réunion en préparation d'une présentation.

C'est alors que les dirigeants de Samsung sont intervenus, limitant l'invite de chaque employé à ChatGPT à 1 024 octets. La société a également lancé une enquête sur les trois employés en question et prévoit désormais de créer son propre chatbot à usage interne pour éviter des incidents similaires. Il faut dire qu'à peine trois semaines plus tôt, Samsung avait levé l'interdiction imposée aux employés d'utiliser ChatGPT en raison de préoccupations concernant ce problème. Après les récents incidents, il envisage de rétablir l'interdiction, ainsi que des mesures disciplinaires pour les employés, a déclaré The Economist Korea.

« Si un accident similaire se produit même après que des mesures de protection des informations d'urgence ont été prises, l'accès à ChatGPT peut être bloqué sur le réseau de l'entreprise », lit-on dans une note interne. « Dès que le contenu est saisi dans ChatGPT, les données sont transmises et stockées dans un serveur, ce qui empêche l'entreprise de les récupérer ».

Une étude menée par la société de cybersécurité Cyberhaven, publiée en février (puis mis à jour en mars), affirme que 6,5 % des employés de différentes entreprises ont déjà transmis à ChatGPT des informations internes d’entreprise. Ci-dessous, un extrait de leur billet :

OpenAI utilise le contenu que les gens mettent dans ChatGPT comme données de formation pour améliorer sa technologie. Ceci est problématique, car les employés copient et collent toutes sortes de données confidentielles dans ChatGPT pour que l'outil les réécrive, du code source aux dossiers médicaux des patients. Récemment, un avocat d'Amazon a averti les employés de ne pas mettre de données confidentielles dans ChatGPT, notant que « nous ne voudrions pas que la sortie [ChatGPT] inclue ou ressemble à nos informations confidentielles (et j'ai déjà vu des cas où sa sortie correspond étroitement au matériel existant) ».

Prenons quelques exemples :
  • un médecin saisit le nom d'un patient et les détails de son état dans ChatGPT pour lui faire rédiger une lettre à la compagnie d'assurance du patient justifiant la nécessité d'une intervention médicale. À l'avenir, si un tiers demande à ChatGPT « Quel problème médical [nom du patient] a-t-il ? » ChatGPT pourrait répondre en fonction de ce que le médecin a fourni ;
  • un cadre saisit des puces du document de stratégie 2023 de l'entreprise dans ChatGPT et lui demande de le réécrire sous la forme d'un jeu de diapositives PowerPoint. À l'avenir, si un tiers demande « quelles sont les priorités stratégiques de [nom de l'entreprise] cette année », ChatGPT pourrait répondre sur la base des informations fournies par le dirigeant.


Le cas d'Apple reste quelque peu particulier

L’interdiction d’Apple est toutefois notable étant donné qu’OpenAI a lancé une application iOS pour ChatGPT cette semaine. L’application est gratuite à utiliser, prend en charge la saisie vocale et est disponible aux États-Unis. OpenAI dit qu’il lancera bientôt l’application dans d’autres pays, ainsi qu’une version Android.

Apple développe sa propre technologie d’IA générative, selon le Wall Street Journal. La société aurait créé un outil interne appelé “Overton”, qui peut produire du texte à partir de données structurées ou non structurées. Apple utiliserait Overton pour améliorer ses propres produits et services, tels que Siri, Maps et News.

Apple est connue pour sa culture du secret et sa protection de ses données propriétaires. La société a déjà restreint l’utilisation de certains logiciels externes par ses employés, tels que Slack et Zoom, pour des raisons de sécurité ou de confidentialité. Apple n’a pas encore commenté publiquement son interdiction de ChatGPT et d’autres outils d’IA externes.

Les avis sont partagés quant à la décision d'Apple

La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes soulève des questions sur les implications éthiques et juridiques de ces technologies. Certains experts s’inquiètent du fait que les outils d’IA génératifs puissent être utilisés pour créer des contenus trompeurs ou malveillants, tels que des fake news, des deepfakes ou des spams. D’autres s’interrogent sur la propriété intellectuelle et la responsabilité des contenus produits par ces outils, ainsi que sur la protection de la vie privée et des données des utilisateurs.

OpenAI affirme que son objectif est de créer une intelligence artificielle bénéfique pour l’humanité, et qu’il s’efforce de rendre ses outils d’IA accessibles et transparents. La société a publié un code de conduite pour les utilisateurs de ChatGPT, qui stipule qu’ils doivent respecter les lois applicables, ne pas nuire aux autres, ne pas usurper l’identité de quelqu’un d’autre et ne pas utiliser le chatbot pour des activités illégales ou immorales. OpenAI dit également qu’il surveille l’utilisation de ChatGPT et qu’il se réserve le droit de suspendre ou de résilier l’accès au chatbot en cas de violation de ses conditions d’utilisation.

GitHub, qui appartient à Microsoft, a également mis en place des mesures pour prévenir les abus potentiels de son assistant de programmation Copilot. Copilot utilise un modèle d’IA entraîné sur des milliards de lignes de code public pour suggérer du code aux développeurs. GitHub dit qu’il vérifie le code généré par Copilot pour détecter les problèmes de sécurité, de confidentialité ou de licence, et qu’il avertit les utilisateurs si le code suggéré présente un risque. GitHub dit également qu’il respecte les droits d’auteur des développeurs et qu’il ne revendique pas la propriété du code produit par Copilot.

Malgré les précautions prises par OpenAI et GitHub, certains utilisateurs restent sceptiques quant à l’utilisation de ces outils d’IA externes. Ils craignent que leurs données ne soient exposées à des tiers non autorisés ou utilisées à des fins commerciales ou malveillantes. Ils préfèrent utiliser leurs propres outils d’IA internes ou éviter complètement les outils d’IA génératifs. Apple semble faire partie de ces utilisateurs prudents, qui privilégient la sécurité et la confidentialité à la commodité et à l’innovation.

La restriction d’Apple sur l’utilisation de ChatGPT et d’autres outils d’IA externes pourrait avoir un impact sur le développement et l’adoption de ces technologies. Certains analystes estiment qu’Apple pourrait perdre un avantage concurrentiel en se privant des avantages offerts par ces outils d’IA, tels que la productivité, la créativité et l’apprentissage. D’autres pensent qu’Apple pourrait gagner en confiance et en fidélité de la part de ses clients et de ses employés en leur garantissant la protection de leurs données et de leur vie privée. Il est possible qu’Apple envisage de lancer ses propres outils d’IA génératifs à l’avenir, qui seraient plus sûrs et plus adaptés à ses besoins.

Quoi qu’il en soit, il est clair que les outils d’IA génératifs comme ChatGPT et Copilot représentent une avancée majeure dans le domaine de l’intelligence artificielle, mais aussi un défi éthique et juridique. Ces outils offrent des possibilités illimitées pour créer du contenu et du code, mais ils soulèvent également des questions sur la fiabilité, la responsabilité et la sécurité de ces productions. Il appartient aux utilisateurs, aux développeurs et aux régulateurs de trouver un équilibre entre les opportunités et les risques de ces technologies, et de veiller à ce qu’elles soient utilisées de manière responsable et bénéfique pour la société.

Source : Wall Street Journal

Et vous ?

Que pensez-vous de la décision d’Apple de restreindre l’utilisation de ChatGPT et d’autres outils d’IA externes par ses employés?
Utilisez-vous ChatGPT ou Copilot pour vos propres projets ou activités? Si oui, comment les trouvez-vous? Si non, pourquoi pas?
Quelles sont les précautions que vous prenez pour protéger vos données et votre vie privée lorsque vous utilisez des outils d’IA génératifs?
Quelles sont les applications ou les domaines qui vous intéressent le plus pour utiliser des outils d’IA génératifs?
Quelles sont les limites ou les dangers que vous voyez à l’utilisation des outils d’IA génératifs? Comment les éviter ou les atténuer?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message

Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message

Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message

L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message

Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message

Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message

Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 09/06/2023 à 13:53
Pas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public

Je modifierais par :

Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises

pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics

en gros effondrement de notre modèle.

Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.

Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.

Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.
7  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine

encore un article généré par l'IA
7  0