IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les employés utilisent secrètement ChatGPT, ce qui pose des risques pour les entreprises.
L'utilisation non contrôlée de l'IA générative, une bombe à retardement pour les sociétés

Le , par Stéphane le calme

1PARTAGES

3  0 
Les employés utilisent l'IA générative pour faciliter leur travail, sans l’autorisation ou la supervision du service informatique. Ils peuvent ainsi gagner du temps, augmenter leur productivité, innover ou améliorer leur expérience client. Cependant, l’adoption non contrôlée de l’IA générative devient progressivement un défi pour les responsables de la sécurité de l’information qui doivent aborder l’IA générative avec prudence et se préparer avec les mesures de cyberdéfense nécessaires. Étant donné que toutes les entreprises ne disposent pas de leur propre GPT, elles doivent surveiller la façon dont les employés se servent de cette technologie.

L’investissement croissant des grandes entreprises technologiques dans l’intelligence artificielle et les chatbots, dans un contexte de licenciements massifs et un déclin de la croissance de leurs activités, a plongé de nombreux responsables de la sécurité de l’information dans la tourmente.

De ChatGPT d'OpenAI à Bard de Google, sans oublier le Bing nouvelle génération ou le projet d'Elon Musk pour créer son propre chatbot, l'IA générative fait plus que parler d'elle dans les journaux : elle s'infiltre dans le lieu de travail. Les actualités faisant état de l'utilisation de ChatGPT en entreprise ne manquent pas.

Nous pouvons citer le cas d'Amazon où ChatGPT a été utilisé comme une sorte « d'assistant de codage » pour aider les techniciens à écrire ou à améliorer des blocs de code interne existant. La situation a été découverte assez simplement : des extraits de texte générés par ChatGPT ressemblaient beaucoup à ses secrets d'entreprise, raison pour laquelle l'entreprise a tenté d'empêcher ses employés de divulguer quoi que ce soit d'autre à l'algorithme.

Face à cette situation, les responsables de la sécurité de l’information doivent aborder cette technologie avec prudence et se préparer avec les mesures de sécurité nécessaires.

Toutes les entreprises ne disposent pas de leur propre GPT

L’IA générative est une technologie qui permet de produire du texte, des images, des sons ou des vidéos à partir de données existantes ou de zéro. Elle repose sur des modèles linguistiques volumineux (MLV), ou des algorithmes qui apprennent à partir de vastes corpus de données et qui peuvent générer des conversations humaines à partir d’un chatbot. C'est cette technologie sur laquelle s'appuie GPT, mais toutes les entreprises n'ont pas leur propre version de GPT, et doivent donc surveiller la façon dont les travailleurs utilisent cette technologie.

Les gens vont utiliser l'IA générative s'ils la trouvent utile pour faire leur travail, a estimé Michael Chui, partenaire du McKinsey Global Institute, en la comparant à la façon dont les travailleurs utilisent les ordinateurs personnels ou les téléphones. « Même lorsqu'il n'est pas sanctionné ou béni par le service informatique, les gens trouvent [les chatbots] utiles », a déclaré Chui.

« Tout au long de l'histoire, nous avons trouvé des technologies si convaincantes que les individus sont prêts à payer pour cela », a-t-il déclaré. « Les gens achetaient des téléphones portables bien avant que les entreprises ne disent: "Je vais vous le fournir". Les PC étaient similaires, nous voyons donc l'équivalent maintenant avec l'IA générative ».

En conséquence, il y a un « rattrapage » pour les entreprises quant à la manière dont elles vont aborder les mesures de sécurité, a ajouté Chui.

Qu'il s'agisse de pratiques commerciales standard telles que la surveillance des informations partagées sur une plate-forme d'IA ou l'intégration d'un GPT sanctionné par l'entreprise sur le lieu de travail, les experts pensent qu'il existe certains domaines dans lesquels les RSSI (responsables de la sécurité de l'information) et les entreprises devraient commencer.


Commencez par les bases de la sécurité de l'information

Alors que l'IA et le GPT s'installent sur le lieu de travail, les RSSI peuvent commencer par les bases de la sécurité.

Chui a déclaré que les entreprises peuvent autoriser l'utilisation d'une plate-forme d'IA existante, afin qu'elles puissent surveiller ce que les employés disent à un chatbot et s'assurer que les informations partagées sont protégées.

« Si vous êtes une entreprise, vous ne voulez pas que vos employés formulent des requêtes avec des informations confidentielles sur un chatbot accessible au public », a déclaré Chui. « Ainsi, vous pouvez mettre en place des moyens techniques, où vous pouvez obtenir une licence pour le logiciel et avoir un accord juridique exécutoire sur l'endroit où vos données vont ou ne vont pas ».

L'utilisation de logiciels sous licence s'accompagne de freins et contrepoids supplémentaires, a déclaré Chui. La protection des informations confidentielles, la réglementation de l'endroit où les informations sont stockées et les directives sur la manière dont les employés peuvent utiliser le logiciel sont toutes des procédures standard lorsque les entreprises octroient une licence à un logiciel, IA ou non.

« Si vous avez un accord, vous pouvez auditer le logiciel, afin de voir s'il protège les données de la manière dont vous souhaitez qu'elles soient protégées », a déclaré Chui.

La plupart des entreprises qui stockent des informations avec des logiciels basés sur le cloud le font déjà, a rappelé Chui, donc aller de l'avant et offrir aux employés une plate-forme d'IA approuvée par l'entreprise signifie qu'une entreprise est déjà en ligne avec les pratiques existantes de l'industrie.

Le Congrès américain, cas pratique d'utilisation des licences

En parlant de licences, le service numérique de la Chambre des représentants des États-Unis (House Digital Services) a obtenu 40 licences pour ChatGPT Plus.

L'achat des licences intervient dans le contexte d'un débat généralisé sur la manière dont la technologie de l'intelligence artificielle devrait être utilisée et réglementée dans le secteur privé et au sein du gouvernement. Cela représente l'un des premiers exemples d'utilisation de ChatGPT dans le cadre du processus d'élaboration des politiques.

Les 40 licences ont été attribuées selon le principe du premier arrivé, premier servi, et la House Digital Services paiera le plan d'abonnement de 20 $/mois par bureau pour une durée indéterminée, selon le responsable. Les détails sur les bureaux du Congrès qui ont reçu les licences ChatGPT Plus resteront anonymes pour le moment.

« Souvent, les membres expérimentent des choses, de nouveaux outils, à leur manière et nous voulons simplement être au courant de cela. Nous voulons aider à faciliter cette expérimentation », a déclaré le responsable. Et d'ajouter : « il y a tellement de cas d'utilisation différents pour ChatGPT, mais ce que nous avons entendu est en tête de liste pour les bureaux du Congrès, c'est la création et la synthèse de contenu ».

Le chatbot ne pourra pas fonctionner sur le serveur interne de la Chambre des représentants, qui dispose d'un pare-feu qui le bloquera. Il a également été conseillé au personnel de ne pas utiliser l'outil pour exécuter des requêtes à l'aide de données du Congrès ou d'autres informations internes sensibles. De plus, l'outil OpenAI ne peut pas être utilisé pour télécharger du code sur des appareils du Congrès, mais peut être utilisé dans un navigateur Web ou une interface de programmation d'application (API) pour les requêtes.

Comment créer ou intégrer un GPT personnalisé

Une option de sécurité pour les entreprises consiste à développer leur propre GPT ou à embaucher des entreprises qui créent cette technologie pour créer une version personnalisée, explique Sameer Penakalapati, PDG de Ceipal, une plateforme d'acquisition de talents basée sur l'IA.

Dans des fonctions spécifiques telles que les RH, il existe plusieurs plates-formes allant de Ceipal à TalentGPT de Beamery, et les entreprises peuvent envisager le projet de Microsoft d'offrir un GPT personnalisable. Mais malgré des coûts de plus en plus élevés, les entreprises peuvent également vouloir créer leur propre technologie.

Si une entreprise crée son propre GPT, le logiciel disposera des informations exactes auxquelles il souhaite que les employés aient accès. Une entreprise peut également protéger les informations que les employés injectent dans GPT, a déclaré Penakalapati, mais même embaucher une société d'intelligence artificielle pour générer cette plate-forme permettra aux entreprises d'alimenter et de stocker des informations en toute sécurité, a-t-il ajouté.

Quelle que soit la voie choisie par une entreprise, Penakalapati a déclaré que les RSSI doivent se rappeler que ces machines marchent en fonction de la façon dont elles ont été enseignées. Il est important d'être intentionnel quant aux données que vous fournissez à la technologie.

« Je dis toujours aux gens de s'assurer que vous disposez d'une technologie qui fournit des informations basées sur des données impartiales et précises », a déclaré Penakalapati. « Parce que cette technologie n'est pas créée par accident ».

Conclusion

Il serait intéressant de disposer d'une étude présentant les avantages et les inconvénients de l’IA générative au sein de l'entreprise de manière équilibrée et nuancée. De plus, des exemples concrets et des chiffres sur l’utilisation réelle de l’IA générative par les employés seraient les bienvenues.

Il faut également s’intéresser aux conséquences juridiques ou réglementaires potentielles de cette utilisation. À ce propos, l'Union européenne prépare une législation qui obligerait les outils d’intelligence artificielle comme ChatGPT à divulguer le matériel protégé par le droit d’auteur utilisé dans la construction de leurs systèmes, selon un nouveau projet de loi qui serait le premier ensemble de règles complet de l’Occident régissant le déploiement de l’IA. Cette obligation permettrait aux éditeurs et aux créateurs de contenu de disposer d’une nouvelle arme pour demander une part des bénéfices lorsque leurs œuvres sont utilisées comme matériau source pour le contenu généré par l’IA par des outils comme ChatGPT.

Source : CNN

Et vous ?

Quelles sont les implications ou les conséquences de l’utilisation secrète de ChatGPT et de l’IA par les employés pour les entreprises et la société ?
Quelles sont les solutions ou les recommandations que vous proposeriez pour gérer les risques et les défis liés à l’IA générative ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message
Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message
L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message
Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 09/06/2023 à 13:53
Pas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public

Je modifierais par :

Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises

pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics

en gros effondrement de notre modèle.

Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.

Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.

Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.
7  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0