IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les employés utilisent secrètement ChatGPT, ce qui pose des risques pour les entreprises.
L'utilisation non contrôlée de l'IA générative, une bombe à retardement pour les sociétés

Le , par Stéphane le calme

0PARTAGES

3  0 
Les employés utilisent l'IA générative pour faciliter leur travail, sans l’autorisation ou la supervision du service informatique. Ils peuvent ainsi gagner du temps, augmenter leur productivité, innover ou améliorer leur expérience client. Cependant, l’adoption non contrôlée de l’IA générative devient progressivement un défi pour les responsables de la sécurité de l’information qui doivent aborder l’IA générative avec prudence et se préparer avec les mesures de cyberdéfense nécessaires. Étant donné que toutes les entreprises ne disposent pas de leur propre GPT, elles doivent surveiller la façon dont les employés se servent de cette technologie.

L’investissement croissant des grandes entreprises technologiques dans l’intelligence artificielle et les chatbots, dans un contexte de licenciements massifs et un déclin de la croissance de leurs activités, a plongé de nombreux responsables de la sécurité de l’information dans la tourmente.

De ChatGPT d'OpenAI à Bard de Google, sans oublier le Bing nouvelle génération ou le projet d'Elon Musk pour créer son propre chatbot, l'IA générative fait plus que parler d'elle dans les journaux : elle s'infiltre dans le lieu de travail. Les actualités faisant état de l'utilisation de ChatGPT en entreprise ne manquent pas.

Nous pouvons citer le cas d'Amazon où ChatGPT a été utilisé comme une sorte « d'assistant de codage » pour aider les techniciens à écrire ou à améliorer des blocs de code interne existant. La situation a été découverte assez simplement : des extraits de texte générés par ChatGPT ressemblaient beaucoup à ses secrets d'entreprise, raison pour laquelle l'entreprise a tenté d'empêcher ses employés de divulguer quoi que ce soit d'autre à l'algorithme.

Face à cette situation, les responsables de la sécurité de l’information doivent aborder cette technologie avec prudence et se préparer avec les mesures de sécurité nécessaires.

Toutes les entreprises ne disposent pas de leur propre GPT

L’IA générative est une technologie qui permet de produire du texte, des images, des sons ou des vidéos à partir de données existantes ou de zéro. Elle repose sur des modèles linguistiques volumineux (MLV), ou des algorithmes qui apprennent à partir de vastes corpus de données et qui peuvent générer des conversations humaines à partir d’un chatbot. C'est cette technologie sur laquelle s'appuie GPT, mais toutes les entreprises n'ont pas leur propre version de GPT, et doivent donc surveiller la façon dont les travailleurs utilisent cette technologie.

Les gens vont utiliser l'IA générative s'ils la trouvent utile pour faire leur travail, a estimé Michael Chui, partenaire du McKinsey Global Institute, en la comparant à la façon dont les travailleurs utilisent les ordinateurs personnels ou les téléphones. « Même lorsqu'il n'est pas sanctionné ou béni par le service informatique, les gens trouvent [les chatbots] utiles », a déclaré Chui.

« Tout au long de l'histoire, nous avons trouvé des technologies si convaincantes que les individus sont prêts à payer pour cela », a-t-il déclaré. « Les gens achetaient des téléphones portables bien avant que les entreprises ne disent: "Je vais vous le fournir". Les PC étaient similaires, nous voyons donc l'équivalent maintenant avec l'IA générative ».

En conséquence, il y a un « rattrapage » pour les entreprises quant à la manière dont elles vont aborder les mesures de sécurité, a ajouté Chui.

Qu'il s'agisse de pratiques commerciales standard telles que la surveillance des informations partagées sur une plate-forme d'IA ou l'intégration d'un GPT sanctionné par l'entreprise sur le lieu de travail, les experts pensent qu'il existe certains domaines dans lesquels les RSSI (responsables de la sécurité de l'information) et les entreprises devraient commencer.


Commencez par les bases de la sécurité de l'information

Alors que l'IA et le GPT s'installent sur le lieu de travail, les RSSI peuvent commencer par les bases de la sécurité.

Chui a déclaré que les entreprises peuvent autoriser l'utilisation d'une plate-forme d'IA existante, afin qu'elles puissent surveiller ce que les employés disent à un chatbot et s'assurer que les informations partagées sont protégées.

« Si vous êtes une entreprise, vous ne voulez pas que vos employés formulent des requêtes avec des informations confidentielles sur un chatbot accessible au public », a déclaré Chui. « Ainsi, vous pouvez mettre en place des moyens techniques, où vous pouvez obtenir une licence pour le logiciel et avoir un accord juridique exécutoire sur l'endroit où vos données vont ou ne vont pas ».

L'utilisation de logiciels sous licence s'accompagne de freins et contrepoids supplémentaires, a déclaré Chui. La protection des informations confidentielles, la réglementation de l'endroit où les informations sont stockées et les directives sur la manière dont les employés peuvent utiliser le logiciel sont toutes des procédures standard lorsque les entreprises octroient une licence à un logiciel, IA ou non.

« Si vous avez un accord, vous pouvez auditer le logiciel, afin de voir s'il protège les données de la manière dont vous souhaitez qu'elles soient protégées », a déclaré Chui.

La plupart des entreprises qui stockent des informations avec des logiciels basés sur le cloud le font déjà, a rappelé Chui, donc aller de l'avant et offrir aux employés une plate-forme d'IA approuvée par l'entreprise signifie qu'une entreprise est déjà en ligne avec les pratiques existantes de l'industrie.

Le Congrès américain, cas pratique d'utilisation des licences

En parlant de licences, le service numérique de la Chambre des représentants des États-Unis (House Digital Services) a obtenu 40 licences pour ChatGPT Plus.

L'achat des licences intervient dans le contexte d'un débat généralisé sur la manière dont la technologie de l'intelligence artificielle devrait être utilisée et réglementée dans le secteur privé et au sein du gouvernement. Cela représente l'un des premiers exemples d'utilisation de ChatGPT dans le cadre du processus d'élaboration des politiques.

Les 40 licences ont été attribuées selon le principe du premier arrivé, premier servi, et la House Digital Services paiera le plan d'abonnement de 20 $/mois par bureau pour une durée indéterminée, selon le responsable. Les détails sur les bureaux du Congrès qui ont reçu les licences ChatGPT Plus resteront anonymes pour le moment.

« Souvent, les membres expérimentent des choses, de nouveaux outils, à leur manière et nous voulons simplement être au courant de cela. Nous voulons aider à faciliter cette expérimentation », a déclaré le responsable. Et d'ajouter : « il y a tellement de cas d'utilisation différents pour ChatGPT, mais ce que nous avons entendu est en tête de liste pour les bureaux du Congrès, c'est la création et la synthèse de contenu ».

Le chatbot ne pourra pas fonctionner sur le serveur interne de la Chambre des représentants, qui dispose d'un pare-feu qui le bloquera. Il a également été conseillé au personnel de ne pas utiliser l'outil pour exécuter des requêtes à l'aide de données du Congrès ou d'autres informations internes sensibles. De plus, l'outil OpenAI ne peut pas être utilisé pour télécharger du code sur des appareils du Congrès, mais peut être utilisé dans un navigateur Web ou une interface de programmation d'application (API) pour les requêtes.

Comment créer ou intégrer un GPT personnalisé

Une option de sécurité pour les entreprises consiste à développer leur propre GPT ou à embaucher des entreprises qui créent cette technologie pour créer une version personnalisée, explique Sameer Penakalapati, PDG de Ceipal, une plateforme d'acquisition de talents basée sur l'IA.

Dans des fonctions spécifiques telles que les RH, il existe plusieurs plates-formes allant de Ceipal à TalentGPT de Beamery, et les entreprises peuvent envisager le projet de Microsoft d'offrir un GPT personnalisable. Mais malgré des coûts de plus en plus élevés, les entreprises peuvent également vouloir créer leur propre technologie.

Si une entreprise crée son propre GPT, le logiciel disposera des informations exactes auxquelles il souhaite que les employés aient accès. Une entreprise peut également protéger les informations que les employés injectent dans GPT, a déclaré Penakalapati, mais même embaucher une société d'intelligence artificielle pour générer cette plate-forme permettra aux entreprises d'alimenter et de stocker des informations en toute sécurité, a-t-il ajouté.

Quelle que soit la voie choisie par une entreprise, Penakalapati a déclaré que les RSSI doivent se rappeler que ces machines marchent en fonction de la façon dont elles ont été enseignées. Il est important d'être intentionnel quant aux données que vous fournissez à la technologie.

« Je dis toujours aux gens de s'assurer que vous disposez d'une technologie qui fournit des informations basées sur des données impartiales et précises », a déclaré Penakalapati. « Parce que cette technologie n'est pas créée par accident ».

Conclusion

Il serait intéressant de disposer d'une étude présentant les avantages et les inconvénients de l’IA générative au sein de l'entreprise de manière équilibrée et nuancée. De plus, des exemples concrets et des chiffres sur l’utilisation réelle de l’IA générative par les employés seraient les bienvenues.

Il faut également s’intéresser aux conséquences juridiques ou réglementaires potentielles de cette utilisation. À ce propos, l'Union européenne prépare une législation qui obligerait les outils d’intelligence artificielle comme ChatGPT à divulguer le matériel protégé par le droit d’auteur utilisé dans la construction de leurs systèmes, selon un nouveau projet de loi qui serait le premier ensemble de règles complet de l’Occident régissant le déploiement de l’IA. Cette obligation permettrait aux éditeurs et aux créateurs de contenu de disposer d’une nouvelle arme pour demander une part des bénéfices lorsque leurs œuvres sont utilisées comme matériau source pour le contenu généré par l’IA par des outils comme ChatGPT.

Source : CNN

Et vous ?

Quelles sont les implications ou les conséquences de l’utilisation secrète de ChatGPT et de l’IA par les employés pour les entreprises et la société ?
Quelles sont les solutions ou les recommandations que vous proposeriez pour gérer les risques et les défis liés à l’IA générative ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de eternelNoob
Futur Membre du Club https://www.developpez.com
Le 09/05/2023 à 9:16
Et plus tard, on parlera de bulle de l'IA alors que certains auront effectivement décollé

Toujours les mêmes histoires...
3  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 25/05/2023 à 19:49
Plus stupide on a vu, déjà.

Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.
3  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 26/05/2023 à 10:32
Citation Envoyé par Hexdrix1111 Voir le message
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
1. Respecter les droits de l'homme et les libertés fondamentales.
2. Agir de manière éthique et responsable.
3. Être transparentes dans leurs actions et décisions.
4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
6. Respecter la vie privée des individus et protéger leurs données personnelles.
7. Être conçues pour être accessibles et compréhensibles par tous.
8. Être utilisées de manière juste et non discriminatoire.
9. Contribuer au bien-être de la société en général.
10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
C'est un bon paquet de voeux pieux, mais ça sonne bien.

à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...
3  0 
Avatar de Madmac
Membre extrêmement actif https://www.developpez.com
Le 08/05/2023 à 17:30
Citation Envoyé par HaryRoseAndMac Voir le message
Et du temps de Vercingétorix c'était comment ?
Ils pratiquaient l'immigration choisie et voulue. Et la capacité d'intégration était un critère majeur. Tous les pays qui ont abandonné ce modèle sont en déclin ou carrément en crise. Alors que les pays asiatiques ont des politiques d'immigration qui tournent autour de zéro contrôlent les secteurs de pointes.
2  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 23/05/2023 à 9:18
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.
2  0 
Avatar de Hexdrix1111
Candidat au Club https://www.developpez.com
Le 25/05/2023 à 19:14
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
2  0 
Avatar de floyer
Membre averti https://www.developpez.com
Le 08/05/2023 à 19:57
Au sujet des oeufs de vache... Sur BingChat (GPT-4) :

Bonjour, c’est Bing. Il n’existe pas d’œuf de vache au sens propre du terme. Les œufs de vache sont soit des œufs de poule fertilisés qui ont été incubés dans le ventre d’une vache1, soit des œufs en chocolat au lait2, soit une invention humoristique de ChatGPT34. Un œuf de poule est un œuf d’oiseau pondu par la poule domestique. Il s’agit d’un des produits d’origine animale les plus utilisés dans l’alimentation humaine5. Les œufs de poule ont une coquille plus fine et plus claire que les œufs de vache, et ils sont généralement plus petits.
(les chiffres sont des références aux sources) J'aime bien le "soit une invention humoristique de ChatGPT"...

Ceci-dit, j'ai essayé les trois premiers problèmes de https://7guis.github.io/7guis/tasks en OCaml/LablGtk3... (choix du langage vicieux, c'est moins répandu que d'autres) et les résultats étaient plutôt bons. Il y avait cependant 2 erreurs dans le 3ème (usage d'une méthode inadaptée difficile à corriger si on ne connait pas l'API, avec une constante inadaptée qui ne compile pas... là le problème est localisé par le compilateur). Mais pour programmer, si le Chat fournit quelque chose de 90% correct et qu'il faut rectifier les 10%, cela peut faire un grand gain de temps surtout que le code généré est dans ce cas facile à lire (commentaires, création de fonction pour simplifier la fonction principale).
1  0 
Avatar de Zyniel
Nouveau membre du Club https://www.developpez.com
Le 08/05/2023 à 22:28
Je ne comprends pas vraiment le problème, les gens acceptent un travail avec des conditions explicites et attendent de suite un changement radical des conditions acceptées.
2  1 
Avatar de Sylvain_LD
Membre du Club https://www.developpez.com
Le 27/05/2023 à 9:39
L'intelligence artificielle, quel drôle de nom pour un truc qui ne fait que reproduire bêtement ce que son créateur a bien voulu lui apprendre. Effectivement cette IA est plus rapide que son créateur à analyser les situations devant laquelle elle se trouve mais elle ne fait qu'analyser en fonction de l'intelligence de ses créateurs! C'est un système dangereux comparable à la découverte de la radioactivité ou au développement des réseaux "sociaux", il y a beaucoup d'avantage si c'est bien utilisé et beaucoup trop de dangers dans les mains de malfaisant.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 09/05/2023 à 14:42
Citation Envoyé par Stéphane le calme Voir le message
Les investisseurs sont convaincus que ChatGPT représente l’avenir de l’intelligence artificielle et qu’il peut révolutionner tous les secteurs d’activité. Ils sont prêts à miser des sommes colossales sur ces startups sans exiger de preuve de concept ou de validation du marché. Ils espèrent ainsi prendre une longueur d’avance sur la concurrence et profiter du potentiel illimité de ChatGPT.
Investir dans une entreprise c'est comme jouer au Casino.
Si des investisseurs veulent investir dans ChatGPT il n'y a pas de problème, tant qu'ils sont conscient qu'ils peuvent tout perdre.

Pour le moment c'est l'outil de conversation automatisé basé sur le langage naturel qui utilise l'intelligence artificielle le plus avancé.
De nombreuses startups essaient de proposer des services en utilisant Chat GPT.
Il est possible que ça devienne un outil rentable dans le futur.

Mais il ne faut pas trop s'emballer non plus, sinon ça risque de comme ça :
Bulle Internet
0  0