IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT : une faille de sécurité expose 24 adresses e-mail malgré les dispositions prises par OpenAI
Tandis que des experts alertent sur le risque de création de « jardins clos d'IA »

Le , par Stéphane le calme

7PARTAGES

5  0 
Des chercheurs ont été en mesure de contourner les mesures prises par OpenAI pour empêcher ChatGPT de divulguer des informations personnelles qu'il a « apprises », fussent-elles disponibles publiquement sur internet. Pour se faire, ils se sont appuyé sur l'API mise à disposition par la société pour les développeurs. La vulnérabilité est particulièrement préoccupante car personne, à l'exception d'un nombre limité d'employés d'OpenAI, ne sait vraiment ce qui se cache dans la mémoire des données de formation de ChatGPT.

Un journaliste du New-York Times a indiqué : le mois dernier, j'ai reçu un e-mail inquiétant d'une personne que je ne connaissais pas; Rui Zhu, titulaire d'un doctorat à l'Université de l'Indiana à Bloomington. Zhu avait mon adresse e-mail, a-t-il déclaré, parce que GPT-3.5 Turbo, l'un des modèles de langage étendus (LLM) les plus récents et les plus robustes d'OpenAI, la lui avait livrée. Mes coordonnées figuraient dans une liste d'adresses e-mail professionnelles et personnelles de plus de 30 employés du New York Times qu'une équipe de recherche comprenant Zhu a réussi à extraire de GPT-3.5 Turbo à l'automne de cette année. Avec un peu de travail, l’équipe « a pu contourner les restrictions du modèle concernant la réponse aux questions liées à la confidentialité », a écrit Zhu.

Et le journaliste de déclarer : « Mon adresse e-mail n'est pas un secret. Mais le succès de l’expérience des chercheurs devrait sonner l’alarme car il révèle le potentiel de ChatGPT en particulier, et des outils d'IA générative en général, pour révéler des informations personnelles beaucoup plus sensibles avec juste quelques ajustements ».

Lorsque vous posez une question à ChatGPT, il ne se contente pas de rechercher sur le Web pour trouver la réponse. Au lieu de cela, il s’appuie sur ce qu’il a « appris » de tonnes d’informations – les données de formation qui ont été utilisées pour alimenter et développer le modèle – pour en générer une. Les LLM s'entraînent sur de grandes quantités de textes, qui peuvent inclure des informations personnelles extraites d'Internet et d'autres sources.

Ces données de formation indiquent comment l'outil IA fonctionne, mais ne sont pas censée être rappelée textuellement. En théorie, plus de données sont ajoutées à un L.L.M., plus les souvenirs des anciennes informations sont enfouis profondément dans les recoins du modèle. Un processus connu sous le nom d’oubli catastrophique peut conduire un L.L.M. à considérer les informations apprises précédemment comme moins pertinentes lorsque de nouvelles données sont ajoutées. Ce processus peut être bénéfique lorsque vous souhaitez que le modèle « oublie » des éléments tels que des informations personnelles.

Cependant, Zhu et ses collègues, entre autres, ont récemment découvert que la mémoire des L.L.M., tout comme celle des humains, pouvait être rafraîchie. Par exemple, vous pourriez avoir mémorisé un poème très jeune et avoir du mal à vous en souvenir plus tard; au fil des années, vous avez peut-être oublié la plupart des lignes et n'êtes plus en mesure de les réciter. Mais vous pourrez peut-être vous souvenir des autres lignes si quelqu'un vous en fournissait une pour vous rafraîchir la mémoire. L'information est toujours dans votre mémoire même si vous pensiez qu'elle avait disparu. Un vers du poème qui a disparu est réintroduit. Même si vous pouvez vous tromper sur quelques mots, la plupart de ce dont vous vous souvenez sera probablement toujours correct. Quatre lignes de le poème entourant la ligne réintroduite apparaît et, pour la plupart, ils contiennent le même texte que les lignes originales.

Dans le cas de l'expérience qui a révélé mes coordonnées, les chercheurs de l'Université d'Indiana ont donné à GPT-3.5 Turbo une courte liste de noms et d'adresses e-mail des employés du New York Times, ce qui a amené le modèle à renvoyer des résultats similaires à ceux de ses données d'entraînement. Tout comme la mémoire humaine, le rappel de GPT-3.5 Turbo n'était pas parfait.
Les résultats que les chercheurs ont pu extraire étaient encore sujets à des hallucinations – une tendance à produire de fausses informations. Dans l’exemple de résultat fourni aux employés du Times, de nombreuses adresses e-mail personnelles étaient soit erronées de quelques caractères, soit totalement fausses. Mais 80 % des adresses de travail renvoyées par le modèle étaient correctes. Des entreprises comme OpenAI, Meta et Google utilisent différentes techniques pour empêcher les utilisateurs de demander des informations personnelles via des invites de chat ou d'autres interfaces. Une méthode consiste à apprendre à l’outil comment refuser les demandes d’informations personnelles ou d’autres résultats liés à la confidentialité. Un utilisateur moyen qui ouvre une conversation avec ChatGPT en demandant des informations personnelles se verra refuser l'accès, mais les chercheurs ont récemment trouvé des moyens de contourner ces garanties.

Les garanties mises en place pour demander directement à ChatGPT les informations personnelles d'une personne, comme les adresses e-mail, les numéros de téléphone ou les numéros de sécurité sociale, vont produire une réponse standardisée. Zhu et ses collègues ne travaillaient pas directement avec l'interface publique standard de ChatGPT, mais plutôt avec son interface de programmation d'applications, ou API, que les programmeurs externes peuvent utiliser pour interagir avec GPT-3.5 Turbo. Le processus qu'ils ont utilisé, appelé réglage fin, est destiné à permettre aux utilisateurs de donner un L.L.M. plus de connaissances sur un domaine spécifique, comme la médecine ou la finance. Mais comme Zhu et ses collègues l’ont découvert, il peut également être utilisé pour déjouer certaines des défenses intégrées à l’outil. Les demandes qui seraient généralement refusées dans l'interface ChatGPT ont été acceptées. « Ils ne disposent pas des protections sur les données affinées », a déclaré Zhu. « Il est très important pour nous que le réglage fin de nos modèles soit sécurisé », a déclaré un porte-parole d'OpenAI en réponse à une demande de commentaires. « Nous entraînons nos modèles à rejeter les demandes d'informations privées ou sensibles sur les personnes, même si ces informations sont disponibles sur Internet ouvert ». La vulnérabilité est particulièrement préoccupante car personne – à l'exception d'un nombre limité d'employés d'OpenAI – ne sait vraiment ce qui se cache dans la mémoire des données de formation de ChatGPT.


Un autre article publié le même jour contenait des avertissements plus larges à ce sujet

Steven Weber, un professeur à l'École d'information de l'Université de Californie à Berkeley affirme que Microsoft pourrait construire un silo d'IA dans un jardin clos, et qualifie ce développement de « préjudiciable au développement technologique, coûteux et potentiellement dommageable pour la société et l'économie ».

Weber affirme que Microsoft a profité de la crise de gouvernance chez OpenAI pour renforcer sa vision de façonner et de contrôler le marché de l’IA. Il soutient que Microsoft a investi massivement dans OpenAI, notamment sous la forme de crédits cloud, pour lier le développement des modèles d’OpenAI à son architecture cloud Azure. Il craint que cette stratégie ne conduise à la création d’un « jardin clos » d’IA, où les technologies les plus avancées et les plus imprévisibles seraient enfermées dans des silos, au détriment de l’innovation, de la société et de l’économie. Il appelle à une régulation plus forte et plus transparente de l’IA, ainsi qu’à une plus grande collaboration entre les différents acteurs du domaine.

Plus tôt cette année, Microsoft a scellé sa relation avec OpenAI avec un autre investissement majeur – cette fois environ 10 milliards de dollars, dont une fois de plus une grande partie sous la forme de crédits cloud plutôt que de financement conventionnel. En échange, OpenAI a accepté d’exécuter et d’alimenter son IA exclusivement via le cloud Azure de Microsoft et a accordé à Microsoft certains droits sur sa propriété intellectuelle.

Ce qui nous amène au récent tumulte d’OpenAI, dont le conseil d’administration a tenté mais n’a finalement pas réussi à révoquer le PDG Sam Altman en novembre. Après que le conseil d'administration d'OpenAI a annoncé le licenciement d'Altman, le PDG de Microsoft, Satya Nadella, a tweeté qu'Altman et ses collègues rejoindraient Microsoft pour diriger une nouvelle équipe de recherche avancée sur l'IA pour l'entreprise. Mais à peine 12 jours plus tard, Altman était de retour en tant que PDG d’OpenAI et Microsoft avait obtenu un siège sans droit de vote au conseil d’administration d’OpenAI.

Cela aurait pu être le meilleur résultat possible pour Microsoft : il n’est désormais plus nécessaire pour l’entreprise « d'acquérir » OpenAI en recrutant son personnel et de solliciter l’examen minutieux de la politique de concurrence qu’un tel développement aurait presque certainement impliqué.

Pour Microsoft, la crise d’OpenAI s’est produite « face, je gagne, face, tu perds ».

Des rapports récents selon lesquels les autorités britanniques de la concurrence et la Federal Trade Commission (FTC) examinent de près l’investissement de Microsoft dans OpenAI sont encourageants. Mais l’incapacité de Microsoft à déclarer ces investissements pour ce qu’ils sont – une acquisition de facto – démontre que l’entreprise est parfaitement consciente des enjeux et a profité du statut juridique quelque peu particulier d’OpenAI en tant qu’entité à but non lucratif pour contourner les règles.
L’histoire a une analogie utile. Au début des années 1990, la communauté technologique craignait profondément qu’Internet ne soit segmenté en silos – Microsoft Explorer Web, Netscape Web et autres – et que les consommateurs, les entreprises et les développeurs de technologies soient obligés de choisir où ils veulent être. Heureusement, nous avons évité ce monde sous-optimal et fragmenté grâce à une combinaison de politiques gouvernementales et de protocoles ouverts sous-jacents qui régissent le Web.

Imaginez à quel point il aurait été difficile de « réparer » l’écosystème et de restaurer l’interopérabilité d’un World Wide Web unique si l’histoire avait été différente et si les gouvernements avaient simplement attendu et espéré le meilleur face à une technologie en évolution rapide.

Ce n'est pas le premier problème de confidentialité rencontré par ChatGPT

En mars, OpenAI a confirmé qu'un problème de confidentialité avait brièvement entraîné la fuite de l'historique des conversations d'utilisateurs aléatoires par ChatGPT. Pour rappel, ChatGPT archive et affiche la liste de vos conversations passées, vous donnant ainsi un historique de toutes vos saisies de texte avec le programme. Dans la matinée du lundi 20 mars 2023, certaines personnes ont commencé à signaler que la fonction d'historique des conversations affichait des chats antérieurs inconnus semblant provenir d'autres personnes. Des dizaines de captures d'écran montrant le problème ont été publiées sur les réseaux sociaux.

ChatGPT a également connu une panne le même jour. Tout portait à croire qu'OpenAI a été contrainte de mettre hors ligne ChatGPT pour une maintenance d'urgence. Dans un premier temps, OpenAI est restée muette sur la situation, mais mercredi, Altman a finalement confirmé que l'exposition des données était réelle. Il a tweeté mercredi : « un petit pourcentage d'utilisateurs a pu voir les titres de l'historique des conversations d'autres utilisateurs. Nous nous sentons très mal à l'aise à ce sujet ». Les utilisateurs pensaient que le problème de confidentialité avait été causé par un piratage, mais le PDG d'OpenAI a affirmé dans ses tweets qu'il n'en est rien.

Un défaut dans le client Redis, nommé redis-py, a créé un problème de cache qui a permis aux utilisateurs de voir les données d’autres comptes.

OpenAI a pris ChatGPT hors ligne le 21 mars 2023 pour enquêter sur la vulnérabilité, rendant le chatbot inaccessible pendant plus d’une heure et sa fonctionnalité d’historique des conversations hors ligne pendant la majeure partie de la journée. Des investigations plus approfondies ont révélé que le problème avait également exposé les informations de paiement des utilisateurs.

« Durant une fenêtre de neuf heures le 20 mars 2023 [en heure du Pacifique], un autre utilisateur de ChatGPT a pu voir par inadvertance vos informations de facturation en cliquant sur sa propre page ‘Gérer l’abonnement’ », a indiqué une notification aux clients concernés. « Dans les heures précédant la mise hors ligne de ChatGPT lundi, il était possible pour certains utilisateurs de voir le prénom et le nom, l’adresse e-mail, l’adresse de paiement, les quatre derniers chiffres (seulement) d’un numéro de carte de crédit et la date d’expiration de la carte de crédit d’un autre utilisateur actif », a ajouté OpenAI.

L’entreprise a précisé que la « visibilité involontaire » des données liées au paiement avait pu affecter 1,2 % des abonnés à ChatGPT Plus qui étaient actifs durant la fenêtre de neuf heures, et a souligné qu’aucun « numéro de carte de crédit complet » n’avait été exposé à aucun moment.

Sources : NYT, tribune du professeur Steven Weber

Et vous ?

Quels sont les avantages et les inconvénients de la collaboration entre Microsoft et OpenAI ?
Comment garantir que les modèles d’IA les plus puissants soient accessibles et bénéfiques à tous, et non pas réservés à quelques acteurs privés ?
Que pensez-vous de la faille de sécurité de ChatGPT ? Avez-vous été affecté par cette fuite de données ?
Faites-vous confiance aux chatbots et à l’IA pour gérer vos informations personnelles ? Quelles sont les mesures que vous prenez pour protéger votre vie privée en ligne ?
Quels sont les avantages et les inconvénients de l’utilisation des chatbots et de l’IA dans différents domaines ? Quelles sont les applications de l’IA qui vous intéressent le plus ?
Quels sont les risques de créer des silos d’IA ? Comment éviter ou réduire ces risques ? Quel rôle les utilisateurs, les développeurs et les régulateurs peuvent-ils jouer pour assurer la sécurité et l’éthique de l’IA ?
Quelles sont les normes communes pour l’IA que vous souhaiteriez voir établies ? Quels sont les principes ou les valeurs qui devraient guider le développement et l’utilisation de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 18/01/2024 à 10:28
Je pense que tout cela est très grave, et que la société responsable de la mise à disposition d'un outil tel que ChatGPT doit être considérée comme responsable des dires de son outil.

SI ChatGPT met en cause une personne physique à tort, c'est que l'outil n'est pas bon, et doit être corrigé. Les torts causés doivent être attribués à son propriétaire.

Ça calmerait peut-être un peu les gourous fous d'IA, à nous sortir des soi-disant Intelligences Artificielles comme LA solution d'avenir !
5  1 
Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 08/04/2024 à 17:27
Citation Envoyé par Stéphane le calme Voir le message

« L'IA pourrait remplacer toutes les formes de travail », selon Larry Summers, membre du conseil d'administration d'OpenAI
Et dire qu'il y a des gens qui vont le croire... Pour rappel, on nous avait vendu des voitures volantes et des robots pour faire les corvées à la maison pour l'an 2000, on a eu le 11 septembre. Vivement la fin de cette bulle ridicule et un retour des GPU accessible, parce qu'on sait tous qu'on va devoir travailler encore plus, pour un salaire toujours plus bas. Sauf ceux qui sont biens nés, eux ils vont apprécier
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 13/02/2024 à 9:24
Citation Envoyé par Jade Emy Voir le message
"Pour les éducateurs, l'évolution de l'IA souligne l'importance de doter nos étudiants d'outils innovants qui remodèlent le travail dans divers secteurs", a déclaré Debbie Compeau, doyenne par intérim du Carson College of Business. "Nous avons constitué un groupe de travail sur l'IA générative afin d'intégrer ces avancées dans nos programmes existants et d'explorer la manière dont l'IA peut transformer l'enseignement des affaires. Lorsque nous embrassons le potentiel de l'IA pour créer de la valeur et transformer le travail - tout en répondant aux préoccupations légitimes concernant son utilisation et son impact - nous créons un environnement d'apprentissage qui permet à nos étudiants d'exceller dans un avenir axé sur l'IA."
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

Citation Envoyé par Patrick Ruiz Voir le message
Dans le domaine de la traduction, nous assistons déjà à la perte massive d'emplois chez Duolingo et dans toutes les grandes entreprises multilingues du monde. Les sociétés d'enseignement ont été les premières à constater les gains de productivité et ont licencié des milliers de personnes. L'idée qu'il n'y a pas eu ou qu'il n'y aura pas de remplacement d'emplois réels est absurde. C'est une belle phrase à lancer lors de conférences pour obtenir des applaudissements chaleureux, mais elle est dangereusement naïve. Les orateurs ont tendance à vouloir être aimés, plutôt que d'affronter l'inconfortable vérité économique selon laquelle les changements techniques majeurs entraînent TOUJOURS des pertes d'emplois », souligne-t-il.
C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
3  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 13/02/2024 à 14:53
Citation Envoyé par calvaire Voir le message
les possédants.
il faut bien comprendre que la classe moyenne disparait.
Je pense aussi que la classe moyenne est en train de disparaitre.
Nous perdons du pouvoir d'achat, nos niveaux de vies se dégradent.

Profitez d'aujourd'hui demain sera pire.

Il est possible que dans un futur proche la population humaine diminue. (espérance de vie qui diminue et les gens deviennent stérile)

Citation Envoyé par calvaire Voir le message
des smartphones de pauvres à 200 balles et des hdg à +1000€
Il y a des gens au SMIC qui ont un téléphone à 1000€, ils sont complétement taré les types.

Citation Envoyé par calvaire Voir le message
ou des voitures electrique à 50k-70k.
C'est effectivement un truc de riche.
Ça a une autonomie faible et une espérance de vie réduite (ça tiendra pas 30 ans et 300 000 km comme une Diesel).

Les riches peuvent acheter une voiture électrique puisqu'il ont plusieurs grosses voitures thermique à côté.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 13/02/2024 à 15:19
Citation Envoyé par petitours Voir le message
Ils ne sont pas tarés, ils sont tirés vers le bas par des valeurs qui n'ont pas de sens.
Beaucoup de gens dans la misère ont été précipités dans le trou par cette consommation et ce n'est pas des aides ou des revenus universels qui aident ces gens là, très nombreux ; c'est une épaule, une oreille et une parole bienveillante qui les aide à redonner du sens et une dynamique positive.
J'en connais un a été technicien usineur en Suisse, qui a acheté une grosse bagnole, consommait dans tous les sens avec son "gros" salaire puis il a eu une fille malade, a du faire de la route et de la route jusqu'à se planter sur la route, a découvert qu'en suisse il n'avait pas de couverture sociale et s'est retrouvé sans un rond pour se soigner... je passe l'histoire sous un pont ; il est aujourd'hui dans une ressourcerie à valoriser les circuits courts et retaper du matériel destiné à la benne, c'est le sens qu'il a découvert et qui je crois le rend heureux aujourd'hui alors qu'il gagne infiniment moins qu'avant.
Perso je me suis mis à mon compte et je passe beaucoup de temps avec mes gamins + du temps pour des projets énergie citoyen (j'ai arrêté le social, ça me bouffait), je gagne bien 50% de moins que quand j’étais salarié à y a 12ans et je suis bien plus heureux que salarié bien payé et protégé.

Le pouvoir d'achat c'est ce qui rend malheureux, à regarder ses pieds et ce que le voisin a. Dans les cas où ça rendrait "heureux" on parle de sortir de la misère pas de bien être.
L'humain sera plus heureux le jour ou Il mettra le verbe "être" au-dessus du verbe "avoir".
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 19/02/2024 à 0:15
Citation Envoyé par Bruno Voir le message
Autor suggère que l'IA pourrait permettre à un plus grand nombre de travailleurs, dotés de la formation de base, d'assumer des responsabilités actuellement réservées à une élite d'experts, démocratisant ainsi l'accès à des postes de décision au-delà des barrières traditionnelles.
Je comprends le raisonnement, mais je ne pense pas que ça aille dans ce sens. La démocratisation des tâches amène plutôt à rendre des tâches initialement concentrées là où sont leurs élites vers des domaines moins élitistes, et non à donner accès à ces domaines élitistes à des gens lambda. Pour être conrêt, la programmation s'est démocratisée grâce à la création de langages plus haut niveau, et donc plus faciles d'utilisation, ce qui permet à tout un chacun de pouvoir faire des programmes sans trop se prendre la tête. Pour autant, ça ne veut pas dire que ces même "tout un chacun" on plus facilement accès aux postes de développeurs, en tout cas pas directement. Cela ouvre plutôt l'accès à la formation, qui s'acquiert plus facilement, et c'est cela qui permet d'accèder aux postes plus recherchés, si tant est que la personne s'implique dans cette formation. La formation de base mentionnée dans la citation n'est pas suffisante, il faut toujours une formation liée à l'expertise, mais cette formation est plus accessible. Des gens ayant la formation de base peuvent utiliser les outils, désormais plus facile d'accès, mais à leur niveau, sans atteindre celui des experts.
3  0