IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les grands modèles de langage sont en état d'ébriété, selon Mattsi Jansky, développeur de logiciels, il présente l'envers du decor des LLM,
Dans un billet de blog

Le , par Bruno

31PARTAGES

8  0 
Mattsi Jansky, professionnel en informatique, examine les préoccupations liées à l'abus du terme "IA" dans le contexte des grands modèles de langage (LLM) comme ChatGPT. Il met en avant les complications issues de la publicité exagérée et des investissements massifs dans ces modèles. En se référant à l'époque d'Alan Turing, Jansky souligne que malgré les progrès de l'IA, les LLM ne sont pas de véritables intelligences artificielles, mais plutôt des algorithmes d'apprentissage automatique qui génèrent du texte humain sans avoir de capacité de raisonnement autonome.

Il explore les limites intrinsèques des LLM, mettant en évidence les défis liés à la correction des erreurs de comportement. Il émet également des avertissements concernant les implications d'une utilisation massive de ces modèles, soulignant l'émergence de résultats inattendus et critiquant les investissements souvent disproportionnés dans des entreprises prétendant exploiter l'IA.


« La plupart des organisations que j'ai vues investir dans des fantasmes de LLM ont une chose en commun : leur produit présente des tonnes de problèmes auxquels il serait préférable de consacrer son temps », déclareMattsi Jansky. Lorsque Turing a publié Computing Machinery and Intelligence, il a décrit une « machine à penser » capable de raisonner comme les humains. Il a longuement argumenté sur le fait qu'il était possible de créer des machines pensantes : Rien de ce qui est connu en physique, en informatique, en mathématiques ou dans tout autre domaine ne permet d'écarter cette possibilité. Il a répété tous les arguments connus contre les machines à penser, en les déconstruisant et en les défaisant tous. Lors de la conférence de Dartmouth en 1956, l'idée d'une machine pensante est devenue l'intelligence artificielle. C'est là que nous, les humains, avons pris nos premières mesures sérieuses et organisées pour en créer une.


Depuis lors, le domaine de l'IA a généré un nombre considérable de découvertes remarquables : Recherche, représentation des connaissances, inférence dans la logique du premier ordre, raisonnement probabiliste, systèmes experts, planification dynamique et robotique, systèmes multi-agents, apprentissage automatique, reconnaissance vocale, traitement du langage naturel, traduction automatique, reconnaissance d'images, etc. Mattsi Jansky classe ces technologies en trois grandes catégories : le connexionnisme, le symbolisme et l'actionnisme.

Un grand modèle de langage est un type de programme d'intelligence artificielle (IA ) capable de reconnaître et de générer du texte, entre autres tâches. Les LLM sont formés sur d'énormes ensembles de données, d'où leur nom de « grands modèles ». Les LLM s'appuient sur l'apprentissage automatique: plus précisément, sur un type de réseau neuronal appelé modèle de transformateur.

En termes plus simples, un LLM est un programme informatique qui a reçu suffisamment d'exemples pour être capable de reconnaître et d'interpréter le langage humain ou d'autres types de données complexes. De nombreux LLM sont formés à partir de données recueillies sur l'internet - des milliers ou des millions de gigaoctets de texte. Mais la qualité des échantillons a une incidence sur la capacité des LLM à apprendre le langage naturel, de sorte que les programmeurs d'un LLM peuvent utiliser un ensemble de données mieux calibré.

Les LLM utilisent un type d'apprentissage automatique appelé apprentissage profond afin de comprendre comment les caractères, les mots et les phrases fonctionnent ensemble. L'apprentissage profond implique l'analyse probabiliste de données non structurées, ce qui permet au modèle d'apprentissage profond de reconnaître les distinctions entre les éléments de contenu sans intervention humaine.

Les LLM sont ensuite formés par tuning : ils sont ajustés avec précision ou avec des invites à la tâche particulière que le programmeur veut leur confier, comme l'interprétation de questions et la génération de réponses, ou la traduction d'un texte d'une langue à une autre.


Dans le débat public, cette nuance est éclipsée par les LLM, la seule réalisation du domaine de l'IA dont tout le monde parle ces derniers temps. Un LLM est un algorithme d'apprentissage automatique capable de générer un texte ressemblant à s'y méprendre à un texte humain. Il est entraîné sur d'énormes quantités de texte en utilisant des quantités stupéfiantes de puissance de traitement, afin de créer un modèle probabiliste qui peut prédire en grande partie ce qu'une personne humaine réelle pourrait dire en réponse à une entrée donnée. Pour ce faire, des réseaux neuronaux sont créés, mais ne vous y trompez pas : ces réseaux neuronaux n'ont rien à voir avec les cerveaux des mammifères. Ils ne sont pas destinés à reproduire la façon dont les humains pensent, mais plutôt à prédire ce qu'un humain pourrait dire en réponse à une information donnée.

Les réseaux neuronaux sont impliqués dans le mécanisme, mais pas dans la simulation d'une pensée humaine. Les statistiques et la théorie des probabilités sont les principaux moyens par lesquels tout cela fonctionne. En d'autres termes, le modèle devine la combinaison de lettres que quelqu'un d'autre pourrait écrire en réponse à votre demande.

Beren Millidge, responsable de la recherche IA chez Conjecture, présent le terme de "confabulation" comme étant plus adapté que "hallucination" pour décrire le comportement des grands modèles de langage lorsqu'ils génèrent des informations fausses mais plausibles. Il compare la confabulation des LLM à celle des humains souffrant de lésions cérébrales, lesquels inventent des histoires en réponse à des questions qu'ils ne peuvent pas traiter, soulignant que les LLM agissent comme des humains amnésiques et sans cohérence centrale. Les LLM sont des algorithmes d'apprentissage profond qui effectuent diverses tâches de traitement du langage naturel (NLP) en utilisant des modèles de transformation et des ensembles de données massifs.

Millidge explique que les LLM, également appelés réseaux neuronaux, fonctionnent avec des couches de nœuds similaires aux neurones humains. Ces modèles sont pré-entraînés et affinés pour résoudre des problèmes de classification de texte, de réponse à des questions, de résumé de documents, et plus encore. Il souligne que les LLM ont de nombreux paramètres, constituant leur banque de connaissances. Millidge préconise l'utilisation du terme "confabulation" pour décrire le phénomène où les LLM inventent des informations plausibles en réponse à des requêtes, similaire au comportement des humains atteints de troubles de la mémoire ou de cerveau divisé.

Le responsable de la recherche IA chez Conjecture souligne l'intérêt et la provocation du point de vue de Millidge, qui pose la question de la terminologie appropriée pour décrire le comportement des LLM lorsqu'ils produisent des informations fausses mais plausibles. Bien que l'auteur propose le terme de "confabulation" emprunté à la psychologie, il reconnaît les limites et nuances de cette comparaison. Il souligne que, contrairement à la confabulation humaine liée à des troubles cognitifs, la confabulation des LLM est plutôt une limitation technique ou algorithmique sans impact sur leur état interne ou leur bien-être émotionnel.

Dans les discussions sur la philosophie et la définition de l'IA, le diagramme suivant est fréquemment utilisé. Il exprime les quatre principales façons dont les gens définissent l'IA. L'IA doit-elle penser comme nous ? Ou doit-elle produire des réponses logiquement correctes ? Doit-elle être autonome ? La façon dont elle pense a-t-elle une quelconque valeur tant qu'elle agit comme un être humain ? Le fait d'être semblable à un être humain a-t-il une valeur tant qu'il produit des actions valables ?


Les LLM se situent dans la partie inférieure gauche de ce diagramme. Ils agissent humainement, mais ne sont pas censés agir rationnellement, ni penser comme des humains. On pourrait penser qu'ils font bien plus que cela. Dans ce cas, certains des modèles d'apprentissage automatique les plus puissants jamais créés ont été chargés de "produire quelque chose qui ressemble à un être humain et qui est intelligent" et ils y parviennent incroyablement bien. Mais soyons clairs : ils ne sont pas intelligents. Ils sont incapables de raisonner. Encore une fois, on pourrait vous pardonner d'être surpris par cela, étant donné la façon dont les médias ont traité les LLM comme le début de la révolte des robots.

L'engouement pour les LLM et ses conséquences problématiques

Les grands modèles de langage (LLM) ont la capacité impressionnante de donner l'illusion d'intelligence, malgré leur absence réelle de compréhension. Cette caractéristique, combinée à l'effervescence actuelle de l'industrie technologique, crée une conjonction propice à des développements problématiques. L'émergence rapide de start-ups surévaluées, promettant des fonctionnalités alléchantes que les LLM ne peuvent finalement pas fournir, a déclenché un véritable chaos. Des exemples abondent, tels que le déploiement par DPD d'un chatbot LLM qui a insulté les utilisateurs, les licenciements inutiles de journalistes technologiques misant à tort sur les capacités de ChatGPT, ou encore l'intégration de ces modèles dans des pipelines de CI pour des conseils humoristiques et futiles.

La démesure autour des LLM s'étend également aux investissements, avec une augmentation significative des financements pour les start-ups spécialisées dans l'IA, parfois valorisées à des niveaux extravagants malgré l'absence de revenus concrets. Ces entreprises, prétendant souvent être pionnières dans l'application de l'IA à divers domaines, exploitent le battage médiatique entourant cette technologie. Même des entreprises comme Apply Pro prétendent utiliser l'IA pour l'acquisition de talents, bien que des investigations révèlent que cette prétendue utilisation d'IA ne soit apparue qu'après l'engouement pour les LLM.

L'engouement pour l'IA a également atteint des proportions absurdes, avec des entreprises utilisant le terme à la mode pour attirer des capitaux sans réellement intégrer de nouvelles techniques d'IA. Certains prétendent même que des boîtes noires magiques sont derrière leurs produits, alors qu'il s'agit simplement de travailleurs sous-payés. Cet emballement médiatique autour de l'IA, dépourvu de substance, révèle une nouvelle façon de commercialiser d'anciennes pratiques d'exploitation sous le déguisement de l'innovation technologique.

L'influence de l'engouement pour l'IA n'épargne pas les gouvernements, comme le démontre l'utilisation par le gouvernement britannique de LLM dans diverses applications, malgré les préjugés bien documentés de ces modèles envers les minorités. Même des géants tels que Microsoft déclarent que l'année 2024 sera "l'année de l'IA", intégrant massivement les LLM dans leurs applications, allant même jusqu'à ajouter un "bouton AI" à leurs nouveaux claviers. Tout cela soulève des questions cruciales sur l'utilisation responsable et éthique de l'IA dans divers secteurs.

Sam Altman, le PDG d'OpenAI, initiateur de l'engouement pour les LLM, a exprimé l'idée que nous pourrions voir émerger une intelligence artificielle générale au cours de la prochaine décennie. Si cette affirmation vise à susciter l'enthousiasme, je trouve cette hypothèse extrêmement improbable. « Je lui accorde à peu près autant de crédit que l'on aurait dû accorder à la déclaration de Marvin Minsky en 1970, prévoyant une machine dotée de l'intelligence générale d'un être humain moyen dans les trois à huit ans, ou à l'affirmation d'Herbert Simon en 1965 selon laquelle les machines accompliraient n'importe quel travail humain d'ici vingt ans. Même des figures éminentes comme Minsky, pionnier de l'IA, ont par le passé émis des prévisions non réalisées », Mattsi Jansky.

L'absence de concrétisation de ces attentes a créé un climat de méfiance dans le domaine de l'IA, marqué par une réputation d'hyperbole et de promesses non tenues. En 1973, le Parlement britannique a fortement critiqué l'état de la recherche en IA, soulignant que les découvertes jusqu'alors n'avaient pas eu l'impact majeur promis. Ce scepticisme a contribué à l'hiver de l'IA dans les années 1970, entraînant un déclin du financement et de l'intérêt.

Un informaticien américain a subi un revers dans sa tentative d'obtenir l'enregistrement de brevets pour des innovations générées par son système d'intelligence artificielle. Cette affaire, d'une portée significative au Royaume-Uni, soulève la question cruciale de la possibilité pour une intelligence artificielle de détenir des droits de brevet.

Cependant, la situation actuelle diffère, car l'IA n'est plus seulement un domaine académique de niche, mais représente une part significative des investissements dans l'industrie technologique. Alors que d'autres secteurs subissent des licenciements records et des coupes dans les investissements, les start-ups spécialisées dans l'IA continuent de croître. Néanmoins, cette expansion pourrait être éphémère, car les investisseurs pourraient réaliser que les LLM ne sont pas aussi performants qu'annoncé.


Le billet de blog de Mattsi Jansky, ingénieur en informatique, offre une perspective critique sur l'utilisation excessive du terme "IA" dans le contexte des grands modèles de langage (LLM), notamment exemplifié par ChatGPT. Jansky exprime des préoccupations quant aux conséquences de la publicité exagérée et des investissements massifs dans ces modèles. Remontant à l'ère d'Alan Turing, l'auteur souligne que bien que l'IA ait connu des progrès, les LLM ne représentent pas de véritables intelligences artificielles, mais plutôt des algorithmes d'apprentissage automatique générant du texte humain sans une capacité de raisonnement autonome.

Mattsi Jansky se réfère au travail pionnier d'Alan Turing, notamment son ouvrage « Computing Machinery and Intelligence », dans lequel Turing envisageait la création d'une "machine à penser" capable de raisonner comme les humains. L'Ingénieur logiciel expose le contexte de la conférence de Dartmouth en 1956, considérée comme le point de départ de l'intelligence artificielle, soulignant les premières démarches sérieuses et organisées des humains pour créer une machine pensante.

Sources : Mattsi Jansky's blog post

Et vous ?

Quel est votre avis sur le sujet ?

Est-ce que l'évaluation de Mattsi Jansky sur les grands modèles linguistiques est pertinente ?

Êtes-vous d'accord avec l'énoncé de Mattsi Jansky selon lequel la plupart des organisations que j'ai vues investir dans des fantasmes de LLM ont une chose en commun : leur produit présente des tonnes de problèmes auxquels il serait préférable de consacrer son temps ?

Voir aussi :

L'IA ne peut pas être l'inventeur d'un brevet, déclare la Cour suprême du Royaume-Uni, selon la loi britannique sur les brevets, "l'inventeur doit être une personne physique"

Microsoft présente le grand modèle de langage multimodal Kosmos-1, les chercheurs montrent que le passage des LLM aux MLLM offre de nouvelles capacités

L'IA ne peut pas être l'inventeur d'un brevet, déclare la Cour suprême du Royaume-Uni, selon la loi britannique sur les brevets, "l'inventeur doit être une personne physique"

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de seedbarrett
Membre éclairé https://www.developpez.com
Le 08/04/2024 à 17:27
Citation Envoyé par Stéphane le calme Voir le message

« L'IA pourrait remplacer toutes les formes de travail », selon Larry Summers, membre du conseil d'administration d'OpenAI
Et dire qu'il y a des gens qui vont le croire... Pour rappel, on nous avait vendu des voitures volantes et des robots pour faire les corvées à la maison pour l'an 2000, on a eu le 11 septembre. Vivement la fin de cette bulle ridicule et un retour des GPU accessible, parce qu'on sait tous qu'on va devoir travailler encore plus, pour un salaire toujours plus bas. Sauf ceux qui sont biens nés, eux ils vont apprécier
4  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 10/03/2024 à 20:53
L'exemple de la doc Microsoft est très bon, excellente en C# avant l'arrivée de la mouture actuelle ni faite ni à faire.

On parle des difficultés, de ce que change l'IA et j'en passe mais jamais n'est abordé la question qui devrait pourtant être à la base de tout : Why ?
2  0 
Avatar de cap_gregg
Candidat au Club https://www.developpez.com
Le 10/03/2024 à 18:15
Jusqu'ici le développement informatique était réalisé par des humains. Mais aujourd'hui une mutation s'opère : on sent que l'IA va changer la donne.

Or cette mutation s'est déjà produite dans d'autres domaines, donc il est intéressant de regarder ces exemples pour anticiper l'avenir de l'informatique. L'exemple le plus proche est certainement le domaine de l'Usinage. Autrefois il comportait deux métiers principaux : les Ingénieurs qui dessinaient des plans d'objets, et les Programmeurs de machine-outil qui transformaient ces plans en programmes destinés aux machines produisant les objets réels.

Observons bien la mutation : aujourd'hui les plans (informatisés) sont directement interprétés par les machines grâce à des IA. Cela veut dire que, dans l'Usinage, non seulement il n'y a plus de Programmeurs, mais il n'y a même plus de programmes. Donc on peut déjà prédire qu'à terme en informatique des IA 'exécuteront' directement les spécifications (la logique), elle les interprèteront.

Or il y a une énorme différence entre 'interpréter directement des spécifications' et 'produire automatiquement du code'. Par exemple un code est prévu pour fonctionner avec des types de données physiques bien précis, alors qu'une IA sait interpréter une logique en s'adaptant à l'environnement, quel que soit le type de données. On peut donc prédire aussi que la logique va progressivement être séparée, et même isolée du physique. C'est très difficile à concevoir car nous sortons de 70 ans de domination absolue du monde physique. Aujourd'hui encore la logique doit être intégralement retranscrite (embarquée) dans le code, donc au final le physique est responsable à la fois du physique et de la logique. Demain avec l'isolation logique/physique, ce sera la logique qui pilotera directement, ce qui semble a priori beaucoup plus 'cohérent', et l'IA exécutera en tenant compte des contraintes physiques.

Si on creuse cette hypothèse d'isolation logique/physique, on peut imaginer que de nouveaux outils permettront de formaliser la logique et de la stocker logiquement (*), que les traitements seront rapprochés des données (en pure logique un traitement est finalement un fournisseur de données), que des systèmes logiques seront chargés d'interpréter les traitements et d'en distribuer l'exécution sur plusieurs machines, ... On voit donc que cette hypothèse est très riche, quelle est prometteuse de maîtrise fonctionnelle, architecturale et organisationnelle.

Donc oui, l'IA va provoquer des changements en informatique, mais par l'interprétation des logiques et non par la génération de code.
Et oui les conséquences seront énormes. Ce sera même carrément un changement de paradigme.

(*) Le stockage logique de la logique permet Assistance fonctionnelle/cohérence, Cartographie, Redécoupages, Navigation dans histo des versions, Analyse d'impact, Simulation, Documentation automatisée, Optimisation automatique ...
1  0 
Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 14/03/2024 à 0:34
Citation Envoyé par petitours Voir le message
L'exemple de la doc Microsoft est très bon, excellente en C# avant l'arrivée de la mouture actuelle ni faite ni à faire.
Ce qui me reste particulièrement en travers est le snobisme d'utiliser quelque chose "à la Windows place". Alors que vraisemblablement c'est l'affaire d'une heure de boulot, mais si on le faisait on mépriserait moins l'utilisateur, ce dont Microsoft ne veut à aucun prix.

Quand on a réussi à tout afficher en police de taille 8 pendant plus de dix ans avec des utilisateurs de plus de 65 ans, on ne va pas condescendre à afficher les mots dans le bon ordre. Ce serait la honte suprême. Surtout si jamais les phrases se mettaient à avoir un sens.

On parle des difficultés, de ce que change l'IA et j'en passe mais jamais n'est abordé la question qui devrait pourtant être à la base de tout : Why ?
Question centrale, probablement.

Note que jamais personne n'aborde la question de pourquoi il a fallu piller l'Afrique, pour obliger les Africains à venir faire des embouteillages chez nous.

Parce que là on s'en douterait, ce sont les mêmes qui mégotent sur le prix des matières premières, qui mégotent sur les salaires, et qui en même temps veulent réduire le nombre de salariés.

Mais après tout, si "notre" président a pu se prévaloir d'avoir réformé les retraites en s'arqueboutant pour ne pas le faire, pourquoi se gêner ...

(J'espère que ça ne s'est pas vu que j'ai géré les citations avec les pieds ?)
1  0 
Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 10/03/2024 à 18:27
Il n'est pas exclu que cette histoire génère un retour à l'emploi. Il suffirait que l'Intelligence Artificielle évolue comme le domaine des traductions, comme illustré par la documentation Microsoft.

Cela conduirait les utilisateurs à préférer revenir au boulier et au papier-crayon.

Donc effectivement, plus de programmeurs.
0  0 
Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 14/03/2024 à 1:06
Citation Envoyé par Bruno Voir le message
Un informaticien américain a subi un revers dans sa tentative d'obtenir l'enregistrement de brevets pour des innovations générées par son système d'intelligence artificielle. Cette affaire, d'une portée significative au Royaume-Uni, soulève la question cruciale de la possibilité pour une intelligence artificielle de détenir des droits de brevet.
Bien fait !
"L'intelligence, c'est la paresse utile", remarquait-on dans les années 80.
Mais là, reprendre le truc brut de décoffrage sans le réécrire lui-même, ben ... voilà ce que ça lui a apporté.

Il a des tuyaux ronds et il délivre des trucs carrés ?
Il y a longtemps on disait "trop gros, passera pas ..."

Mais là, ce n'est pas nécessairement une question de grosseur.

Encore que ... Si on considère qu'il aurait dû la "jouer fine", peut-être que si après tout.
0  0 
Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 16/03/2024 à 11:29
Citation Envoyé par petitours Voir le message
L'exemple de la doc Microsoft est très bon, excellente en C# avant l'arrivée de la mouture actuelle ni faite ni à faire.

On parle des difficultés, de ce que change l'IA et j'en passe mais jamais n'est abordé la question qui devrait pourtant être à la base de tout : Why ?

La réponse est bien dans le billet de Bruno du 24 février, lequel rapporte les propos de Mattsi Jansky
Les grands modèles de langage (LLM) ont la capacité impressionnante de donner l'illusion d'intelligence, malgré leur absence réelle de compréhension.
Pourquoi dépenser la moindre somme pour documenter un produit, s'il suffit d'en donner un succédané, qui donne l'impression qu'une documentation existe.
MS n'est pas le seul, mas il est emblématique.

PS: Une seconde raison est que pour pouvoir documenter un produit, encore faut-il que ce produit existât. Or de nombreux "produits" sont en perpétuelle mutation, un nouveau bogue remplaçant un ancien bogue auquel on s'était habitué.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 09/04/2024 à 10:54
Citation Envoyé par Stéphane le calme Voir le message
L’IA est-elle une menace pour l’emploi humain ?
Oui, comme on le voit là :
Stewart a cité l'exemple de Dukaan, une entreprise qui a utilisé l'IA pour licencier 90 % de ses employés. Comme l'a dit le PDG de l'entreprise, Suumit Shah, sur Fox News : « C'est brutal, si vous pensez comme un humain ». Et Stewart de déclarer :« "L'IA : c'est brutal, si vous pensez comme un humain" - ce n'est pas le slogan publicitaire le plus accrocheur que j'aie jamais entendu ».

« C'est comme la productivité sans l'impôt d'un plus grand nombre de personnes », déclare Brian Chesky, PDG d'Airbnb, dans une vidéo. « L'impôt sur les personnes : anciennement appelé employés », a déclaré Stewart.

« Alors que nous attendons que cette chose guérisse les maladies et résolve le problème du changement climatique, elle nous remplace sur le marché du travail - pas dans le futur, mais maintenant ».
On voit beaucoup de licenciements massifs qui sont en partis liés à l'IA.

Moins de jobs => moins de revenus => moins de consommation (et ça boucle).
Quand une entreprise avec plein d'employés s'installent quelque part, on nous raconte toujours le même "ça va faire vivre plein de commerces autour de l'entreprise".
Ben là l'entreprise va virer tout le monde, donc les commerces autour vont couler.

Citation Envoyé par Stéphane le calme Voir le message
Comment pouvons-nous garantir que l’IA ne laisse personne de côté ? Explorez des idées pour assurer une transition équitable vers un avenir automatisé.
Il n'y a pas de solution.
Le chômage et la précarité vont exploser.

Ça ne fonctionne pas l'histoire "on va énormément taxer les entreprises qui utilisent l'IA afin que ça finance le RSA et les retraites de tout le monde".

Citation Envoyé par Stéphane le calme Voir le message
Quels emplois sont les plus vulnérables à l’automatisation ? Pensez aux secteurs spécifiques et aux compétences qui pourraient être remplacées par des machines.
Tous les emplois de bureaux sont menacés.
L'IA va augmenter la productivité des humains, donc il y aura besoin de moins d'humains pour faire la même quantité de travail.

Citation Envoyé par Stéphane le calme Voir le message
Comment pouvons-nous former et préparer les travailleurs pour l’ère de l’IA ? Partagez des idées sur l’éducation, la formation continue et l’adaptabilité.
Ben déjà il ne faut surtout pas commencer des études pour travailler dans l'IA.
Il y a assez de spécialistes et au bout d'un moment les grosses entreprises rachèteront les petites et vireront les employés.

Peut-être que l'avenir c'est l'artisanat.
Peut-être cultiver des légumes en permaculture, sans engrais, pour les vendre à des riches.
1  1