Si des études prédisent une catastrophe au niveau de l'emploi, à l'instar de celle de Goldman Sachs qui estime que l'IA pourrait remplacer l'équivalent de 25 % de l'ensemble du marché de travail (soit 300 millions d'emplois), cet avis ne fait pas l'unanimité. Certains donnent des raisons pour lesquelles, selon eux, cela n'arrivera pas de sitôt.Les systèmes d'intelligence artificielle générative pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d'emplois à temps plein dans le monde, selon une étude de Goldman Sachs.
L'IA générative, un type d'intelligence artificielle capable de générer du texte ou d'autres contenus en réponse aux invites de l'utilisateur, a explosé en popularité ces derniers mois après le lancement public de ChatGPT d'OpenAI. Le chatbot est rapidement devenu viral auprès des utilisateurs et a semblé inciter plusieurs autres entreprises technologiques à lancer leurs propres systèmes d'IA.
Goldman Sachs n'est pas la seule entité à s'inquiéter de l'avenir de l'emploi. En effet, Elon Musk, le fondateur de Tesla et de Space X, s’est également inquiété des menaces sur le marché du travail en affirmant en juillet 2017 « Que faire au sujet du chômage de masse ? Ce sera un défi social massif. Il y aura de moins en moins d’emplois que les humains sauront mieux faire qu’un robot ».
D'ailleurs, dans une lettre ouverte, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie ont demandé une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité. « Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.
Eliezer Yudkowsky, théoricien de la décision et chercheur à la Machine Intelligence Research Institute, va plus loin en disant « qu'il ne suffit pas de suspendre le développement de l'IA. Nous devons tout arrêter ». « Ce moratoire de six mois serait préférable à l'absence de moratoire », a-t-il reconnu dans une tribune publiée dans Time Magazine. « Je me suis abstenu de signer parce que je pense que la lettre sous-estime la gravité de la situation et demande trop peu pour la résoudre ».
Comme vous, l'IA ne « travaillera » pas gratuitement
La formation d'un LLM puissant à partir de zéro peut présenter des opportunités uniques, mais elle n'est viable que pour les grandes organisations bien financées. La mise en œuvre d'un service qui exploite un modèle existant est beaucoup plus abordable (ChatGPT-3.5 Turbo d'Open AI, par exemple, tarife l'accès à l'API à environ 0,002 USD pour 750 mots anglais). Mais les coûts s'additionnent quand un service basé sur l'IA devient populaire. Dans les deux cas, le déploiement de l'IA pour une utilisation illimitée n'est pas pratique, obligeant les développeurs à faire des choix difficiles.
« En général, les startups qui construisent [un produit] avec l'IA doivent être très prudentes avec les dépendances sur des API de fournisseur spécifiques. Il est également possible de construire des architectures telles que vous n'allumez pas les GPU, mais cela demande une certaine expérience », déclare Hilary Mason, PDG et cofondatrice de Hidden Door, une startup qui construit une plateforme d'IA pour la narration et les jeux narratifs.
La plupart des services basés sur l'IA générative incluent un plafond ferme sur le volume de contenu qu'ils généreront par mois. Ces frais peuvent s'accumuler pour les entreprises et ralentir les personnes qui cherchent à automatiser les tâches. Même OpenAI, malgré ses ressources, limite les utilisateurs payants de ChatGPT, en fonction de la charge actuelle : au moment d'écrire ces lignes, le plafond est actuellement de 25 requêtes GPT-4 toutes les trois heures. C'est un gros problème pour quiconque cherche à s'appuyer sur ChatGPT pour le travail.
Les développeurs d'outils alimentés par l'IA sont également confrontés à un défi aussi vieux que les ordinateurs eux-mêmes : concevoir une bonne interface utilisateur. Un LLM puissant capable de nombreuses tâches devrait être un outil sans précédent, mais la capacité d'un outil à accomplir une tâche n'est pas pertinente si la personne qui l'utilise ne sait pas par où commencer. Matthew Kirk, responsable de l'IA chez Augment.co, souligne que bien que ChatGPT soit accessible, l'ouverture de l'interaction avec une IA via le chat peut s'avérer écrasante lorsque les utilisateurs doivent se concentrer sur une tâche spécifique.
« J'ai appris par expérience que laisser des outils complètement ouverts a tendance à dérouter les utilisateurs plus qu'à les aider », déclare Kirk. « Pensez-y comme un hall de portes qui est infini. La plupart des humains resteraient là perplexes quant à ce qu'il faut faire. Nous avons beaucoup de travail à faire pour déterminer les portes optimales à présenter aux utilisateurs.

Que pensez-vous des déclarations de Mustafa Suleyman ?