Un exemple récent est celui des rédacteurs publicitaires, qui ont vu leur travail menacé par l'arrivée de systèmes d'IA capables de générer du contenu indiscernable de celui produit par des humains. C'est le cas de Dean Meadowcroft, un ancien rédacteur dans un petit service marketing, qui a été licencié quelques mois après que son entreprise a introduit un système d'IA. Ce système pouvait écrire des communiqués de presse, des posts sur les réseaux sociaux, bien que ce contenu devait être vérifié par du personnel humain pour s'assurer qu'il n'avait pas été récupéré ailleurs.
« À l'époque, l'idée était de travailler aux côtés de rédacteurs en chef humains pour aider à accélérer le processus, essentiellement rationaliser un peu plus les choses », explique-t-il.
Meadowcroft n'était pas convaincu par la qualité du travail de l'IA, qu'il trouvait trop fade et uniforme, mais il pense que c'est elle qui a remplacé son équipe. En effet, l'IA était rapide. Ce qui pourrait prendre entre 60 et 90 minutes à un rédacteur humain pour écrire, l'IA pourrait le faire en 10 minutes ou moins.
Environ quatre mois après l'introduction de l'IA, l'équipe de quatre personnes de Meadowcroft a été licenciée. Meadowcroft ne peut pas en être certain, mais il est à peu près sûr que l'IA les a remplacés : « J'ai ri de l'idée que l'IA remplace les écrivains ou affecte mon travail, jusqu'à ce que ce soit le cas », a-t-il déclaré.
Lorsque ChatGPT est sorti en novembre dernier, Olivia Lipkin, une rédactrice de 25 ans à San Francisco, n'y a pas trop pensé. Ensuite, des articles sur la façon d'utiliser le chatbot au travail ont commencé à apparaître sur les groupes internes Slack de la start-up technologique où elle travaillait en tant que seule rédactrice de l'entreprise.
Au cours des mois suivants, les missions de Lipkin ont diminué. Les managers ont commencé à l'appeler "Olivia/ChatGPT" sur Slack. En avril, elle a été licenciée sans explication, mais lorsqu'elle a trouvé des responsables écrivant sur le fait qu'utiliser ChatGPT était moins cher que de payer un écrivain, la raison de son licenciement semblait claire.
« Chaque fois que les gens évoquaient ChatGPT, je ne me sentais pas en sécurité et j'avais peur que cela me remplace », a-t-elle déclaré. « Maintenant, j'avais en fait la preuve que c'était vrai, que ces angoisses étaient justifiées et maintenant j'étais en fait sans emploi à cause de l'IA ».
Même son de cloche chez Eric Fein, qui a vu ses clients révoquer leurs contrats.
Fein avait neuf autres contrats à l’époque qui ont tous été annulés pour la même raison peu après, selon le Washington Post. Fein, qui facture 60 dollars l’heure pour ses services qui comprennent l’écriture de courts textes pour les sites web des entreprises et les descriptions de produits, a déclaré au quotidien que l’activité qui représentait la moitié de ses revenus annuels avait disparu presque du jour au lendemain.
« Ça m’a anéanti », a-t-il dit.
Certaines entreprises optent pour la réduction des coûts, même si la qualité baisse
Certains économistes prédisent que la technologie de l'intelligence artificielle comme ChatGPT pourrait remplacer des centaines de millions d'emplois, dans une réorganisation cataclysmique de la main-d'œuvre reflétant la révolution industrielle.
Pour certains travailleurs, cet impact est déjà là. Ceux qui écrivent du contenu marketing et des médias sociaux font partie de la première vague de personnes remplacées par des outils tels que les chatbots, qui sont apparemment capables de produire des alternatives plausibles à leur travail.
Les experts disent que même l'IA avancée ne correspond pas aux compétences d'écriture d'un humain : elle manque de voix et de style personnels, et elle produit souvent des réponses erronées, absurdes ou biaisées. Mais pour de nombreuses entreprises, la réduction des coûts vaut une baisse de qualité.
« Nous sommes vraiment à un moment critique », a déclaré Sarah T. Roberts, professeure associée à l'Université de Californie à Los Angeles spécialisée dans le travail numérique. « L'AI va prendre des emplois qui étaient censés être à l'épreuve de l'automatisation ».
L'impact de l'IA générative ne sera pas le même selon les secteurs et les professions, d'après un rapport
La dernière vague d'IA, appelé IA générative, a frappé à la fin de l'année dernière lorsque OpenAI a lancé ChatGPT. Soutenu par Microsoft, ChatGPT peut donner des réponses humaines aux questions et peut, en quelques minutes, générer des essais, des discours et même des recettes. D'autres grandes enseignes de la technologie se sont empressées de lancer leurs propres systèmes, comme Google avec Bard en mars.
L'impact de l'IA ne sera pas le même selon les secteurs et les professions. Selon le rapport de Goldman Sachs, 46 % des tâches dans les professions administratives et 44 % dans les professions juridiques pourraient être automatisées, mais seulement 6 % dans la construction et 4 % dans la maintenance. Le rapport souligne également que l'introduction de l'IA pourrait stimuler la productivité et la croissance et pourrait créer de nouveaux emplois.
Il y a déjà des exemples de cette tendance. IKEA a annoncé ce mois-ci qu'il avait reconverti 8 500 employés qui travaillaient dans ses centres d'appels en conseillers en design. Le géant du meuble dit que 47 % des appels clients sont désormais traités par une IA nommée Billie. IKEA ne prévoit pas de pertes d'emplois liées à son utilisation de l'IA, mais ces développements suscitent l'inquiétude de beaucoup.
L'impact à long terme de l'IA est cependant très incertain, et toutes les prédictions fermes doivent être prises avec beaucoup de prudence. Nous ne savons pas comment la technologie va évoluer ni comment les entreprises vont l'intégrer à leur façon de travailler. Ce n'est pas peu dire que d'affirmer que l'IA ne va pas bouleverser notre façon de travailler. Certains estiment qu'il faut se concentrer sur les gains potentiels en termes de niveau de vie liés à un travail plus productif et à des services moins coûteux, ainsi que sur le risque de prendre du retard si d'autres entreprises et économies s'adaptent mieux au changement technologique.
Le domaine de la création d'autres types de contenu (images, sons, vidéos, etc.) n'est pas épargné
L'IA générative n'est pas seulement utilisée pour écrire du texte, mais aussi pour créer des images, des sons, des vidéos et d'autres formes de contenu. Par exemple, il existe des systèmes d'IA capables de dessiner des portraits à partir de descriptions écrites, de composer de la musique à partir d'un genre ou d'un style donné, de synthétiser des voix à partir de textes ou de modifier des visages ou des expressions dans des vidéos.
Ces systèmes d'IA se basent sur des modèles appelés réseaux génératifs adverses (GAN), qui apprennent à produire du contenu à partir de grandes quantités de données disponibles sur internet. Un GAN est composé de deux parties : un générateur, qui crée le contenu, et un discriminateur, qui évalue la qualité du contenu et donne un retour au générateur pour l'améliorer. Le processus se répète jusqu'à ce que le discriminateur ne puisse plus distinguer le contenu généré du contenu réel.
L'IA générative ouvre des possibilités créatives et ludiques, mais elle pose aussi des défis éthiques et juridiques. Par exemple, comment protéger les droits d'auteur des créateurs humains face à l'IA ? Comment vérifier l'authenticité et la fiabilité du contenu généré par l'IA ? Comment prévenir les abus et les détournements de l'IA à des fins malveillantes, comme la diffusion de fausses informations ou la manipulation de l'opinion publique ?
Ces questions nécessitent une réflexion collective et une régulation adaptée, afin que l'IA générative soit utilisée de manière responsable et bénéfique pour la société.
Réglementation de l'IA, les positions de l'UE, des États-Unis et de la Grande-Bretagne
Une approche européenne différente de l'approche britannique
L'AI Act, le projet de loi sur la régulation de l'IA proposé par la Commission européenne, a pour objectif de promouvoir l’adoption de l’IA tout en garantissant le respect des valeurs, des droits fondamentaux et des principes de l’Union européenne. Il prévoit également des mesures pour renforcer la qualité des données, la transparence, la supervision humaine et la responsabilité des utilisateurs et des fournisseurs d’IA.
La pierre angulaire de l’AI Act est un système de classification qui détermine le niveau de risque qu’une technologie d’IA pourrait présenter pour la santé et la sécurité ou les droits fondamentaux d’une personne. Le cadre comprend quatre niveaux de risque : inacceptable, élevé, limité et minimal.
La Grande-Bretagne quant à elle se targue d'avoir « une approche pro-innovation de la réglementation de l'IA ». Michelle Donelan, secrétaire d'État aux sciences, à l'innovation et à la technologie, a déclaré :
Après avoir quitté l'Union européenne, nous sommes libres d'établir une approche réglementaire qui nous permet de faire du Royaume-Uni une superpuissance de l'IA. C'est une approche qui soutiendra activement l'innovation tout en tenant compte des risques et des préoccupations du public. Le Royaume-Uni abrite des start-up prospères, que notre framework soutiendra pour les aider à se développer et être compétitives à l'échelle internationale. Notre approche pro-innovation agira également comme une forte incitation lorsqu'il s'agira d'établir une présence au Royaume-Uni pour les entreprises d'IA basées à l'étranger. Le livre blanc énonce notre engagement à nous engager à l'échelle internationale pour soutenir l'interopérabilité entre différents régimes réglementaires. Non seulement cela allégera le fardeau des entreprises, mais cela nous permettra également d'intégrer nos valeurs à mesure que les approches mondiales de gouvernance de l'IA se développent.
Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
Notre approche repose sur la collaboration entre le gouvernement, les régulateurs et les entreprises. Dans un premier temps, nous n'avons pas l'intention d'introduire de nouvelle législation. En se précipitant trop tôt pour légiférer, on risquerait d'imposer un fardeau indu aux entreprises. Mais en plus de donner aux régulateurs les moyens de prendre les devants, nous définissons également des attentes. Nos nouvelles fonctions de surveillance fourniront une évaluation en temps réel de la performance du cadre réglementaire afin que nous puissions être sûrs qu'il est proportionné. Le rythme du développement technologique signifie également que nous devons comprendre les risques nouveaux et émergents, en nous engageant avec des experts pour nous assurer que nous prenons des mesures si nécessaire. Un élément essentiel de cette activité consistera à dialoguer avec le public pour comprendre ses attentes, sensibiliser au potentiel de l'IA et démontrer que nous répondons aux préoccupations.
Pas de législation pour le moment du côté américain
Jusqu'à présent, les États-Unis n'ont pas réussi à faire des propositions législatives fédérales spécifiques à l'IA, bien que la Maison-Blanche ait publié un projet de déclaration des droits de l'IA destiné à « guider une société ».
En octobre, a Maison-Blanche a proposé un "Blueprint for an AI Bill of Rights", un ensemble de principes et de pratiques visant à guider « la conception, l'utilisation et le déploiement de systèmes automatisés, dans le but de protéger les droits des Américains à l'ère de l'intelligence artificielle », selon la Maison-Blanche. Le plan directeur est un ensemble de lignes directrices non contraignantes ou de suggestions fournissant une "déclaration de valeurs nationales" et une boîte à outils pour aider les législateurs et les entreprises à intégrer les protections proposées dans les politiques et les produits. La Maison-Blanche a élaboré ce projet après un processus d'un an qui a permis de recueillir les avis et observations de personnes de tout le pays « sur la question des préjudices causés par les algorithmes et les données et sur les solutions possibles ». Toutefois, les critiques affirment que ce plan manque de mordant et que les États-Unis ont besoin d'une réglementation encore plus stricte en matière d'IA.
Sources : vidéo dans le texte, gouvernement britannique, Osborne Clarke, Maison-Blanche
Et vous ?
Que pensez-vous de l’impact de l’IA générative sur le monde du travail ?
Avez-vous déjà utilisé ou expérimenté un système d’IA générative ? Si oui, lequel et pour quel usage ?
Quels sont les risques et les opportunités liés à l’IA générative pour la société ?
Quels sont les domaines ou les secteurs où vous aimeriez voir l’IA générative se développer davantage ?
Quelles sont les compétences ou les qualités nécessaires pour travailler avec ou à côté de l’IA générative ?