« L'idée selon laquelle l'IA ne va pas s’accaparer des emplois est ridicule. Tout d'abord, c'est déjà le cas. Les librairies et le commerce de détail ont tous été durement touchés par Amazon. Nous effectuons désormais nos recherches en ligne et non plus dans les bibliothèques, qui ont donc également été touchées. Les traitements de texte ont détruit les équipes de dactylographes et les tableurs, celles des comptables. Dans le domaine de la traduction, nous assistons déjà à la perte massive d'emplois chez Duolingo et dans toutes les grandes entreprises multilingues du monde. Les sociétés d'enseignement ont été les premières à constater les gains de productivité et ont licencié des milliers de personnes. L'idée qu'il n'y a pas eu ou qu'il n'y aura pas de remplacement d'emplois réels est absurde. C'est une belle phrase à lancer lors de conférences pour obtenir des applaudissements chaleureux, mais elle est dangereusement naïve. Les orateurs ont tendance à vouloir être aimés, plutôt que d'affronter l'inconfortable vérité économique selon laquelle les changements techniques majeurs entraînent TOUJOURS des pertes d'emplois », souligne-t-il.
C’est une sortie qui fait suite aux conclusions d’une étude de la Washington State University. Cette dernière, menée en collaboration avec KRC Research, examine la préparation des travailleurs professionnels américains à l'utilisation de l'IA sur le lieu de travail. Le rapport a interrogé 1200 adultes travaillant à temps plein aux États-Unis, qui exercent une fonction de direction, une profession libérale ou une activité connexe et qui travaillent avec des ordinateurs ou des appareils technologiques. L'enquête explore la sensibilisation et les attitudes à l'égard de la formation à l'IA et des initiatives de préparation à l'utilisation de l'IA sur le lieu de travail.
Les principales conclusions en matière d’impact de l’IA sur le lieu de travail sont les suivantes : Plus de la moitié des professionnels américains (56 %) déclarent utiliser l'IA, qu'il s'agisse d'analyser des données à partir de tendances prédites (30 %) ou d'utiliser l'IA générative pour produire du contenu ou des communications (24 %), et bien d'autres choses encore.
- 72 % pensent que l'IA peut avoir un impact important sur le travail dans leur secteur d'activité si elle est utilisée de manière appropriée.
- Un peu plus de la moitié des professionnels (52 %) pensent que l'IA est susceptible de présenter des dangers pouvant avoir un impact négatif sur leur organisation et sur la sécurité de l'organisation et des employés.
- Près de la moitié (49 %) des professionnels déclarent que leur organisation n'a pas fourni de ressources ou d'informations sur l'IA et son utilisation au travail, et près de quatre professionnels sur dix (39 %) n'ont profité d'aucune ressource pour apprendre à utiliser l'IA dans le cadre de leur travail.
- La moitié des professionnels (51 %) craignent que leur organisation ne prenne du retard dans son secteur si elle n'adopte pas l'IA.
Quid des développeurs informatique ? Une étude débouche sur la conclusion selon laquelle l’intelligence artificielle générative ne les remplacera pas de sitôt
Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM).
Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.
Leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.
Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code. »
C’est la raison pour laquelle Linux Torvalds a tenu à se désolidariser de tout le battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose.
En fait, « le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur », comme le souligne le CEO de GitHub. Grosso modo, l’intelligence artificielle est à un stade d’évolution tel qu’elle ne saurait servir de raccourci à des personnes qui pensent ne plus avoir à faire usage de leur créativité ou de leur esprit critique.
Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »
Et vous ?
Le développeur restera-t-il toujours l'expert qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur ? L'intelligence artificielle peut-elle finir par atteindre un stade d'évolution qui soit tel que l'intervention humaine ne soit plus requise ?
Quelles évolutions du métier de développeur entrevoyez-vous dès 2024 au vu de l'adoption de l'intelligence artificielle dans la filière ? Quelles sont celles auxquelles vous assistez déjà du fait de la mise à contribution de l’intelligence artificielle ?
Source : billet de blog
Voir aussi :
« ChatGPT est appelé à changer l'éducation telle que nous la connaissons, pas la détruire comme certains le pensent », affirme Douglas Heaven du MIT Technology Review
ChatGPT rédige désormais les dissertations des étudiants et l'enseignement supérieur est confronté à un grave problème, la détection des contenus générés par l'IA semble de plus en plus difficile
51 % des enseignants déclarent utiliser ChatGPT dans le cadre de leur travail, de même que 33 % des élèves, et affirment que l'outil a eu un impact positif sur leur enseignement et leur apprentissage
Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur