
Qui ravive le débat IA : menace ou outil ?
Bill Gates a procédé à la publication de ses prédictions pour l’année 2024. Un sujet central : l’impact de l’intelligence artificielle sur la société. Deux mots clés dès l’entame de son propos : outil et innovation. Et donc sa vision du futur en une phrase : « Les humains ne perdront pas le contrôle de l’intelligence artificielle. Elle leur servira plutôt d’outil pour améliorer leur productivité et leur capacité à innover. » C’est un avis sujet à controverse. En effet, certains observateurs dont le bloggeur Donald Clark sont d’avis que « l’idée selon laquelle l’intelligence artificielle viendra juste rendre les humains plus productifs sans prendre leurs emplois est un mensonge. »
« L'idée selon laquelle l'IA ne va pas s’accaparer des emplois est ridicule. Tout d'abord, c'est déjà le cas. Les librairies et le commerce de détail ont tous été durement touchés par Amazon. Nous effectuons désormais nos recherches en ligne et non plus dans les bibliothèques, qui ont donc également été touchées. Les traitements de texte ont détruit les équipes de dactylographes et les tableurs, celles des comptables. Dans le domaine de la traduction, nous assistons déjà à la perte massive d'emplois chez Duolingo et dans toutes les grandes entreprises multilingues du monde. Les sociétés d'enseignement ont été les premières à constater les gains de productivité et ont licencié des milliers de personnes. L'idée qu'il n'y a pas eu ou qu'il n'y aura pas de remplacement d'emplois réels est absurde. C'est une belle phrase à lancer lors de conférences pour obtenir des applaudissements chaleureux, mais elle est dangereusement naïve. Les orateurs ont tendance à vouloir être aimés, plutôt que d'affronter l'inconfortable vérité économique selon laquelle les changements techniques majeurs entraînent TOUJOURS des pertes d'emplois », souligne-t-il.
C’est une sortie qui fait suite aux conclusions d’une étude de la Washington State University. Cette dernière, menée en collaboration avec KRC Research, examine la préparation des travailleurs professionnels américains à l'utilisation de l'IA sur le lieu de travail. Le rapport a interrogé 1200 adultes travaillant à temps plein aux États-Unis, qui exercent une fonction de direction, une profession libérale ou une activité connexe et qui travaillent avec des ordinateurs ou des appareils technologiques. L'enquête explore la sensibilisation et les attitudes à l'égard de la formation à l'IA et des initiatives de préparation à l'utilisation de l'IA sur le lieu de travail.
Les principales conclusions en matière d’impact de l’IA sur le lieu de travail sont les suivantes : Plus de la moitié des professionnels américains (56 %) déclarent utiliser l'IA, qu'il s'agisse d'analyser des données à partir de tendances prédites (30 %) ou d'utiliser l'IA générative pour produire du contenu ou des communications (24 %), et bien d'autres choses encore.
- 72 % pensent que l'IA peut avoir un impact important sur le travail dans leur secteur d'activité si elle est utilisée de manière appropriée.
- Un peu plus de la moitié des professionnels (52 %) pensent que l'IA est susceptible de présenter des dangers pouvant avoir un impact négatif sur leur organisation et sur la sécurité de l'organisation et des employés.
- Près de la moitié (49 %) des professionnels déclarent que leur organisation n'a pas fourni de ressources ou d'informations sur l'IA et son utilisation au travail, et près de quatre professionnels sur dix (39 %) n'ont profité d'aucune ressource pour apprendre à utiliser l'IA dans le cadre de leur travail.
- La moitié des professionnels (51 %) craignent que leur organisation ne prenne du retard dans son secteur si elle n'adopte pas l'IA.
Quid des développeurs informatique ? Une étude débouche sur la conclusion selon laquelle l’intelligence artificielle générative ne les remplacera pas de sitôt
Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM).
Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.
Leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.
Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code. »
C’est la raison pour laquelle Linux Torvalds a tenu à se désolidariser de tout le battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose.
En fait, « le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur », comme le souligne le CEO de GitHub. Grosso modo, l’intelligence artificielle est à un stade d’évolution tel qu’elle ne saurait servir de raccourci à des personnes qui pensent ne plus avoir à faire usage de leur créativité ou de leur esprit critique.
Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »
Et vous ?


Source : billet de blog
Voir aussi :




Vous avez lu gratuitement 2 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.