
Qui ajoute que cette IA n’est pas ingénieur logiciel à contrario de Cognition Labs
Certains observateurs de la filière du développement de logiciels qui sont par ailleurs ingénieurs du génie logiciel sont d’avis que les entreprises manquent de transparence en ce qui concerne la présentation de leurs services. Il y a comme une sorte d’exagération des capacités de l’intelligence artificielle qui a cours dans la filière. C’est à tel point que même des entreprises comme Amazon se servent d’humains en arrière-plan pour simuler des magasins sans caissiers qu’elles présentent néanmoins comme des services gérés par des intelligences artificielles. C’est la raison de la sortie du propriétaire de la chaîne Youtube « Internet of Bugs » qui affirme que les déclarations de Cognition Labs dans la vidéo titrée « Devin’s Upwork Side Hustle » sont mensongères.
Les premiers détails sur l’offre en question font leur apparition en ligne lorsque Cognition Labs procède à la présentation de Devin comme « la première IA ingénieur logiciel entièrement autonome. »
La présentation de Devin comme « première IA ingénieur logiciel entièrement autonome » est tout aussi mensongère si l’on s’en tient aux remarques du propriétaire de la chaîne Youtube « Internet of Bugs. » « Devin offre un ensemble de fonctionnalités qui permettent d’effectuer des tâches qui représentent une infime partie de notre métier. Être ingénieur logiciel va bien au-delà et inclut des aspects comme les échanges avec les clients dont la gestion reste hors de portée de ces outils auxquelles on donne le nom d’IA », souligne-t-il.
Certains intervenants sont néanmoins d’avis que les actuels modèles d’IA ne font qu’effleurer la surface du tableau futur de la filière du développement de logiciels et renforcent l’idée de la possible disparition du métier de développeur
« ChatGPT et autres GitHub Copilot donnent juste un aperçu introductif de ce que la filière informatique sera dans l’avenir », déclare le CEO de la startup IA Fixie AI.
« Les assistants de programmation tels que CoPilot ne font qu'effleurer la surface de ce que je décris. Il me semble tout à fait évident qu'à l'avenir, tous les programmes seront écrits par des intelligences artificielles, les humains étant relégués, au mieux, à un rôle de supervision. Quiconque doute de cette prédiction n'a qu'à regarder les progrès très rapides réalisés dans d'autres aspects de la génération de contenu par l'intelligence artificielle, comme la génération d'images. La différence de qualité et de complexité entre DALL-E v1 et DALL-E v2 - annoncée seulement 15 mois plus tard - est stupéfiante. Si j'ai appris quelque chose au cours de ces dernières années à travailler dans le domaine de l'IA, c'est qu'il est très facile de sous-estimer la puissance de modèles d'IA de plus en plus grands. Des choses qui semblaient relever de la science-fiction il y a seulement quelques mois deviennent rapidement réalité.
Je ne parle pas seulement du fait que CoPilot de Github de remplacer les programmeurs. Je parle de remplacer le concept même d'écriture de programmes par des agents d’intelligence artificielle dédiés. À l'avenir, les étudiants en informatique n'auront pas besoin d'apprendre des compétences aussi banales que l'ajout d'un nœud à un arbre binaire ou le codage en C++. Ce type d'enseignement sera dépassé, comme celui qui consiste à apprendre aux étudiants en ingénierie à utiliser une règle à calcul », ajoute-t-il.
Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Matt Welsh fait partie du deuxième groupe auquel les critiques du second fixent une limite : l’atteinte par les équipes de recherches d’une intelligence artificielle de niveau humain. En effet, le plus grand débat tourne autour de la possibilité de voir les machines rendues à ce stade où elles sont dotées de « bon sens », capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
Google par exemple est lancé en secret sur le développement de Pitchfork, ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code.
L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour. Un tel objectif pourrait ne plus relever de la science-fiction lorsqu’on sait que des équipes de recherche en intelligence artificielle promettent déjà l’atteinte du stade d’intelligence artificielle générale dans 5 à 10 ans.
Et vous ?


Voir aussi :




Vous avez lu gratuitement 2 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.