IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft avertit que « ses services d'IA ne sont pas destinés à remplacer les conseils d'un professionnel » dans une mise à jour de ses accords de service
Qui suggère de se servir de l'IA avec des pincettes

Le , par Patrick Ruiz

9PARTAGES

6  0 
Microsoft informe le public que ses services d'IA ne doivent pas être pris trop au sérieux. Dans une mise à jour de ses accords de service qui prend effet le 30 septembre 2024, la firme de Redmond déclare que « ses services d'IA ne sont pas conçus ou destinés à être utilisés comme substituts de conseils professionnels. » Grosso modo, le tableau attire l’attention sur la nécessité d’une mise à contribution de l’intelligence artificielle avec des pincettes, dans un contexte où les entreprises optent de plus en plus pour l’IA en lieu et place de programmeurs.

La réalité sur le terrain est en effet que, malgré les avancées de l’intelligence artificielle, la vigilance humaine reste indispensable

La réalité actuelle est que ces intelligences artificielles sont encore au stade d’outils à utiliser avec des pincettes. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

« ChatGPT est très doué pour fournir des astuces de codage en utilisant du code copié sur Internet, ce qui est incroyablement utile car cela peut faire gagner beaucoup de temps. Mais vous ne pouvez pas demander à ChatGPT de créer YouTube pour vous, de gérer et d'entretenir un système déjà opérationnel ou de parler à un client, de comprendre ses besoins et de construire un système qui résoudra ses problèmes. Pour obtenir de l'aide dans ces tâches complexes, vous devez comprendre le fonctionnement de ces systèmes. Vous devez être un ingénieur logiciel et ChatGPT sera un excellent assistant pour vous. Mais il est loin de pouvoir résoudre ces problèmes. Et si c'était le cas, il s'agirait d'une intelligence artificielle générale qui ne remplacerait pas uniquement les ingénieurs en informatique. Mais il s'agit d'un modèle de langage. Ce n'est pas une source de sagesse. La résolution de problèmes, la pensée critique, l'originalité sont toujours du ressort des humains », déclare le créateur de la plateforme en ligne d’apprentissage dénommée Brilliant.


L’erreur de ChatGPT qui a coûté 10 000 dollars à une startup est un rappel que, malgré les avancées de l’IA, la vigilance humaine reste indispensable. Les outils d’IA sont puissants, mais ils ne remplacent pas le jugement critique et l’expertise des développeurs. En fin de compte, c’est la responsabilité des équipes humaines de s’assurer que la technologie qu’elles utilisent est sûre et fiable.

D'ailleurs, l'erreur ne saurait être imputable entièrement à ChatGPT : les développeurs auraient dû prendre la peine d'analyser le code au lieu de se limiter à quelques tests avant la copie. Ils semblent le reconnaitre lorsqu'ils déclarent :

« Je voudrais commencer par dire que les pratiques en question sont très mauvaises et embarrassantes (et nous avons depuis ajouté des tests unitaires et d'intégration robustes ainsi que des alertes et des enregistrements), qu'elles auraient pu et dû être évitées, qu'il s'agissait d'erreurs humaines au-delà de tout, et qu'elles sont très évidentes avec le recul.

« Cela s'est passé à une autre époque, avec d'importantes contraintes de temps, aux tout premiers stades (premières semaines) de la création d'une entreprise. Je partage surtout cette histoire comme une anecdote amusante avec des circonstances uniques entourant la reproductibilité des bogues en prod (encore une fois à cause de notre propre stupidité) ».

Quoi qu'il en soit, tout est bien qui finit bien : « Rétrospectivement, aussi pénibles qu'aient été ces cinq jours, c'est l'un de ces moments de la vie d'une startup que nous n'oublierons jamais. Comme toutes les startups, nous avons fait une tonne d'erreurs tout au long de notre parcours, celle-ci étant peut-être la pire. J'évoquerai peut-être les autres plus tard. Nous sommes simplement heureux de pouvoir regarder ces jours-là en arrière et d'en rire. Oui, nous aurions dû faire plus de tests. Oui, nous n'aurions pas dû copier-coller du code. Oui, nous n'aurions pas dû passer directement à l'application principale. Quoi qu'il en soit, je ne regrette pas cette expérience ».



La mise à jour de Microsoft semble confirmer les avis selon lesquels les entreprises exagèrent sur les capacités de l’intelligence artificielle

ChatGPT peut s’avérer très bon à résoudre des problèmes de codage qui existaient sur la plateforme LeetCode avant 2021. Passé cette période, ChatGPT fait montre de piètres performances en raison de la qualité du jeu de données d’entraînement. Grosso modo, c’est ce qui ressort d’une étude qui permet d’arriver à la conclusion que l’intelligence artificielle reste un outil à utiliser avec des pincettes. Pourtant elle atterrit dans un contexte de battage médiatique autour de l’intelligence et de sa capacité à remplacer les humains dans la filière du développement de logiciels.

En effet, après ChatGPT, c’était au tour de l’IA d’ingénierie logicielle dénommée Devin de secouer la filière du développement de logiciels en raison de son aptitude annoncée à remplacer les humains dans la filière. Sa présentation faisait suite à celle de l’intelligence artificielle dénommée Magic.dev et annoncée au public comme un « ingénieur logiciel superhumain. ».

Magic.dev et Devin partagent un dénominateur commun : une proposition de valeur qui passe par une présentation musclée ; « ingénieur logiciel superhumain » ou encore « première IA d’ingénierie logicielle entièrement autonome. » Les retours à ce sujet font néanmoins état de ce que toutes ces IA, dans leur forme actuelle, sont plutôt des assistants de codage.

Une récente étude est en effet arrivée à la conclusion que l’IA générative ne remplacera pas les développeurs de sitôt. Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM).

Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.



Source : Microsoft

Et vous ?

Quelles sont les raisons pour lesquelles vous estimez que la montée en puissance de l’intelligence artificielle ne constitue pas une menace pour les postes de développeur informatique ?
Êtes-vous d’accord avec les avis selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne s’accapare tous les postes de développeur informatique ?
Ou êtes-vous en phase avec les avis selon lesquels « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur » ?
Quelles évolutions du métier de développeur entrevoyez-vous dans les 5 à 10 prochaines années au vu de l'adoption de l'intelligence artificielle dans la filière ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 17/08/2024 à 15:40
Ah,

- A mes début, on grattait pour trouver un bouquins pour comprendre un problème ou pour tout simplement apprendre.
- Puis, avec Google, on commencé à aller piocher un bout de code sur internet.
- Puis, des site comme StackOverflow ont "perfectionnés" cette recherche.
- Maintenant c'est l'IA qui s'en occupe.

Dans tous les cas, que ce soit dans un bouquin, sur internet ou StackOverflow, ou via l'IA, il faut comprendre ce que ce petit bout de code apporte, et l'adapter à un besoin bien particulier.

Sinon, c'est un simple copier/coller.

La partie intéressante dans le développement d'un logiciel, c'est justement la réflexion qu'elle impose pour trouver une solution. Si le métier de "développeur" se résume du copier/coller, il perd pour moi tout son intérêt. Mais mon intérêt n'est pas forcément le même que celui qui me donne un problème a régler. Il veut que ça aille vite, et pour pas cher.

BàV et Peace & Love.
3  0 
Avatar de diamondsoftware
Membre actif https://www.developpez.com
Le 20/08/2024 à 14:39
Ils se couvrent pour les futurs proces des societes qui vont abuser de l'usage des pseudo IA et qui vont se planter...
car je suis d'accord beaucoup de blabla pour attirer l'argent des investisseurs..
Apres l'implosion de la bulle, ne restera que des applications reellement utiles tel que l'analyse de donnees medicales ,etc...
2  0 
Avatar de PC241167
Membre actif https://www.developpez.com
Le 21/08/2024 à 15:23
Apres l'implosion de la bulle,
(vivement !)

Pas encore vu d'IA au sens d'Intelligence qui fonctionne pour ma part
uniquement des moteurs de recherche qui font une compil de tout ce qui se trouve sur le net. (avec des bugs et des erreurs en plus: autant utiliser gogole à mon sens c'est plus sur car contrôlé par un humain)
d'ailleurs ça ne fonctionne pas, les essais même vidéos font immédiatement chou blanc, ça se voit encore plus qu'un fond vert pour des FX de Star wars by Disney
0  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 23/08/2024 à 7:58
Je rejoins te tes remarques, mais les LLM permettent de faire de la recherche d'infos dans une grosse base documentaire selon la question que tu pose. Ca ça peut être pratique. Ou aussi générer automatiquement du code comme une matrice pour éviter de le saisir, ça ça marche si le code passe ta relecture sans trop de retouches, sinon autant coder tout à la main direct.

Pour les images, c'est pas mal pour faire de la recherche inversée d'éléments, pour la génération ça marche plus ou moins.
0  0