IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'intelligence artificielle est un raz-de marée aussi important qu'Internet », d'après le PDG de Microsoft
Qui ravive les craintes sur la possible mise au rebut des développeurs humains

Le , par Patrick Ruiz

6PARTAGES

8  0 
L’essor de l’intelligence artificielle est comparable à un raz-de-marée. Et si l’on admet qu’Internet avait provoqué un lors de son avènement alors les deux sont au moins de taille similaire. C’est un récent avis formulé par Satya Nadella qui s’inscrit à la suite de Bill Gates : « l’essor des chatbots est tout aussi important que l’avènement d’Internet. » Les raz-de-marée sont connus pour provoquer des bouleversements et c’est en cela que l’intelligence artificielle soulève des questionnements. Cette technologie est-elle susceptible de provoquer une mise au rebut des développeurs humains ?


ChatGPT a réussi à l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. Un internaute a proposé une compilation des réponses proposées par le chatbot après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles. ChatGPT a en sus réussi l’examen de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $. Ce sont des raisons pour lesquelles certains observateurs sont d’avis que les travailleurs de la filière du développement informatique sont menacés par l’IA. Emad Mostaque, PDG de Stability AI en fait partie et prédit qu’il n’y aura plus de programmeurs dans 5 ans. Sa sortie s’avère néanmoins être en contradiction avec celle d’autres acteurs parmi lesquels on compte le CEO de GitHub.

« C’est un fait : 41 % de tout le code informatique sur GitHub est généré par une intelligence artificielle. ChatGPT est déjà capable de passer un examen de codage pour ingénieur de niveau 3 », souligne Emad Mostaque avant d’ajouter « qu’il n’y aura pas de programmeurs humains dans 5 ans. »

« J’ai demandé à GPT-4 de m’aider à produire du code pour une version 3D du jeu Asteroid, j’ai ensuite copié et collé le code qui a fonctionné d’un coup », ajoute-t-il. En fait, Emad Mostaque est d’avis que l’intelligence artificielle ouvre la porte à tous les individus désireux d’intervenir dans la filière du développement informatique : « Chacun de vous peut désormais être créatif. Chacun de vous peut désormais mettre sur pied des systèmes pour répondre aux besoins des gens. »


C’est un avis qui rejoint celui du propriétaire de la plateforme de distribution de jeux vidéo FRVR selon lequel « Tout le monde pourra créer des jeux vidéo » grâce à l’intelligence artificielle. Ce dernier propose une forge logicielle dénommée FRVR pour « permettre à quiconque de créer des jeux juste en les décrivant. »

« L’objectif est de mettre sur pied une plateforme où créer, jouer et partager des jeux est aussi facile que d'enregistrer, de regarder et de partager des vidéos sur des plateformes telles que TikTok et Instagram », ajoute-t-il. Une démonstration (d’une dizaine de minutes) des possibilités offertes par la plateforme est disponible. Elle montre les étapes de l’implémentation d’un jeu de tir spatial en s’appuyant sur ladite forge.


Et ce n’est qu’un début pour Matt Welsh – CEO et cofondateur de la startup IA Fixie.ai. « ChatGPT et autres GitHub Copilot donnent juste un aperçu introductif de ce que la filière informatique sera dans l’avenir », déclare-t-il.

« Les assistants de programmation tels que CoPilot ne font qu'effleurer la surface de ce que je décris. Il me semble tout à fait évident qu'à l'avenir, tous les programmes seront écrits par des intelligences artificielles, les humains étant relégués, au mieux, à un rôle de supervision. Quiconque doute de cette prédiction n'a qu'à regarder les progrès très rapides réalisés dans d'autres aspects de la génération de contenu par l'intelligence artificielle, comme la génération d'images. La différence de qualité et de complexité entre DALL-E v1 et DALL-E v2 - annoncée seulement 15 mois plus tard - est stupéfiante. Si j'ai appris quelque chose au cours de ces dernières années à travailler dans le domaine de l'IA, c'est qu'il est très facile de sous-estimer la puissance de modèles d'IA de plus en plus grands. Des choses qui semblaient relever de la science-fiction il y a seulement quelques mois deviennent rapidement réalité.

Je ne parle pas seulement du fait que CoPilot de Github de remplacer les programmeurs. Je parle de remplacer le concept même d'écriture de programmes par des agents d’intelligence artificielle dédiés. À l'avenir, les étudiants en informatique n'auront pas besoin d'apprendre des compétences aussi banales que l'ajout d'un nœud à un arbre binaire ou le codage en C++. Ce type d'enseignement sera dépassé, comme celui qui consiste à apprendre aux étudiants en ingénierie à utiliser une règle à calcul », prédit-il.


Le CEO de GitHub est pour sa part d’avis que « le développeur humain restera l’expert qui comprend le code et vérifie que ce qui a été synthétisé par l’IA correspond bien à son intention »

Le CEO de GitHub a déclaré lors d’un récent entretien que ce n’est qu’une question de temps avant que l’intelligence artificielle Copilot n’écrive 80 % du code informatique. Ce dernier se veut néanmoins clair sur le rapport entre les développeurs et l’intelligence artificielle pour ce qui est des possibles évolutions dans la filière : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. »

« De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire », ajoute-t-il pour ce qui est de la charge de travail journalière.

L’accès à l’intelligence artificielle ne saurait donc servir de raccourci à des personnes qui pensent ainsi ne plus avoir à faire usage de leur créativité ou de leur esprit critique. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

Et vous ?

Êtes-vous d’accord avec les avis selon lesquels ce n’est qu’une question de temps avant que l’intelligence artificielle ne s’accapare tous les postes de développeur informatique ?
Ou êtes-vous en phase avec l’avis du CEO de GitHub selon lequel « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur », ce, même après l’atteinte du stade d’IA de niveau humain ?
Quelles évolutions du métier de développeur entrevoyez-vous dans les 5 à 10 prochaines années au vu de l'adoption de l'intelligence artificielle dans la filière ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de Nym4x
Membre averti https://www.developpez.com
Le 20/08/2023 à 8:07
Passer le test de codage de google ne vaut rien car il est bien connu et l’ia a été entraînée dessus... Développer demande de la logique afin de trouver une solution à un problème spécifique pas de pisser du code pour faire du crud où il existe déjà des générateurs de code d’ailleurs. Et moi au niveau des tests de chat gpt cela n’est pas concluant:
- exemple 1: je lui donne une suite de nombre suivant une logique et lui demande de me donner les termes suivants. Échec total et même en lui donnant la logique, chatgpt à du s’y reprendre à 3 fois
Code : Sélectionner tout
1
2
3
Moi: (1,2,3),(3,4,7),(5,6,11) qu’elle est la suite logique?
ChatGPT: La suite semble suivre un modèle où chaque terme est la somme des deux termes précédents. En suivant ce modèle, la prochaine valeur serait 6 + 11 = 17. Donc, la suite logique serait : 1, 2, 3, 3, 4, 7, 5, 6, 11, 17.
- exemple 2: trouver l’intrus avec une liste d’animaux() incluant un seul animal non mammifère. Idem échec de chatgpt.

Code : Sélectionner tout
1
2
3
Moi: Quel est l’intrus: chat, vache, dauphin, baleine, truite
ChatGPT: L'intrus dans la liste est "chat". Les autres animaux mentionnés sont tous des mammifères marins, tandis que le chat est un mammifère terrestre.
Par contre chatgpt apprend et les jours suivants il donnait les bonnes réponses…
Moralité : en utilisant et corrigeant les réponses de chatgpt vous travaillez gratuitement pour openai et transférez vos connaissances voir celle de votre entreprise à openai
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 04/09/2023 à 9:12
Citation Envoyé par calvaire Voir le message
il existe une probabilité non nuls que des ia comme chatgpt remplace une partie (pas la totalités, mais au moins facile 30%) des devs, des comptables, des rh, des profs, des chef de projet, des pdg, des commerciaux bref tous les métiers de bureaux....
Quand je lis ceci, ça me fait penser à toutes les prédictions que j'ai entendu pendant ma carrière (c'est l'apanage des vieux).

J'ai débuter en informatique en 1986, à cette époque un de mes profs nous avait expliquer que les comptables étaient un métier qui allait être remplacé par les ordinateurs dans les années à venir. Bon, il me semble qu'il y ait toujours des comptables...
Et, puis, après, ce fut le célèbre : "avec l'informatique on va vers le zéro papier"... Quand je vois les montagnes de papier que l'on utilise encore aujourd'hui, je rigole.
Ensuite on a prédit : Linux, c'est la fin de Windows ! Bon, ben, encore raté.
etc, etc, etc.

Bref, il y a toujours des gens pour faire des prédictions sur l'avenir dès qu'une technologie apparait, mais, ces prédictions ne valent que ce qu'elles sont, des prédictions sans réels fondements, juste sur un sentiment, une impression et plus souvent encore, un engouement pour la nouveauté.

Aujourd'hui, c'est l'IA qui va remplacer : les comptables (tiens, encore eux), les développeurs, les banquiers, les avocats, les chauffeurs de taxi, les routiers, ... mais aussi les profs, et pourquoi pas les élèves ?
Pour moi, l'IA est juste un logiciel de brassage de données à grande échelle. Le I de IA est galvaudé. Il n'y a aucune intelligence derrière tout ça, mais surtout, il y a beaucoup de connerie devant cette appellation.
Je dirais simplement : Wait & See.
3  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:38
Citation Envoyé par Prox_13 Voir le message
C'est quand même dommage, techniquement les études sont des sources d'informations; Je pense que l'homme est plus à même de transmettre des nouvelles connaissances qu'une IA de prédiction de mot, non ?
C'est en effet le sel de la recherche: te baser sur les travaux des autres pour mener les tiens. Ce que Newton avait décrit par
Si j'ai pû voir si loin, c'est parce que je suis monté sur les épaules des géants
.
Les articles en ce moment, c'est plus du sensationnalisme ou de la production de papiers alimentaires. Encore une fois, c'est le système Publish Or Perish qui mène à une telle corruption de la Science.

@++
3  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 19/08/2023 à 3:00
On attend impatiemment une étude pour savoir vers qu'elle religion penche l'IA. Il faut être vraiment déséspéré pour discuter politique avec une IA Plus besoin de se déplacer au bistrot, le bistrot viens chez vous! Encore faut-il voir la conversation avec leur IA.
1  0 
Avatar de commandantFred
Membre actif https://www.developpez.com
Le 21/08/2023 à 10:25
Citation Envoyé par Gluups Voir le message
Avec l'intelligence artificielle on peut créer des jeux sans avoir besoin de comprendre ce qu'on fait, mais on ne peut pas traduire correctement la documentation Microsoft ? Comment c'est possible, ça ?
Si ladite documentation est sur le web, pourquoi ne pas faire un click droit sous chrome et choisir "Traduire en français" ?
La qualité de traduction Google dépasse tout ce que j'ai vu jusqu'ici. Les interfaces langage naturel et autres voix de synthèse de Redmond piquent un peu.
1  0 
Avatar de Axel Mattauch
Membre actif https://www.developpez.com
Le 30/08/2023 à 11:55
Citation Envoyé par Nym4x Voir le message
...
Par contre chatgpt apprend et les jours suivants il donnait les bonnes réponses…
Moralité : en utilisant et corrigeant les réponses de chatgpt vous travaillez gratuitement pour openai et transférez vos connaissances voir celle de votre entreprise à openai
C'est le principe même de l'IA. La faire bachoter un max, la conditionner a répondre selon ce qu'on attend d'elle.
Une variante du chien de Pavlov.
Les cadors vous dirons qu'il est possible d'éviter les biais. Je suis convaincu que cela fait rarement partie des objectifs.

Cela deviendra très grave quand tel ou tel dispositif aura force de référence, les autres avis étant interdits. Ça me rappelle certains régimes...
1  0 
Avatar de floyer
Membre averti https://www.developpez.com
Le 02/09/2023 à 17:26
J'ai essayé l'exemple... 8 bytes étaient émis (9 avec le NUL). 20 semble suffisant. Même "%e" avec un double retourne 12 charactères (+1). Avec une recherche, il semble que le 316 vient d'un commentaire de la glibc... est-ce portable ?

La façon propre est de tester la taille avec un snprintf bridé à 0 octets... et récupérer le resultat pour un malloc...
1  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 04/09/2023 à 8:00
Citation Envoyé par Patrick Ruiz Voir le message
Les enseignants de la filière du génie logiciel pourraient néanmoins s’appuyer sur certaines faiblesses en génération de code de ChatGPT pour détecter les tricheurs.
ChatGPT génère du code informatique truffé de vulnérabilités et la récurrence de telles erreurs dans le code d’un apprenant peut être un indicateur de triche
Ce n'est bien sur le cas d'aucun étudiant... Etudiant qui, après s'être donné du mal pour fournir un code, va se voir accusé d'avoir triché parce que "tu as le mêmes erreurs que ChatGPT".
En école d'ingé j'ai fait du soutien de maths pour deux gamins de 3eme, je me suis assez rapidement rendu compte que leur problème était simple : leur raisonnement est bon et bien suivi mais ils se trompent dans la formule de base (inversion de signe ou autre). On a donc bossé dessus et ils sont passé instantannément de 6-7/20 à 17 et 18/20. Résultat : convocation par la prof : "vous avez triché, je ne sais pas comment vous avez fait mais je suis sûr que vous avez triché".
PS : Ma méthode a été simple : 1. Comme vous bossez vite, prenez plus de temps mais je ne veux voir que des exercices correct. Passez le temps gagné sur les autre à vérifier votre résultat. 2. Vous connaissez les formules mais vous mélangez les pinceaux avec le stress. Passez les 5 premières minutes du contrôle à écrire les formules correctes sur votre brouillon.
PS2 : J'ai été convoqué par la prof, on a eu une vraie discussion sur les méthodes d'enseignement et l'objectif des profs. Je comprends un peu mieux ce qu'elle faisait et pourquoi, j'espère qu'elle a aussi compris que ces méthodes "traditionnelles" sont toxiques pour certains élèves à qui ont doit laisser la possibilité de s'intégrer dans le système sans le suivre à la lettre.
Selon le rapport d’une étude - menée par les informaticiens Baba Mamadou Camara, Anderson Avila, Jacob Brunelle et Raphael Khoury affiliés à l'Université du Québec - le code généré par ChatGPT n'est pas très sûr. Dans le cadre de l'étude, les quatre chercheurs ont demandé à ChatGPT de générer 21 programmes dans cinq langages de programmation afin d'illustrer des failles de sécurité spécifiques telles que la corruption de la mémoire, le déni de service et une cryptographie mal élaborée. Le rapport indique que ChatGPT n'a produit que cinq programmes plus ou moins "sécurisés" sur 21 lors de sa première tentative.
Mais qu'en est il des étudiants?
Certains étudiants "honnètes" peuvent ils créer un code proche?
Si c'est la cas ça devient problématique! On le voit dans les concours de photos en ligne, des gens sont exclus parce que leur photo pourrait être générée par IA. Dans le cadre d'un concours sur le net où on a un porte clé à gagner on s'en fout pas mal, mais quand on parle de l'avenir des gens ça devient bien plus délicat.

Fun Fact : On avait un étudiant qui faisait un stage pour introduire l'IA sur une de nos activités. On a fait la relecture de son rapport qui est rédigé en anglais. Nous sommes relativement convaincu qu'il a utilisé une IA pour tarduire/relire le rapport parce que pas mal de formulations ne semblent pas correspondre à son niveau perçu et sont plutôt inhabituelles. Ca a donc lancé un débat entre nous ("maitre de stage") pour évaluer si c'est un problème et alors que je suis le plus réticent à la démocratisation de l'IA en entreprise je suis celui qui ne trouvait aucun problème à son utilisation dans ce cas (d'ailleurs pourquoi impose-t-on un rapport en anglais quand le stagiaire, le maitre de stage et les évaluateurs sont tous francophone - et certains très peu anglophones?)
2  1 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 04/09/2023 à 10:55
Citation Envoyé par Jon Shannow Voir le message
Quand je lis ceci, ça me fait penser à toutes les prédictions que j'ai entendu pendant ma carrière (c'est l'apanage des vieux).

J'ai débuter en informatique en 1986, à cette époque un de mes profs nous avait expliquer que les comptables étaient un métier qui allait être remplacé par les ordinateurs dans les années à venir. Bon, il me semble qu'il y ait toujours des comptables...
Et, puis, après, ce fut le célèbre : "avec l'informatique on va vers le zéro papier"... Quand je vois les montagnes de papier que l'on utilise encore aujourd'hui, je rigole.
Ensuite on a prédit : Linux, c'est la fin de Windows ! Bon, ben, encore raté.
etc, etc, etc.

Bref, il y a toujours des gens pour faire des prédictions sur l'avenir dès qu'une technologie apparait, mais, ces prédictions ne valent que ce qu'elles sont, des prédictions sans réels fondements, juste sur un sentiment, une impression et plus souvent encore, un engouement pour la nouveauté.

Aujourd'hui, c'est l'IA qui va remplacer : les comptables (tiens, encore eux), les développeurs, les banquiers, les avocats, les chauffeurs de taxi, les routiers, ... mais aussi les profs, et pourquoi pas les élèves ?
Pour moi, l'IA est juste un logiciel de brassage de données à grande échelle. Le I de IA est galvaudé. Il n'y a aucune intelligence derrière tout ça, mais surtout, il y a beaucoup de connerie devant cette appellation.
Je dirais simplement : Wait & See.

les boites cherche a maximiser les profits et donc la volonté se débarasser au maximum de la masse salarial n'est pas déconnant.
j'ai juste dit "il existe une probabilité non nuls que ca remplace 30% des métiers de bureaux", donc je me mouille pas trop hein
1  0