IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'IA ne rendra pas vos diplômes en informatique inutiles », d'après des enseignants de la filière
Opposés au PDG de Nvidia selon lequel « apprendre à programmer sera inutile à l'avenir à cause de l'IA »

Le , par Patrick Ruiz

94PARTAGES

13  0 
« L’IA ne rendra pas vos diplômes en informatique inutiles », d’après des enseignants de la filière
Opposés au PDG de Nvidia selon lequel « apprendre à programmer sera inutile à l’avenir à cause de l’IA »

L’intelligence artificielle menace-t-elle les postes de développeurs informatiques humains dans les années à venir ? Le chatbot ChatGPT d’OpenAI a par exemple réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. C’est un accomplissement parmi d’autres à mettre sur le compte de cette technologie qui ravive le débat sur la possible disparition du métier de développeur du fait de sa montée en puissance. Des enseignants de la filière se veulent néanmoins rassurants : « L’intelligence artificielle ne rendra pas vos diplômes en informatique inutiles. »



Cette prise de position est de David Malan qui reste cohérent avec une sortie précédente dans laquelle il répond à la question de savoir si l’intelligence artificielle va s’emparer des emplois des programmeurs humains : « Je ne pense pas que ce soit le cas. L'intelligence artificielle n'a pas mis les humains au chômage autant qu'elle nous a rendus beaucoup plus productifs et efficaces. En utilisant ces outils pour soutenir les clients pour lesquels nous mettons sur pied des produits, nous pouvons résoudre beaucoup plus de problèmes et progresser à un rythme encore plus rapide. »



Des programmeurs perdent leurs postes à cause de l’IA comme l’illustre le cas de la société pétrolière BP qui dit avoir besoin de 70 % de codeurs en moins en raison de la mise à contribution de GitHub Copilot

Le PDG de BP, Murray Auchincloss, a déclaré aux investisseurs :

« Je vais m'attaquer aux exemples de coûts. Je pense que je laisserai Kate s'occuper de la deuxième question. En ce qui concerne les exemples de coûts, il y a quatre domaines sur lesquels nous nous concentrons vraiment, Lydia, pour atteindre au moins 2 milliards de dollars d'ici à la fin de 2026.

« Le premier est la concentration du portefeuille. Vous m'avez déjà entendu en parler, je ne vais donc pas me répéter.

« Le deuxième est votre préféré, c'est la transformation numérique. Nous avons fait énormément pour numériser de nombreux aspects de notre activité, et nous y appliquons maintenant l'IA. Les domaines dans lesquels nous obtenons des résultats remarquables sont le codage. Nous avons besoin de 70 % de codeurs en moins, car l'IA prend en charge la majeure partie du codage, et l'humain n'a plus qu'à regarder les 30 % restants pour le valider. C'est une économie importante pour l'entreprise à l'avenir. Deuxièmement, les centres d'appels, par exemple. Les modèles linguistiques sont devenus tellement sophistiqués qu'ils peuvent fonctionner dans plusieurs langues, 14 ou 15 langues facilement. Dans le passé, nous ne pouvions pas faire cela, et nous pouvons donc redéployer du personnel, étant donné que l'IA peut le faire.

« Vous avez entendu mon exemple sur la publicité au dernier trimestre, où les temps de cycle de la publicité sont passés de quatre à cinq mois à quelques semaines. Cela permet évidemment de réduire les dépenses avec des tiers. Grâce à Microsoft Copilot, nous disposons désormais de Gen AI dans de très nombreux secteurs de l'entreprise. Nous continuerons à fournir des mises à jour avec des anecdotes au fur et à mesure, mais je pense qu'il s'agit d'un énorme changement dans le numérique pour notre entreprise.

« Et je continue à chercher des moyens d'augmenter les marges et de réduire les coûts, à la fois sur le capital et sur les coûts. Les fournisseurs sont probablement un bon exemple de l'élimination du gaspillage. Nos bons partenaires de Subsea 7 ont formé une alliance avec nous. Dans le passé, nous aurions supervisé ce qu'ils faisaient. Aujourd'hui, nous formons des équipes communes. Elles travaillent ensemble sur un projet. Elles essaient de trouver des moyens de l'optimiser. Nous les incitons à gagner du temps et de l'efficacité et nous avons des équipes colocalisées qui travaillent ensemble sur ces questions. Cela permet d'éliminer les cycles d'appel d'offres, réduit le nombre d'ingénieurs impliqués de part et d'autre pour que tout soit fait, réduit la durée des navires, etc. Il ne s'agit donc que d'un concept d'alliances que nous avons mis en place depuis un certain temps dans le domaine des projets d'investissement ».

L’avenir pourrait encore être plus sombre pour l’avenir des travailleurs de la filière si l’on s’en tient aux déclarations du PDG de Nvidia selon lesquelles « il sera bientôt inutile d’apprendre à programmer » car ce sont les ordinateurs qui se prendront toutes les opérations en charge

« Apprendre à programmer sera inutile à l’avenir », d’après le PDG de Nvidia. Et pour cause, la montée en puissance de l’intelligence artificielle fera de tous des programmeurs au travers du langage naturel. En d’autres termes, l’évolution technologique sera telle que chacun sera en mesure de donner des détails d’un projet informatique à un ordinateur qui se chargera de le boucler dans les moindres détails. Cette sortie s’inscrit en droite ligne avec une autre dans laquelle il déclare que que, d’ici 2029, les ordinateurs réussiront tous les tests auxquels un être humain peut se soumettre.



Une étude débouche sur la conclusion selon laquelle l’intelligence artificielle générative ne les remplacera pas de sitôt

Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM).

Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.



Leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.

Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code. »

C’est la raison pour laquelle Linus Torvalds a tenu à se désolidariser de tout le battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose.

Et vous ?

Conseilleriez-vous à un jeune désireux de se lancer dans une formation en développement de logiciels d’abandonner sous le prétexte de la menace de l’intelligence artificielle qui pèse sur la filière ?
Contrôler les productions de l’intelligence artificielle ne s’avère-t-il pas être un métier d’avenir au vu des avancées en matière d’intelligence artificielle ?
Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?
Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
Vous avez lu gratuitement 738 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 7:35
Citation Envoyé par Jade Emy Voir le message
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Bien sur, nous savons tous que le climat c'est comme une voiture, quand il est cassé on le répare, avec des tournevis et du WD40.
Bien sur, nous savons tous, surtout depuis la physique quantique, que la physique est un domaine fini que nous mettons du temps à découvrir parce que nous sommes médiocres.
Quel est votre avis sur le sujet ?
Sam Altman est un clown qui ne sait pas de quoi il parle.
Mais il le dit surement mieux que moi parce qu'il lève des millions d'euros avec ce genre d'intervention.
Sam Altman prévoit que l'IA sera une ressource qui fera l'objet de guerres et deviendra principalement un outil pour les riches.[...]
Bref la même chose qu'aujourd'hui mais en pire
[...]Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
Ah beh tout va bien alors...
Ceci dit non seulement on va réparer le climat et découvrir la physique mais en plus se sera monnaie courante...
11  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 11:13
Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
MDR, l'IA, dont l'entraînement et l'utilisation des modèles génèrent d'importantes émissions de CO2 et dont les centres de données nécessaires à son fonctionnement consomment d'importantes quantités d'eau pour le refroidissement, serait bon pour le climat !!!
9  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 24/09/2024 à 16:45
Il fume la même chose que Musk, celui-là ?
7  0 
Avatar de
https://www.developpez.com
Le 25/09/2024 à 8:54
Sam Altman, PDG d'OpenAI, prévoit une superintelligence dans "quelques milliers de jours", qui permettra de réparer le climat, d'établir une colonie spatiale et de découvrir toute la physique
Fuite en avant, solutionnisme technologique, annonces itératives (Coué ?)
Le problème actuellement est dans l'orientation "business as usual" d'LLM par exemple : c'est comme de faire d'un-e hyperingénieur-e généraliste ... un distributeur de prospectus. Question d'usage et de mode de vie : faire croire que de frotter un smartphone va faire apparaître un génie alors qu'i s'agit de géolocaliser, orienter le désir, toussa ...
Hors la question n'est pas de savoir à qui ça profite : la question est de découvrir si un génie va apparaître. Et à l'intérieur de cette question, il y a : quel(s) vœu(x) allons-nous faire ?
Et ça ... c'est une question d'esprit.
4  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 30/09/2024 à 7:57
Le terme "IA" dans la gen AI est un pur terme marketing (et ça marche) alors qu'on a en vérité un produit qui est un simple exécutant qui ne prend aucune décision.
Pour moi, la révolution est dans la capacité d'analyse sémantique, et il est vrai que ça permet des usages très cool, avec un gain de temps certain.

Mais il faut un prompt. L'outil fait (plutôt très bien) ce qu'on lui demande. Il n'y a pas d'intelligence, de capacité d'initiative, d'autonomie dans ce qu'on nous vend comme étant de l''IA aujourd'hui.
4  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 30/09/2024 à 18:44
Citation Envoyé par OuftiBoy Voir le message
Pour en revenir au prédiction d'Altman, qui profétice qu'on aura cela dans quelques milliers de jours, c'est assez flou comme délai... quelques milliers de jours, c'est au minimum dans (2 milliers de jours), soit 6 ans (quelques induisant un chiffre > 1), soit dans (10 milliers de jour), et donc dans 27 ans, bref, ça ne veut strictement rien dire, c'est parler pour parler, et surtout pour ne rien dire.
Oh, il y en a tout plein, ici et ailleurs, qui écrivent pour écrire-pour-eux parce que les autres ne peuvent pas comprendre ce qui est écrit tellement c'est bourré de tout et n'importe quoi, suivez mon regard...
Par exemple, les bouts de phrases entre parenthèses peuvent en général être enlevés, ce qui pourrait donner c'est au minimum dans, soit 6 ans, soit dans, et donc dans 27 ans, charabia incompréhensible et gaspilleur d'espace disque, comme souvent ici.

Tu as une manière bien personnelle d'écrire et donc (d'essayer) de communiquer mais àmha, avec cette méthode tu vas dans le mur...
Tu devrais la revoir.
4  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 12/11/2024 à 11:57
est il vraiment pertinent de faire un gros modèle ?

j'ai déja eu un cas concret dans le passé (rien a voir avec les llm), plus on faisait un gros réseau de neurone avec de la data (de "qualité" en plus) plus le modèle était mauvais/stagnait (overfitting).
au final nous avons fait plusieurs petit modèle et un classifier en front pour choisir le modèle en fonction des données d'entrées, les résultats était bien meilleurs ainsi.
l'article parle t'il d'ia généraliste comme chatgpt ou d'ia spécialisé par exemple dans le code ou des 2 ?

De toute façon cette technos et fatalement limité par la production humaine, si demain l'ia remplace les devs, alors l'ia ne pourra plus évoluer. C'est grâce à des humains qui écrive des docs, trouve des bugs les corrige ou écrive sur les forum comment les contourner et donne des réponses bénévolement sur stackoverflow que l'ia progresse.

Or l’informatique c'est surement le domaine le moins stable dans le monde, y'a toujours une nouvelle technos, une nouvelle version, des patchs de sécurité a faire...si bien que il faut évoluer et s'adapter, pour un humain, c'est un aspect que l'on peut aimer ou détester, mais ce que l'on apprends à la sortie d'école et déjà obsolète, c'est de l'apprentissage continue.

edit: même dans le cas d'ia orienté code, une fois ratissez les forums style stackoverflow, c'est compliqué d'aller plus loins

par contre, j'imagine dans le futur une fonctionnalité pour les entreprises permettant de donner à l'ia toute la base de code et doc technique de l'entreprise et s'entrainer dessus, ainsi l'ia aurait le contexte de l'entreprise et le coding standard. Ca serait déja une belle amélioration dans la qualité des réponses.
par exemple je lui demande comment me connecter une l'api d'un service interne, elle va me donner le code, comment m'y connecter (demander à Jean Jacque sur teams de me crée un compte machine avec token en lecture, ensuite de tester la connexion avec ce code et enfin la fonctionnalité que vous avez demandez)
4  0 
Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 11/12/2024 à 17:33
Triste comme ces personnes peuvent fumer de la moquette !
Ils sont donc arrivé à faire une AI Générale !
Alors plus d'hallucinations, de mensonges, de biais ! Wahoo !!!
Cette AIG est capable d'évaluer la pertinence de ce qu'elle dit avec les sources ? De tester la robustesse des données de sa base d'intelligence ? D'en demander de supplémentaires car elle ne peut répondre a la question posée ? ...
Ah ! Non... Crottes !!!

Les IA des modèles actuels sont des perroquets scolastiques qui proposent le plus probable et normalement (malheureusement) incapables de produire une idée neuve par rapport à sa base d' apprentissage.
La connaissance encyclopédique n'est pas de l'intelligence, c'est juste bluffant.
Si cette iag fait de l'inférence, quelles sont les domaines mathématiques qu'elle aurait déjà épuisé ? Les trucs sympas qu'elle a démontré avec plus de finesse que l'humain ?
Altman sera mort avant que l'humanité le voit. Il est jeune Altman...
4  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 30/12/2024 à 10:02
Citation Envoyé par Mat.M Voir le message
ça c'est un truc bien français la technophobie.
Et si un jour vous avez une pathologie et que votre médecin interroge un système d'I.A. pour établir un diagnostic afin de guérir rapidement ?
C'est un truc bien français de mépriser les français. Intéressante proposition récursive... J'ai l'impression que c'est dû au fait que nous nous croyons au centre du monde, un peu comme les américains: Non les français ne sont pas plus technophobes que les autres, mais il faudrait s'intéresser aux autres pour s'en rendre compte.
J'ai vécu dans plusieurs pays, et je peux t'assurer que l'immense majorité des poncifs sur les français sont faux.

Je ne suis pas technophobe, mais je suis critique.
De toutes façons, je pense qu'il y a quiproquo: Je critiquais l'utilisation des LLM, pas de l'IA en général.
4  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/07/2025 à 22:15
Citation Envoyé par Artemus24 Voir le message
Si je prends le cas de ChatGPT, il se sert de l'internet comme base de données pour effectuée une recherche. Rien à voir avec un quelconque apprentissage. Il peut même retourner de fausses informations puisqu'il est incapable de comprendre le sens même de la question posée. C'est en cela que je dis que pour l'instant, l'IA est une fumisterie, car ce que l'on nous présente n'est pas une IA générative et n'a aucune capacité d'apprentissage, juste une recherche améliorée.
Si si, c'est de l'apprentissage, mais tu es tombé dans le piège marketing de l'IA. Ce que l'IA générative apprend, ce n'est pas le savoir que tu trouves sur internet. C'est comment écrire du contenu qui ressemble à ce que tu trouves sur internet. C'est très différent et ça éclaire beaucoup de choses.

ChatGPT, Mistral, Claude, Gemini, et des milliers d'autres LLM qu'on peut trouver sur Hugging Face, y compris des équivalents des modèles commerciaux précédents, sont bel et bien basé sur l'apprentissage. Quand tu fais une requête, le principe de base du LLM n'est pas de faire une recherche sur internet. Il ne l'utilise pas lors de ta requête. Le LLM a été entrainé auparavant sur le contenu internet, comme AlphaGo a été entrainé sur des parties existantes de Go avant de jouer ses matchs. Mais là où AlphaGo a appris à jouer au Go, les LLM apprennent à générer du texte humain : ce qui vient après "le chat a mangé la" est de toute évidence "souris", parce que c'est ça le plus probable dans un texte humain. Peu importe que ce soit vrai ou pas, c'est statistiquement le plus probable. Un LLM génère du texte cohérent, et non pas vrai, c'est fondamental à comprendre car c'est la raison pour laquelle il peut fournir de fausses informations. On appelle ça des illusions mais ça n'a rien de spécial : c'est la limite fondamentale d'un LLM. La ressemblance à du texte humain est tout ce qui compte, la vérité il ne la connais pas. Internet sert à l'entrainement, mais à l'usage il génère une réponse sur la base de ce qu'il en a retenu, sans l'utiliser à nouveau.

Maintenant les LLM peuvent être augmentés par différents outils, et pour comprendre comment ça fonctionne il faut comprendre que plus on donne de contexte et plus le LLM pourra générer une réponse orientée. Par exemple, si tu ajoute comme contexte "Dans un monde où les plus petits mangent les plus gros" ce qui vient après "le chat a mangé la" pourrais bien être autre chose que "souris", genre "vache", car ça ne serait pas cohérent avec ce qui a été écrit avant. Ainsi, apporter du contexte permet d'orienter la réponse pour que le LLM génère une réponse cohérente qui va dans le sens qui nous intéresse. Cela reste statistique, on n'aura pas forcément ce qu'on veut, mais les chances augmentent.

Une fois qu'on sait exploiter le contexte, on peut utiliser des outils du genre récupération de données sur internet. On les ajoute au contexte avant de demander de répondre. La réponse sera donc influencée par ce qu'on a ajouté au contexte. Toujours dans le but de générer du texte cohérent, et non pas vrai. Tu peux ajouter des pages Web, des PDFs, des images (pour les modèles qui savent les traiter) et autres données au format textuel (CSV, Markdown, XML, JSON, etc.). Si tu demandes "Décrit moi les caractéristiques d'un transistor BD777", il te sortira quelque chose qui ressemble à une description technique de transistor, mais si tu compares à la datasheet ça sera surement du pur bullshit. Si tu lui donnes la datasheet en contexte, la même question te retournera quelque chose de bien plus proche de la réalité, peut-être même parfaitement correct. Pas parce que c'est ce qui est vrai (il peut toujours sortir du bullshit) mais parce que c'est cohérent avec le contexte donné avec la requête.

Une fois qu'on a compris ça, on a compris qu'il ne faut jamais faire aveuglément confiance à un LLM. Il faut soit lui demander des trucs où on se fiche de l'aspect véridique (e.g. role play, création d'histoire, etc.) soit lui demander des trucs dont on sait pertinement qu'on passera derrière pour vérifier (ou un tiers de confiance, genre une suite de tests valides pour du code généré par IA). On peut être surpris de voir quelque chose qui semble fonctionner à la perfection, mais on n'est jamais à l'abri d'un dérapage complet.

Tout comme AlphaGo est très bon pour jouer au Go, les LLM sont très bon pour générer du texte cohérent. Mais comme on ne demandera pas à AlphaGo d'expliquer ses coups, on ne demandera pas au LLM de dire des choses factuellement vraies. Il n'en sont juste pas capables car pas entraînés pour ça. La phase de fine tuning qui vient après l'apprentissage oriente le type de discours du LLM, mais ça ne corrige pas complètement ses lacunes fondamentales.

À voir ce qu'il en sera avec ce que Yann Lecun nous sortira.
4  0