IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« L'IA ne rendra pas vos diplômes en informatique inutiles », d'après des enseignants de la filière
Opposés au PDG de Nvidia selon lequel « apprendre à programmer sera inutile à l'avenir à cause de l'IA »

Le , par Patrick Ruiz

38PARTAGES

13  0 
L’intelligence artificielle menace-t-elle les postes de développeurs informatiques humains dans les années à venir ? Le chatbot ChatGPT d’OpenAI a par exemple réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. C’est un accomplissement parmi d’autres à mettre sur le compte de cette technologie qui ravive le débat sur la possible disparition du métier de développeur du fait de sa montée en puissance. Des enseignants de la filière se veulent néanmoins rassurants : « L’intelligence artificielle ne rendra pas vos diplômes en informatique inutiles. »



Cette prise de position est de David Malan qui reste cohérent avec une sortie précédente dans laquelle il répond à la question de savoir si l’intelligence artificielle va s’emparer des emplois des programmeurs humains : « Je ne pense pas que ce soit le cas. L'intelligence artificielle n'a pas mis les humains au chômage autant qu'elle nous a rendus beaucoup plus productifs et efficaces. En utilisant ces outils pour soutenir les clients pour lesquels nous mettons sur pied des produits, nous pouvons résoudre beaucoup plus de problèmes et progresser à un rythme encore plus rapide. »



Des programmeurs perdent leurs postes à cause de l’IA comme l’illustre le cas de la société pétrolière BP qui dit avoir besoin de 70 % de codeurs en moins en raison de la mise à contribution de GitHub Copilot

Le PDG de BP, Murray Auchincloss, a déclaré aux investisseurs :

« Je vais m'attaquer aux exemples de coûts. Je pense que je laisserai Kate s'occuper de la deuxième question. En ce qui concerne les exemples de coûts, il y a quatre domaines sur lesquels nous nous concentrons vraiment, Lydia, pour atteindre au moins 2 milliards de dollars d'ici à la fin de 2026.

« Le premier est la concentration du portefeuille. Vous m'avez déjà entendu en parler, je ne vais donc pas me répéter.

« Le deuxième est votre préféré, c'est la transformation numérique. Nous avons fait énormément pour numériser de nombreux aspects de notre activité, et nous y appliquons maintenant l'IA. Les domaines dans lesquels nous obtenons des résultats remarquables sont le codage. Nous avons besoin de 70 % de codeurs en moins, car l'IA prend en charge la majeure partie du codage, et l'humain n'a plus qu'à regarder les 30 % restants pour le valider. C'est une économie importante pour l'entreprise à l'avenir. Deuxièmement, les centres d'appels, par exemple. Les modèles linguistiques sont devenus tellement sophistiqués qu'ils peuvent fonctionner dans plusieurs langues, 14 ou 15 langues facilement. Dans le passé, nous ne pouvions pas faire cela, et nous pouvons donc redéployer du personnel, étant donné que l'IA peut le faire.

« Vous avez entendu mon exemple sur la publicité au dernier trimestre, où les temps de cycle de la publicité sont passés de quatre à cinq mois à quelques semaines. Cela permet évidemment de réduire les dépenses avec des tiers. Grâce à Microsoft Copilot, nous disposons désormais de Gen AI dans de très nombreux secteurs de l'entreprise. Nous continuerons à fournir des mises à jour avec des anecdotes au fur et à mesure, mais je pense qu'il s'agit d'un énorme changement dans le numérique pour notre entreprise.

« Et je continue à chercher des moyens d'augmenter les marges et de réduire les coûts, à la fois sur le capital et sur les coûts. Les fournisseurs sont probablement un bon exemple de l'élimination du gaspillage. Nos bons partenaires de Subsea 7 ont formé une alliance avec nous. Dans le passé, nous aurions supervisé ce qu'ils faisaient. Aujourd'hui, nous formons des équipes communes. Elles travaillent ensemble sur un projet. Elles essaient de trouver des moyens de l'optimiser. Nous les incitons à gagner du temps et de l'efficacité et nous avons des équipes colocalisées qui travaillent ensemble sur ces questions. Cela permet d'éliminer les cycles d'appel d'offres, réduit le nombre d'ingénieurs impliqués de part et d'autre pour que tout soit fait, réduit la durée des navires, etc. Il ne s'agit donc que d'un concept d'alliances que nous avons mis en place depuis un certain temps dans le domaine des projets d'investissement ».

L’avenir pourrait encore être plus sombre pour l’avenir des travailleurs de la filière si l’on s’en tient aux déclarations du PDG de Nvidia selon lesquelles « il sera bientôt inutile d’apprendre à programmer » car ce sont les ordinateurs qui se prendront toutes les opérations en charge

« Apprendre à programmer sera inutile à l’avenir », d’après le PDG de Nvidia. Et pour cause, la montée en puissance de l’intelligence artificielle fera de tous des programmeurs au travers du langage naturel. En d’autres termes, l’évolution technologique sera telle que chacun sera en mesure de donner des détails d’un projet informatique à un ordinateur qui se chargera de le boucler dans les moindres détails. Cette sortie s’inscrit en droite ligne avec une autre dans laquelle il déclare que que, d’ici 2029, les ordinateurs réussiront tous les tests auxquels un être humain peut se soumettre.

[Tweet] <blockquote class="twitter-tweet"><p lang="en" dir="ltr">Nvidia CEO Jensen Huang has a unique take on what kids should study in school.<br><br>While computer science and programming were once the must-have skills, Huang believes that the focus should shift to specific domain knowledge such as biology, chemistry, or finance. <a href="https://t.co/ImsKiVvcXK">pic.twitter.com/ImsKiVvcXK</a></p>&mdash; Mohit (MCR) &#59904;&#127470;&#127475; (@ammohitchaprana) <a href="https://twitter.com/ammohitchaprana/status/1760619467019804878?ref_src=twsrc%5Etfw">February 22, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/Tweet]

Une étude débouche sur la conclusion selon laquelle l’intelligence artificielle générative ne les remplacera pas de sitôt

Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM).

Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.



Leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.

Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code. »

C’est la raison pour laquelle Linus Torvalds a tenu à se désolidariser de tout le battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose.

Et vous ?

Conseilleriez-vous à un jeune désireux de se lancer dans une formation en développement de logiciels d’abandonner sous le prétexte de la menace de l’intelligence artificielle qui pèse sur la filière ?
Contrôler les productions de l’intelligence artificielle ne s’avère-t-il pas être un métier d’avenir au vu des avancées en matière d’intelligence artificielle ?
Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?
Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 7:35
Citation Envoyé par Jade Emy Voir le message
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Bien sur, nous savons tous que le climat c'est comme une voiture, quand il est cassé on le répare, avec des tournevis et du WD40.
Bien sur, nous savons tous, surtout depuis la physique quantique, que la physique est un domaine fini que nous mettons du temps à découvrir parce que nous sommes médiocres.
Quel est votre avis sur le sujet ?
Sam Altman est un clown qui ne sait pas de quoi il parle.
Mais il le dit surement mieux que moi parce qu'il lève des millions d'euros avec ce genre d'intervention.
Sam Altman prévoit que l'IA sera une ressource qui fera l'objet de guerres et deviendra principalement un outil pour les riches.[...]
Bref la même chose qu'aujourd'hui mais en pire
[...]Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
Ah beh tout va bien alors...
Ceci dit non seulement on va réparer le climat et découvrir la physique mais en plus se sera monnaie courante...
11  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 11:13
Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
MDR, l'IA, dont l'entraînement et l'utilisation des modèles génèrent d'importantes émissions de CO2 et dont les centres de données nécessaires à son fonctionnement consomment d'importantes quantités d'eau pour le refroidissement, serait bon pour le climat !!!
9  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 24/09/2024 à 16:45
Il fume la même chose que Musk, celui-là ?
7  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 25/09/2024 à 8:54
Sam Altman, PDG d'OpenAI, prévoit une superintelligence dans "quelques milliers de jours", qui permettra de réparer le climat, d'établir une colonie spatiale et de découvrir toute la physique
Fuite en avant, solutionnisme technologique, annonces itératives (Coué ?)
Le problème actuellement est dans l'orientation "business as usual" d'LLM par exemple : c'est comme de faire d'un-e hyperingénieur-e généraliste ... un distributeur de prospectus. Question d'usage et de mode de vie : faire croire que de frotter un smartphone va faire apparaître un génie alors qu'i s'agit de géolocaliser, orienter le désir, toussa ...
Hors la question n'est pas de savoir à qui ça profite : la question est de découvrir si un génie va apparaître. Et à l'intérieur de cette question, il y a : quel(s) vœu(x) allons-nous faire ?
Et ça ... c'est une question d'esprit.
4  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 30/09/2024 à 7:57
Le terme "IA" dans la gen AI est un pur terme marketing (et ça marche) alors qu'on a en vérité un produit qui est un simple exécutant qui ne prend aucune décision.
Pour moi, la révolution est dans la capacité d'analyse sémantique, et il est vrai que ça permet des usages très cool, avec un gain de temps certain.

Mais il faut un prompt. L'outil fait (plutôt très bien) ce qu'on lui demande. Il n'y a pas d'intelligence, de capacité d'initiative, d'autonomie dans ce qu'on nous vend comme étant de l''IA aujourd'hui.
4  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 30/09/2024 à 18:44
Citation Envoyé par OuftiBoy Voir le message
Pour en revenir au prédiction d'Altman, qui profétice qu'on aura cela dans quelques milliers de jours, c'est assez flou comme délai... quelques milliers de jours, c'est au minimum dans (2 milliers de jours), soit 6 ans (quelques induisant un chiffre > 1), soit dans (10 milliers de jour), et donc dans 27 ans, bref, ça ne veut strictement rien dire, c'est parler pour parler, et surtout pour ne rien dire.
Oh, il y en a tout plein, ici et ailleurs, qui écrivent pour écrire-pour-eux parce que les autres ne peuvent pas comprendre ce qui est écrit tellement c'est bourré de tout et n'importe quoi, suivez mon regard...
Par exemple, les bouts de phrases entre parenthèses peuvent en général être enlevés, ce qui pourrait donner c'est au minimum dans, soit 6 ans, soit dans, et donc dans 27 ans, charabia incompréhensible et gaspilleur d'espace disque, comme souvent ici.

Tu as une manière bien personnelle d'écrire et donc (d'essayer) de communiquer mais àmha, avec cette méthode tu vas dans le mur...
Tu devrais la revoir.
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2024 à 2:50
Citation Envoyé par Stéphane le calme  Voir le message
Un professeur d'informatique du MIT teste l'impact de l'IA sur la formation des programmeurs :
l'attention constante portée à l'intégration de l'IA dans la plupart des secteurs d'activité modifie la manière dont l'informatique est enseignée

L’intelligence artificielle (IA) transforme de nombreux secteurs, y compris l’éducation. Une récente expérience menée par Eric Klopfer, professeur au Massachusetts Institute of Technology (MIT), a exploré comment l’IA influence l’apprentissage des programmeurs.

L'automne dernier, Eric Klopfer a décidé de mener une expérience dans son cours d'informatique de premier cycle au Massachusetts Institute of Technology (MIT). Il a divisé la classe en trois groupes et leur a donné une tâche de programmation à résoudre en langage Fortran, qu'aucun d'entre eux ne connaissait.

Chaque groupe avait accès à différents outils pour résoudre le problème :
  • Un groupe a été autorisé à utiliser ChatGPT pour résoudre le problème;
  • le deuxième groupe a été invité à utiliser le grand modèle linguistique (LLM) Code Llama de Meta ;
  • et le troisième groupe n'a pu utiliser que Google, sans assistance d’IA.

L’objectif était de comparer non seulement la rapidité avec laquelle chaque groupe pouvait résoudre le problème, mais aussi la qualité de leur compréhension et leur capacité à retenir les informations.


Les résultats

Les résultats ont montré que le groupe utilisant ChatGPT a résolu le problème le plus rapidement, suivi par le groupe utilisant Code Llama, et enfin le groupe utilisant Google, qui a mis encore plus de temps, car il a dû décomposer la tâche en plusieurs éléments.

Cependant, lorsque les étudiants ont été testés sur leur capacité à résoudre le problème de mémoire, les résultats ont été inversés : le groupe ChatGPT « ne s'est souvenu de rien et a échoué », se souvient Klopfer, professeur et directeur du programme de formation des enseignants Scheller du MIT et de The Education Arcade. En revanche, la moitié du groupe Code Llama a réussi le test. Le groupe qui a utilisé Google ? Tous les élèves ont réussi.

« Il s'agit d'une leçon éducative importante », a déclaré Klopfer. « Travailler dur et se battre est en fait une façon importante d'apprendre. Lorsqu'on vous donne une réponse, vous ne vous débattez pas et vous n'apprenez pas. Et lorsque le problème devient plus complexe, il est fastidieux de revenir au début d'un grand modèle de langage pour tenter de comprendre et l'intégrer. »

C'est le vrai problème que causera l'IA au niveau du métier de développeur. Le métier de développeur n'aura plus aucune saveur. Et petit à petit ce "savoir" se perdra. Tout simplement parce qu'il n'intêressera plus personne. Se "former" pour devenir un bon développeur, puis ensuite ne se servir de se savoir que rarement, et en fait surveiller la sortie de l'IA n'a aucun intêret.

Citation Envoyé par Stéphane le calme  Voir le message
En revanche, la décomposition du problème en éléments permet d'utiliser un LLM pour travailler sur de petits aspects, au lieu d'essayer d'utiliser le modèle pour l'ensemble d'un projet, ajoute-t-il. « Ces compétences, qui consistent à décomposer le problème, sont essentielles à l'apprentissage ».

Généralement, c'est le "chef de produit" qui s'occupe soit bien de ce travail (car il a au départ une formation de développeur), soit mal (car il n'a pas eu au départ une formation de développeur). Mais actuellement, c'est le développeur qui implémente une partie d'un morceau du soucis, soit s'arrache les cheveux pour essayer de comprendre ce qu'essayé d'exprimer un "chef de projet" qui ne connait rien au métier de développeur.

Mais c'est déjà une "pratique" qui existe maintenant. Avant, il y avait un développeur qui s'occupait de tout le code. Puis les projet se sont complexifiés, pas forcément par nécessité, mais pour des raisons de "marketing" et "segmentation" de marché. Et le développeur ne s'occupe plus de l'ensemble du projet, ce qui est très néfaste pour son impliquation dans le projet. Avant, il créait quelque chose, et maintenant il doit construire des brique sans vue d'ensemble du projet, il ne sait plus s'approprier le projet, et c'est très frustrant. Et puis surtout, ça ne sert pas à grand chose.

Il n'y a pas si longtemps, une équipe de 3 personnes gérait un projet et sortait le produit en 1 ans. Maintenant, c'est 9 personnes qui s'occupe d'un projet, et le produit prend 3 ans a être au point.

C'est la triple peine, des équipes plus grosses, plus de communication, plus de réunions, et des gens démotivés car il savent plus se sentir responsable des bout de code qu'on leur donne à faire. Et celui qui est le mieux placé pour faire avancer le schilblick, c'est le développeur. Parce qu'on peut décrire ce qu'il y a à faire, (mais c'est souvent incompréhensible pour le développeur qui doit partir à la recherche d'information).

Citation Envoyé par Stéphane le calme  Voir le message
Cet exemple a permis à Klopfer de conclure avec confiance que l'informatique n'est pas condamnée à l'heure où l'IA se fraye un chemin dans tous les secteurs d'activité. D'autres experts en informatique conviennent que plus l'IA sera utilisée, plus la nature des emplois changera, et qu'il faudra donc continuer à enseigner aux humains des concepts de base tels que les statistiques et la connaissance du fonctionnement des systèmes.

Vu de cette manière, ça retire tout l'intêret du métier.

Citation Envoyé par Stéphane le calme  Voir le message
« Il faut toujours les bases pour être des informaticiens et des ingénieurs logiciels efficaces », a déclaré Beena Ammanath, responsable de l'IA digne de confiance et de la technologie éthique chez Deloitte.

Je le redit, ça n'intéressera plus personne, car ce ne sera plus valorisant pour la personne. Et permettez-moi de rire un bon coups quand j'entend de tel dénomination de fonction: responsable de l'IA digne de confiance et de la technologie éthique. Beaucoup de mots mais se qu'ils signifie reste plus que flou. Déjà parce qu'actuellement, il n'y a aucune IA digne de confiance, et j'aimerai qu'on me dise ce qu'est une technologie "éthique" ? La technologie est ce qu'elle est, c'est ce qu'on en fait qui est éthique ou pas.

Citation Envoyé par Stéphane le calme  Voir le message
Malgré toutes les craintes concernant les suppressions d'emplois dues à l'IA, une étude récente du Computer Science and Artificial Intelligence Laboratory (CSAIL) du MIT a révélé que l'automatisation des emplois humains pourrait prendre plus de temps qu'on ne le pensait auparavant. Selon l'étude, seuls 23 % environ des salaires liés aux tâches de vision pourraient être remplacés de manière rentable par l'IA, ce qui indique que le déplacement des emplois dû à l'IA, en particulier dans le domaine de la vision par ordinateur, risque de se produire plus lentement qu'on ne l'avait envisagé au départ.

Bein oui, quand l'IA sera au point, et ne fera plus de bugs, oh pardon, on doit dire "hallucination" dans le jargon de l'IA.

Citation Envoyé par Stéphane le calme  Voir le message
Les résultats « suggèrent que nous devrions nous attendre à ce que les effets de l'automatisation de l'IA soient moins importants que les effets d'automatisation/destruction d'emplois déjà observés dans l'économie », indique l'étude. « Il n'est pas certain que l'ajout de l'automatisation par l'IA à ces effets existants augmentera de manière substantielle la destruction globale d'emplois. Bien qu'il soit probable que des emplois soient perdus, « nous pensons également qu'une fraction substantielle de l'automatisation des tâches par l'IA se produira dans des domaines où l'automatisation traditionnelle est en cours », observe l'étude du CSAIL.


Comment l'enseignement de l'informatique va évoluer pour aborder l'IA

L'accent mis sur l'intégration de l'IA dans la plupart des secteurs d'activité va également modifier la manière dont l'informatique sera enseignée, offrant des opportunités « tout à fait considérables », selon Risto Miikkulainen, professeur d'informatique à l'université du Texas à Austin et vice-président associé de l'intelligence évolutive chez Cognizant AI Labs.

Avec l'arrivée d'outils tels que le chatbot Copilot de Microsoft, par exemple, certains pourraient se demander pourquoi ils devraient se donner la peine d'apprendre à coder. Miikkulainen pense que les étudiants utilisent Copilot et d'autres chatbots principalement « comme un tuteur pour les devoirs de programmation » afin de suggérer des modifications.

« Tout d'un coup, l'enseignement de la programmation devient beaucoup plus vivant », explique Miikkulainen.

Reid Gordon Simmons, professeur de recherche à l'Institut de robotique de l'université Carnegie Mellon, ajoute que, de la même manière que les compilateurs traduisent le code source d'un langage de programmation en code machine, ce qui évite aux ingénieurs en informatique d'avoir à comprendre les assembleurs, « l'utilisation de l'IA et de la ML rendra de moins en moins nécessaire la compréhension des détails du codage ».

Cependant, il est toujours important d'apprendre aux gens à coder, tout simplement parce qu'une partie du travail d'informaticien consiste à comprendre les processus, a déclaré Simmons. « Mon analogie est d'enseigner l'arithmétique à des enfants de sept ans. Lorsque vous arrivez au collège, plus personne ne fait d'arithmétique à la main ; vous utilisez des calculatrices ».

Faudrait savoir, l'IA va tout pondre via un prompt du marketing ou bien il faudra toujours savoir développer ?

Citation Envoyé par Stéphane le calme  Voir le message
Même si les calculatrices peuvent faire le travail à votre place, vous devez toujours comprendre les concepts, a-t-il ajouté. « De même, les informaticiens devront comprendre les principes fondamentaux de la programmation afin d'être efficaces dans leur travail, mais tout comme avec les calculatrices, ils n'auront pas à coder beaucoup ».

Et si on demandait à un physicien nucléaire de faire 10 ans d'étude pour connaitre le métier, puis qu'il ne peut que vérifier si l'IA ne se trompe pas ? On ira droit dans le mur, car petit à petit, on fera de plus en plus confiance à l'IA, et quand surviendra un problème à une centrale nucléaire que l'IA ne sait réssoudre, le gars dont on a mit les compétance en veilleuse pendant 20 ans, il ne va forcément bien réagir, ni rapidement, parce le savoir se sera perdu au fil du temps.

C'est finalement comme une tesla AutoPilot FSD qui conduit toute seule (enfin, l'année prochaine, comme c'est promis toutes les années), mais dont l e conducteur doit rester à l'éveil, pour "reprendre la main" en cas de soucis. Reprendre la main en cas de soucis prend plus de temps que si on est concentré sur la conduite au moment de prendre une décision.

Citation Envoyé par Stéphane le calme  Voir le message
L'IA nécessite l'enseignement de disciplines ou d'aspects entièrement nouveaux de l'informatique, tels que l'IA responsable et la manière d'empêcher l'utilisation abusive de l'IA, a déclaré Miikkulainen. « Il y aura tellement de gens qui utiliseront [les systèmes d'IA] sans comprendre ce qu'il y a sous le capot ».

Ah oui bien sur, l'IA fera tout, mais si ça foire, ce sera pas à cause de l'IA, mais de son utilisateur. Et comment définir ce qu'est une utilisation abusive de l'IA ? Parce que ça m'étonnerait que la réponse soit la même en chine qu'usa on europe ou

Citation Envoyé par Stéphane le calme  Voir le message
De nouvelles filières universitaires apparaîtront également dans des domaines tels que la science des données, l'apprentissage automatique, l'expérience utilisateur et l'ingénierie mobile, ainsi que dans des branches spécifiques de l'IA, telles que l'IA générative, les LLM et la vision par ordinateur, a déclaré Ammanath de Deloitte. Cela permettra non seulement de préparer les étudiants aux emplois du futur proche et de les rendre plus commercialisables, mais aussi de maintenir la compétitivité des États-Unis par rapport aux autres pays dans la course mondiale à l'armement en matière d'IA.

Bein si c'est ça le futur, je suis bien content que je ne serait plus là pour le voir. Puisse qu'on parle d'éthique un peut plus haut, si on utilisait l'IA pour libérer l"homme de certaines tâches, et qu'on les laissent s'épanouir sur des choses qu'ils aiment vraiment ? Non, bien évidemment la course à la sacro-sainte "productivité" qui ne profite qu'a une élite bien installée, ce n'est pas l'idée, suis-je bête.

Citation Envoyé par Stéphane le calme  Voir le message


Les éducateurs face aux hallucinations des LLM : enseigner à être sceptique dans un monde de textes générés par l'IA

Les éducateurs sont prudents, compte tenu de la tendance à l'hallucination du LLM. « Nous devons apprendre aux étudiants à être sceptiques à l'égard des résultats et à s'approprier la vérification et la validation de ces derniers », explique Jeanna Matthews, professeur d'informatique à l'université Clarkson de Potsdam, dans l'État de New York. .

Il ajoute que l'IA générative « peut court-circuiter le processus d'apprentissage des étudiants qui s'y fient trop ». Chang reconnaît que cette dépendance excessive peut être un piège et conseille à ses camarades étudiants d'explorer eux-mêmes les solutions possibles aux problèmes afin de ne pas perdre cette pensée critique ou ce processus d'apprentissage efficace. « Nous devrions faire de l'IA un copilote - et non le pilote automatique - de l'apprentissage », déclare-t-il.

ChatGPT a impressionné le monde par la profondeur de ses connaissances et la fluidité de ses réponses, mais un problème a entravé son utilité : Il n'arrête pas d'halluciner. Oui, les grands modèles de langage (LLM) hallucinent, un concept popularisé par les chercheurs en IA de Google en 2018. Dans ce contexte, l'hallucination fait référence à des erreurs dans le texte généré qui sont sémantiquement ou syntaxiquement plausibles, mais qui sont en fait incorrectes ou absurdes. En bref, vous ne pouvez pas faire confiance à ce que la machine vous dit.

C'est pourquoi, même si le Codex d'OpenAI ou le Copilot de Github peuvent écrire du code, un programmeur expérimenté doit toujours examiner le résultat - l'approuver, le corriger ou le rejeter avant de le laisser se glisser dans une base de code où il pourrait faire des ravages. Les enseignants du secondaire apprennent la même chose. Un rapport de lecture ou un essai historique rédigé par ChatGPT peut être facile à lire, mais peut facilement contenir des « faits » erronés que l'élève était trop paresseux pour déceler.

Les hallucinations constituent un problème sérieux. Bill Gates a imaginé que ChatGPT ou d'autres modèles linguistiques de grande taille pourraient un jour fournir des conseils médicaux aux personnes qui n'ont pas accès à un médecin. Mais on ne peut pas se fier aux conseils d'une machine sujette aux hallucinations.

Mais que tout cela est beau. On va former des chirurgiens qui ne fera que 3 opérations dans leur vie ? Vous croyez vraiment que ça va intéresser quelqu'un ? Non, on jetera sur la personne dans une benne, et vive le soleil vert (les connaisseurs comprendront)

Conclusion

Citation Envoyé par Stéphane le calme  Voir le message
L’expérience de Klopfer au MIT offre des leçons précieuses pour l’intégration de l’IA dans l’éducation. Bien que l’IA puisse accélérer la résolution de problèmes, elle ne doit pas remplacer les méthodes d’apprentissage qui encouragent la compréhension et la rétention à long terme. Les éducateurs doivent trouver un équilibre pour tirer le meilleur parti des technologies avancées tout en assurant un apprentissage efficace et durable.

Quelles sont vos pensées sur l’utilisation de l’IA dans l’éducation ? Pensez-vous que les outils d’IA devraient être intégrés davantage dans les programmes scolaires, ou y a-t-il des risques à considérer ? Partagez vos opinions dans les commentaires ci-dessous !

Sources : MIT Scheller Teacher Education Program, Au-delà de l'exposition à l'IA : quelles sont les tâches qu'il est rentable d'automatiser grâce à la vision par ordinateur ?, ACM

Et vous ?

Quels sont, selon vous, les avantages et les inconvénients de l’utilisation de l’IA comme outil d’apprentissage pour les programmeurs ?
Pensez-vous que l’IA pourrait remplacer les méthodes d’enseignement traditionnelles, ou devrait-elle être utilisée en complément ? Pourquoi ?
Avez-vous déjà utilisé des outils d’IA pour apprendre à programmer ? Si oui, comment cela a-t-il influencé votre apprentissage ?
Comment les éducateurs peuvent-ils équilibrer l’utilisation de l’IA avec des méthodes d’apprentissage plus traditionnelles pour garantir une compréhension approfondie des concepts ?
Quels sont les risques potentiels de dépendre trop fortement de l’IA pour l’éducation, et comment pouvons-nous les atténuer ?
Pensez-vous que l’IA pourrait aider à personnaliser l’apprentissage en fonction des besoins individuels des étudiants ? Si oui, comment ?
Comment voyez-vous l’avenir de l’éducation en informatique avec l’intégration croissante de l’IA ?

[/QUOTE]

Il y a 2 possibilité. Soit l'IA remplace l'fomme et bienvenu dans le monde "d'Idiocratie", Soit l'IA telle que réveé par certains ne sera pas là avant des dizaine d'année si pas des milliers. Sans compter que tout se ressemblera, l'IA n'inventant rien.
3  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 25/09/2024 à 20:58
Citation Envoyé par Jules34 Voir le message

Quelle arrogance de croire qu'ils pourront réparer la nature ou percer les secrets de la physique... Le propre de la science c'est justement de toujours plus se poser de question !
La majorité des avançées scientifiques ont été portées par des "esprits brillants" qui n'acceptaient pas l'immobilisme des choses "en place". C'est un réflexe humain de protection. Si quelqu'un dit que tu as tord, tu vas d'abord te défendre, ne pas admettre tes erreurs, ni te remettre en question. Il faut bien du courage à celui qui pense ou propose "une autre vérité". Face à cette situation, il y a 2 réactions possibles:

  • Soit tu rentre dans le rang, tu oublie ta pensée, met ton arrogance de côté, et tu rentre dans le cercle des camas, et tu auras une vie bien planqué.
  • Soit tu maintient ton propos, tu peaufines tes arguments, tu améliores ton propos, aiguisse tes arguments, et tu repart au combat. C'est un chemin plus difficile, mais bien plus honnorable.


BàT et Peace & Love.
3  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 28/09/2024 à 12:15
C'est marrant qu'il dise que son AGI va régler tous les grands problèmes de l'humanité alors que tous les experts du domaine semblent être d'accord sur un point: l'AGI serait probablement la fin de celle ci - une catastrophe à une échelle sans précédent et totalement imprévisible.

Ces entreprises jouent littéralement avec le feu en gaspillant énormément de ressources, ont des clowns fous et riches à leur tête, mais rien ne semble les arrêter.

C'est cool quand même, y avait pas assez du réchauffement climatique, de l'effondrement des espèces et de toutes ces autres bombes à retardement pour le futur.
3  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 29/09/2024 à 2:24
Tu demandais des explications relatif à l’impact des gaz à effet de serre, je l’ai fait. Tu demandais un niveau de preuve suffisant, j’ai essayé de le faire tant bien que mal en détaillant. Je ne sais pas si c’est la notion de forçage radiatif qui t’a perdu, mais c’est la notion clé qui permet de comprendre.

Ou peut-être souhaitais-tu prouver que c’est autre chose pour aller dans ton sens ?

Alors, oui, j’ai eu une approche globale, mais c’est assez logique avec le forçage radiatif. (En gros, si tu chauffe autant mais cela refroidi moins… et bien la température monte… c’est peut-être une explication simple, mais je suppose que tu attendais à un peu plus étoffé). C’est un peu comme pour le chauffage de la véranda: l’effet de serre provoque un échauffement global… inutile d’analyser les courants de convention pour avoir ce premier niveau d’information.

Maintenant tu veux une approche locale, mais pas de modélisation si j’ai bien compris. Je crois que cela va être difficile. Surtout que si l’on doit passer par tous les points du globe on n’a pas fini.

Si je ne suis pas aller assez loin, la page Wikipedia de la sensibilité climatique peut compléter ou cet article qui y est pointé. https://www.pik-potsdam.de/~stefan/P...dillo_2008.pdf on y trouve en haut de la p47 (la 14e du fichier PDF), 1/ que le forçage radiatif anthropique est capable à lui seul d’expliquer tout le réchauffement, 2/ il n’y a pas d’explication alternative sérieuse expliquant le réchauffement. Il est même écrit que les phénomènes naturels seuls auraient conduit à un refroidissement lors de la deuxième moitié du XXe siècle. NB: l’article évoque un modèle terrestre découpant la terre selon sa géographie ce qui permettait une prise en compte locale des phénomènes. Il me semble difficile d’obtenir des résultats chiffrés avec de vagues explications et sans ce type de modèle. Le modèle a été exécuté avec plusieurs valeurs pour les paramètres clés dans leur intervalle d’incertitude… cela limite le risque de partir sur de mauvaises hypothèses. Cela explique la fourchette pour les résultats.

Expliquer le réchauffement climatique récent avec des cycles de dizaines de millénaires me semble assez curieux.

Le ralentissement du Gulf Stream est peut-être local, mais il s’explique par le réchauffement qui lui est global. https://www.meteocontact.fr/actualite/gulf-stream-mais-que-se-passe-t-il-70434
3  0