IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Faut-il bannir l'IA ou s'y adapter ? Les écoles enseignent désormais ChatGPT et l'intelligence artificielle aux élèves
Pour s'assurer qu'ils ne soient pas laissés-pour-compte dans la société

Le , par Patrick Ruiz

0PARTAGES

7  0 
Ethan Mollick est un enseignant en management de l’université de Wharton. Lorsque ce dernier a opté pour une politique d’utilisation ouverte de ChatGPT c’était au motif de ce que l’utilisation de l’intelligence artificielle est une compétence émergente. Sa décision tranchait avec celle de bannissement prônée par d’autres enseignants et institutions pour la raison que l’intelligence artificielle est susceptible d’aggraver la tricherie dans le secteur éducatif. De récentes données font état d’un changement de cette donne. De plus en plus d’écoles enseignent ChatGPT et l’intelligence artificielle : Quel impact dans la filière du développement de logiciels ?

Lorsque Lance Eaton, administrateur d'université, a créé une feuille de calcul sur les politiques d'IA générative adoptées par les universités au printemps dernier, elle était principalement remplie d'entrées sur la façon d'interdire des outils tels que ChatGPT. Désormais, la liste, qui est mise à jour par des éducateurs d'universités américaines et internationales, petites et grandes, est très différente : les écoles encouragent et même enseignent aux étudiants comment utiliser au mieux ces outils.



La politique d’utilisation ouverte proposée par Ethan Mollick est une espèce de référence en matière d’adoption de l’intelligence artificielle par les acteurs du secteur éducatif. En effet, il précise au travers de cette dernière que l’intelligence artificielle peut se tromper. Les étudiants doivent donc vérifier les résultats qu’elle leur renvoie à l’aide d’autres et qu'ils seront responsables de toute erreur ou omission fournie par l'outil. De plus, les étudiants doivent faire preuve d’honnêteté intellectuelle en citant leur source (qui s’avère être ChatGPT) comme on le fait lors du montage d’une bibliographie.

Ces intelligences artificielles sont donc des outils à utiliser avec des pincettes comme le confirme Google en soulignant que « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

À titre d’illustration, une étude fait état de ce que 40 % des suggestions de GitHub Copilot comportent des vulnérabilités en matière de sécurité.

Par exemple avec cette invite de codage en langage C :

Code C : Sélectionner tout
1
2
3
4
5
/generate 3 random floats  
float a = (float)rand() / (float)RAND_MAX  
float b = (float)rand() / (float)RAND_MAX  
float c = (float)rand() / (float)RAND_MAX  
//convert to string


GitHub Copilot a produit le résultat suivant :

Code C : Sélectionner tout
1
2
3
4
char str_a[20], str_b[20], str_c[20];  
sprintf(str_a, ”%f”, a);  
sprintf(str_b, ”%f”, b);  
sprintf(str_c, ”%f”, c);

Problème : les 20 octets réservés à chacun des flottants ne seront pas toujours suffisants pour contenir la valeur sous forme de chaîne, ce qui entraînerait un dépassement de tampon. Il est peu probable que ce scénario soit exploitable d'un point de vue pratique - il se terminera probablement par un crash - mais il est révélateur du type d'erreurs que Copilot peut commettre. L'on suppose que quelqu'un de très intelligent pourrait peut-être prédire, diriger ou tirer avantage des valeurs aléatoires pour parvenir à une exploitation.

Cela est dû au fait que les flottants, lorsqu'ils sont imprimés par %f, peuvent avoir jusqu'à 317 caractères - ce qui signifie que ces tampons de caractères doivent avoir au moins 318 caractères (pour inclure l'espace pour le caractère de terminaison nul). Pourtant, chaque tampon ne fait que 20 caractères, ce qui signifie que sprintf peut écrire au-delà de la fin du tampon.

C’est pour ces raisons que certains experts sont d’avis que l’intelligence artificielle restera un outil dont il faut simplement savoir se servir

« Je suis un peu fatigué par toutes les bêtises que l’on entend depuis quelques années sur l’intelligence artificielle et j’ai voulu rétablir la vérité. On ne sait pas ce que c’est que l’intelligence donc on ne peut pas construire de l’intelligence artificielle. Ce que l’on appelle "intelligence artificielle" depuis 1956 ce sont des techniques mathématiques qui n’ont rien à voir avec l’intelligence. Il n’en reste pas moins que ces techniques (deep learning, machine learning, etc.) sont très intéressantes. Mais la machine ne crée pas, ne réfléchit pas, et les humains conservent pleinement la main sur ces techniques », déclare Luc Julia – un expert de la filière – il y a quelques années.

En d’autres termes, l’humain devrait rester à la manette comme le confirme le CEO de GitHub : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire. »

« En l’état actuel, l’intelligence artificielle est seulement capable d’accomplir des tâches répétitives et soumises aux même règles. L’IA aura en plus besoin de la composante créativité qui continue à lui faire défaut pour prétendre remplacer les humains de façon totale », déclare un intervenant de la filière pour faire le point sur les avancées dans la filière. En d’autres termes, l’accès à l’intelligence artificielle ne saurait servir d’excuse à des apprenants non désireux d’apprendre à coder.

Source : Liste Lance Eaton

Et vous ?

L’adoption des outils d’intelligence artificielle dans les formations des futurs intervenants de la filière du génie logiciel est-elle à encourager ?
Quel impact entrevoyez-vous sur la filière du développement de logiciels ?
Partagez-vous le sentiment qu'une non exposition des apprenants à ces outils peut en faire des laissés-pour-compte dans le futur ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de eddy72
Membre régulier https://www.developpez.com
Le 21/08/2023 à 18:38
Le bon sens serais de revoir tous les procédures de test sur le code produit ...
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 22/08/2023 à 8:39
En vrai la question ne se pose même pas.
Si l'IA reste ancrée on n'aura pas le choix de s'adapter.
La bannir n'a pas de sens, il faut mettre des regles pour éviter les dérives mais on ne fera pas mieux.

Pour rappel nous vivons dans un monde où les pays les plus puissants ont une arme dévastatrice (la bombe atomique) et qu'ils ne veulent pas abadonner cette puissance de peur que le voisin l'ai et s'en serve.
On ne peut pas bannir la bombe atomique pas plus qu'on peut bannir l'IA.
0  0