IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI déclare la course à l'IA « terminée » si l'entraînement sur des œuvres protégées par le droit d'auteur n'est pas considéré comme une utilisation équitable,
Ajoutant que les États-Unis seraient perdants

Le , par Mathis Lucas

0PARTAGES

8  0 
L'IA : une menace pour les postes des développeurs informatique humains dans les années à venir ?
C’est ce que suggère la page deathbyai.com qui liste en sus d’autres métiers comme la médecine

Le site deathbyai.com, à la manière de gcemetery.co – connu comme le cimetière des projets de Google, dresse une liste de métiers menacés par la montée en puissance de l’intelligence artificielle et le métier de programmeur informatique en fait partie. Pure spéculation ? Le fait est que les grandes enseignes technologiques semblent s’être lancées dans une révolution de la filière du génie logiciel. Microsoft a fait le premier pas avec GitHub et Copilot, son intelligence artificielle de suggestion de blocs de code. Google veut semble-t-il aller encore plus loin avec un projet secret qui cherche à créer un code capable de s'écrire, de se corriger et de se mettre à jour tout seul. L'initiative s'appuie sur les avancées en matière d'intelligence artificielle. Elle ravive le débat sur la possible disparition d'informaticiens humains à l'avenir.


L'initiative de Google baptisée AI Developer Assistance fait partie des paris de Google dans le domaine de l'intelligence artificielle générative. Les détails du fonctionnement de cet outil à but révolutionnaire restent un mystère. Cependant, certains qui ont été mis en lumière dressent un tableau très intéressant de ce que l'on peut attendre de ce projet. Pitchfork, ou AI Developer Assistance, est en soi un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même.

Comment ? En apprenant des styles correspondant à des langages de programmation, et en appliquant ces connaissances pour écrire de nouvelles lignes de code. L’intention initiale derrière ce projet était de de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs.

Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.

Les responsables de Google doivent résoudre plusieurs problèmes avant de le montrer au public. Au-delà des aspects techniques qu’il reste encore à couvrir, le plan juridique et le plan éthique ne seront pas en reste. En effet, la firme californienne a été au centre de la scène à mi-parcours de l’année dans l'affaire de l'ingénieur licencié pour avoir déclaré que LaMDA, son modèle d'intelligence artificielle pour les conversations en langage naturel, avait montré des signes de sensibilité similaires à ceux d’un humain.

L’initiative Pitchfork ravive le débat sur la future disparition des développeurs. En effet, lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Les retours sur le débat s’accumulent et certains laissent filtrer que l’intelligence artificielle générale pourrait nous tomber dessus dans 5 à 10 ans.



Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Des intiatives comme Pitchfork se trouveraient alors en pôle position pour provoquer une mise au garage des informaticiens humains.

En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle continue à faire montre de tares qui indiquent que la mise au rebut des programmeurs humains n’est pas pour demain. GitHub Copilot par exemple est critiqué par la communauté du logiciel open source pour sa reproduction aveugle des blocs de code. De facon plus précise, cette intelligence artificielle produit du code en s’appuyant sur du contenu protégé par le droit d’auteur.



Des informaticiens de l'Université de Stanford ont découvert que les développeurs qui acceptent l'aide d'outils d'IA comme Github Copilot produisent un code moins sécurisé que ceux qui ne les utilisent pas. Dans un article intitulé « Les utilisateurs écrivent-ils plus de code non sécurisé avec des assistants IA ? », les experts de Stanford Neil Perry, Megha Srivastava, Deepak Kumar et Dan Boneh répondent à cette question par l'affirmative. Pire encore, ils ont constaté que l'aide de l'IA avait tendance à tromper les développeurs sur la qualité de leur production.

Source : deathbyai.com

Et vous ?

Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?
Que vous suggère la possibilité que la recherche aboutisse à l’intelligence artificielle générale dans 5 à 10 ans ?
Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
Vous avez lu gratuitement 1 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre émérite https://www.developpez.com
Le 14/03/2025 à 10:31
L'art de vouloir le beurre , l'argent du beurre et la crémière, le tout en tuant la poule aux œufs d'or

Tout ceci ne fait que montrer que l'IA n'a pas de valeur, seuls ceux qui créent la donnée produisent de la valeur.

Pourquoi n'évoque t-il pas le fait logique et simple de rémunérer les créateurs de valeur ?
6  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 14/03/2025 à 15:04
Citation Envoyé par Artaeus Voir le message
[...] les ayants droits [...]
oui les ayants droits

Citation Envoyé par Artaeus Voir le message
J'ai beaucoup de mal avec cette idée que les ayants droits doivent toujours toucher de l'argent pour un entrainement d'IA ...

L'IA est un simple réseau de neurone qui ne reproduit pas l'oeuvre, tout comme un être humain peu s'inspirer d'un film/livre.
A-t-on payer un "droit" quand les robots ont remplacé les caissières ou les ouvriers ? Ont-ils eut la moindre compensation ? Pourquoi les artistes (en vrai, les ayants-droits) auraient ce privilèges ?

A la rigueur, l'IA devrait payer une fois l'oeuvre comme un humain, et c'est tout, pour éviter que les ayants-droits aient encore une rente supplémentaire.
L'IA ne reproduit pas l'oeuvre mais elle fait du beurre grace à l'oeuvre et dans ce cas précis elle met en difficulté l'auteur qui ne peut plus se rémunérer.

Un exemple pour aider à comprendre : les films. Qui produirait des films s'il fallait dépenser des millions pour les faire et ne jamais rien toucher en retour ?

Pour la caissière c'est malheureux et la remplacer par un robot une vraie ânerie sociétale, mais son sujet a absolument rien à voir avec le problème du droit d'auteur.

Et ça ne concerne pas que les artistes, ça concerne tous ceux qui produisent du contenu de valeur. S'ils ne peuvent plus se rémunérer (= vivre) ils font comment ?
2  0 
Avatar de ec
Membre confirmé https://www.developpez.com
Le 14/03/2025 à 11:10
La problématique de l'IA montre que l'IA procède comme un super lecteur, sans citer ses sources.
Un lecteur normal s'abonne à une bibliothèque de sa commune ou achète ses livres en librairie ou achète des photos et vidéos dans une médiathèque. A ma connaissance les bibliothèques ne payent pas de droits d'auteur à chaque prêts de livre (mais je me trompe peut-être ?).
En fait, l'utilisateur d'IA ou de bibliothèques est complice de ce préjudice. Donc un abonnement à l'IA devrait consister en financement de l'IA et des droits d'auteurs que l'IA devrait reverser. A supposer qu'un bon lecteur dépense 1200 € de livres par an, dont (je ne sais pas un certain pourcentage de droits d'auteurs, mettons 20%, mais il semble que ce soit plus faible).... cela donne une idée de ce que devrait couter un abonnement à l'IA : 240 € par an plus l'abonnement actuel.
0  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 14/03/2025 à 16:28
Effectivement, les questions sous-jacentes sont à quel point l’IA en «*s’inspirant*» des œuvres nuirait à la production artistique et en conséquence est-ce que l’autorisation conduit à un bon compromis pour la société qui profite d’une variété d’œuvres.

Lorsque le système de brevet a été mis au point, il résultait du compromis «*permettre, et même faciliter la concurrence sur le long terme » (d’où la nécessité de publier), mais aussi «*assurer un retour sur investissement incitant à l’innovation*» (d’où une exclusivité limitée dans le temps). Le système n’est pas parfait, loin de là, mais est sensé être un compromis entre des droits trop ou pas assez ouvert. Je pense qu’il faut réfléchir au sujet de l’IA et l’usage des œuvres protégées dans le même état d’esprit.
0  0 
Avatar de Artaeus
Nouveau Candidat au Club https://www.developpez.com
Le 14/03/2025 à 14:21
J'ai beaucoup de mal avec cette idée que les ayants droits doivent toujours toucher de l'argent pour un entrainement d'IA ...

L'IA est un simple réseau de neurone qui ne reproduit pas l'oeuvre, tout comme un être humain peu s'inspirer d'un film/livre.
A-t-on payer un "droit" quand les robots ont remplacé les caissières ou les ouvriers ? Ont-ils eut la moindre compensation ? Pourquoi les artistes (en vrai, les ayants-droits) auraient ce privilèges ?

A la rigueur, l'IA devrait payer une fois l'oeuvre comme un humain, et c'est tout, pour éviter que les ayants-droits aient encore une rente supplémentaire.
0  2