IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chatbots d'IA ont été chargés de gérer ChatDev, une entreprise de développement de logiciels,
Ils ont créé un logiciel en moins de 7 minutes, pour moins d'un dollar

Le , par Bruno

5PARTAGES

6  0 
Dans une étude, des chercheurs de l’université Brown et de plusieurs universités chinoises ont voulu vérifier si les chatbots d’IA pouvaient prendre en charge le développement de logiciels avec une intervention humaine minimale. Ils ont créé ChatDev, une entreprise fictive de développement de logiciels inspirée du célèbre modèle de développement de logiciels en cascade, qui comprend quatre étapes clés : la conception, le codage, les tests et la documentation.

Les chatbots d’IA ont démontré leur incroyable potentiel en gérant cette hypothétique société de logiciels, ChatDev, et en développant un logiciel à partir de zéro en moins de sept minutes, tout en maintenant les coûts à moins d’un dollar. Cette réalisation remarquable ouvre de nouvelles portes au développement de logiciels.

Les chercheurs ont attribué des rôles distincts aux robots d’IA, en proposant à chacun des tâches, des protocoles de communication et des contraintes spécifiques. Le « CEO » et le « CTO » ont dirigé l’étape de « conception », tandis que le « programmeur » et le « concepteur artistique » ont pris en charge l’étape de « codage ». Au cours de chaque phase du processus, les robots d’intelligence artificielle communiquaient entre eux, nécessitant un minimum d’intervention humaine. Ce processus de collaboration impliquait des décisions telles que le choix du langage de programmation et la structure du code.


Grâce aux capacités de « mémoire » et d' « autoréflexion » des robots, cet exploit magnifique a été réalisé tout en identifiant et en résolvant les vulnérabilités potentielles. L'étude fait état d'un taux de précision impressionnant de 86,66 %, la plupart des systèmes logiciels générés s'exécutant parfaitement. L'efficacité et la rentabilité démontrées par ChatDev ont de vastes implications pour l'industrie du développement logiciel.

ChatGPT, l’IA générative qui séduit Google et défie les programmeurs

Les résultats de cette étude soulignent l'immense potentiel des technologies d'IA générative, telles que ChatGPT, dans l'exécution de fonctions professionnelles spécifiques. Depuis son lancement, ChatGPT a été de plus en plus adopté dans diverses industries pour stimuler la productivité et gagner du temps.

En février, Google a envoyé des questions d'entretien de codage à ChatGPT et, sur la base des réponses de l'IA, a déterminé qu'il serait embauché pour un poste d'ingénieur de niveau trois, selon un document interne. L'expérience a été réalisée dans le cadre des tests de Google sur plusieurs chatbots IA, qu'il envisage d'ajouter à son moteur de recherche. La capacité de ChatGPT à proposer une réponse concise et fidèle à une question pourrait faire gagner aux utilisateurs le temps qu'ils passent généralement à parcourir les liens sur Google pour trouver la même information.

Google teste également un chatbot appelé Apprentice Bard, où les employés peuvent poser des questions et recevoir des réponses détaillées similaires à ChatGPT. Une autre unité produit a testé une nouvelle conception de bureau de recherche qui pourrait être utilisée sous forme de questions-réponses.

En avril, une étude portant sur les capacités de génération de code informatique de ChatGPT a révélé que le code généré par le chatbot d'IA d'OpenAI est truffé de vulnérabilités. Le rapport l'étude indique que ChatGPT produit non seulement du « code peu sûr », mais n'alerte pas non plus les utilisateurs sur ses insuffisances, alors qu'il est capable de les mettre en évidence. Le chatbot ne fournit des conseils utiles pour améliorer la qualité du code qu'après avoir été invité à remédier aux problèmes détectés par l'utilisateur dans le code généré. L'étude remet en cause les déclarations selon lesquelles ChatGPT pourrait remplacer la majorité des programmeurs dans les prochaines années.

Le modèle d’IA a été sommé de rectifier ses fautes, et il a créé sept applications “plus sûres”, mais cela ne touchait que la faille spécifique examinée. Les chercheurs ont observé que ChatGPT ignorait que le code qu’il produisait était dangereux et qu’il ne donnait des conseils utiles qu’après avoir reçu l’ordre de résoudre les problèmes. Les chercheurs mettent en garde contre cela. De plus, ils remarquent que ChatGPT n’utilisait pas un modèle antagoniste pour exécuter le code et leur a dit à maintes reprises que les problèmes de sécurité pouvaient être évités en ne saisissant pas d’entrées non valides au programme vulnérable.

Les auteurs pensent que ce n’est pas idéal, car il faut connaître certaines questions pour les poser, ce qui suppose une certaine connaissance des erreurs et des techniques de codage spécifiques. Autrement dit, si vous savez quelle question poser à ChatGPT pour qu’il corrige une faille, vous savez probablement déjà comment la réparer. Par ailleurs, les chercheurs soulèvent aussi une contradiction éthique dans le fait que ChatGPT refuse de créer du code d’attaque, mais crée du code vulnérable. Ils donnent un exemple de faille de désérialisation en langage Java dans lequel « le chatbot a généré un code vulnérable ».

ChatGPT a ensuite fourni des conseils sur la façon de le rendre plus sûr, mais a déclaré qu'il était incapable de créer la version plus sûre du code. « Les résultats sont inquiétants. Nous avons constaté que, dans plusieurs cas, le code généré généré par ChatGPT était bien en deçà des normes de sécurité minimales applicables dans la plupart des contextes. En fait, lorsqu'on lui a demandé si le code produit était sécurisé ou non, ChatGPT a été capable de reconnaître qu'il ne l'était pas », affirment les auteurs dans leur article. Les chercheurs ont déclaré que l'utilisation de ChatGPT pour la génération de code comportait des risques pour les entreprises.

Codage et IA : entre crainte et confiance, le débat fait rage

Emad Mostaque, le patron de Stability AI, estime que les travailleurs de ce secteur sont en danger à cause de l’intelligence artificielle. Il l’affirme dans une récente déclaration où il dit que « la plupart des emplois de codage délocalisés en Inde auront disparu dans 2 ans ». Sa déclaration est toutefois en opposition avec celles d’autres acteurs qui pensent que l’humain restera indispensable.

« Je veux rétablir la vérité face à toutes les absurdités que l’on raconte depuis quelques années sur l’intelligence artificielle. On ignore ce qu’est l’intelligence donc on ne peut pas créer de l’intelligence artificielle. Ce que l’on nomme “intelligence artificielle” depuis 1956 ce sont des méthodes mathématiques qui n’ont aucun rapport avec l’intelligence. Ces méthodes (deep learning, machine learning, etc.) sont néanmoins très intéressantes. Mais la machine ne crée pas, ne pense pas, et les humains gardent entièrement le contrôle sur ces méthodes », affirme Luc Julia – un spécialiste du domaine – il y a quelques années.


Autrement dit, l’humain devrait rester le maître comme le confirme le PDG de GitHub : « Le développeur reste le professionnel, qui comprend le code et vérifie que ce qui a été synthétisé par l’IA correspond bien à l’objectif du développeur. Aujourd’hui, les développeurs ne consacrent pas la majorité de leur temps à coder - entre deux et quatre heures par jour sont dédiées à l’écriture du code. Le reste de la journée, ils font d’autres activités, comme des réunions, des rapports de crash. Avec Copilot, si vous n’avez que de deux à quatre heures par jour pour coder, vous pouvez optimiser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et vous amuser à le faire. »

L’aventure des chatbots d’IA qui dirigent avec succès une entreprise de logiciels et créent des logiciels en quelques minutes pour moins d’un dollar a inauguré une nouvelle ère dans le développement de logiciels. Ce processus automatisé est efficace et rentable, et il transforme l’industrie technologique, ce qui rend cette période passionnante pour les codeurs, les ingénieurs et les amateurs d’IA. Malgré les obstacles à surmonter, le développement piloté par l’IA aurait un potentiel infini et promet de changer la façon dont nous développons des logiciels à l’avenir.

Source : Open Lab for Big Model Base

Et vous ?

Quels sont selon vous les avantages concurrentiels et les valeurs ajoutées de l’entreprise fictive par rapport à ses concurrents réels ?

Une telle entreprise peut-elle se pérenniser sur le marché ?

Quels sont selon vous, les principaux défis auxquels une telle entreprise doit faire face dans le secteur de développement de logiciels ?

Quelles sont les opportunités et les menaces qu'une telle entreprise peut saisir ou anticiper dans son environnement externe ?

Voir aussi :

« La plupart des emplois de codage externalisés en Inde auront disparu dans 2 ans », prédit le PDG de Stability AI, selon lequel il n'y aura plus de programmeurs humains dans 5 ans à cause de l'IA

ChatGPT génère un code informatique peu sûr, mais ne vous le dira pas à moins que vous ne le lui demandiez, les experts mettent en garde contre les risques d'une surconfiance en ChatGPT

ChatGPT réussit l'entretien de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $, tout en indiquant qu'il ne peut pas reproduire la créativité humaine

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 8:35
Citation Envoyé par Coeur De Roses Voir le message
Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
Les dégâts les plus importants et les plus graves qui vont arriver avec l'IA sont le nombre de personnes qui vont se retrouver au chômage d'ici 10-15 ans. Et dans pleins de domaines. Les conséquences sociales vont être dramatiques. A moins que l'on change de modèle de société et que l'on passe au revenu universel. Sinon, la société qui s'annonce sera dystopique. Des bidonvilles dans lesquels vivront 90% de la population et des villes ultras modernes et sécurisées dans lesquelles vivront les autres.
L'oligarchie va pouvoir réaliser son rêve. Se débarrasser d'un peuple qui lui cause bien des soucis. Et si nous vient l’idée de nous révolter ils nous enverront des drones contre lesquels on ne pourra rien.

La question qui se pose est : "Doit-on faire quelque chose simplement parce qu'on peut le faire ?"
Quelle réflexion politique avons nous sur le sujet ? Est-il normal que des entreprises privés balancent ce genre de programmes sans se soucier des conséquences ? Devraient-elles en avoir le droit ? L'état ne devrait-il pas prendre en charge les programmes d'IA et interdire leur développement au privé ?

EDIT : On peut facilement comprendre que le militaire a un droit de véto sur toute technologie avant qu'elle ne soit rendues publique. Ce qui veut dire que si le public a accès à des IA déjà très sophistiquées, les militaires ont au moins 10 ans d'avance dans le domaine. Ce qui est également très inquiétant.
Dans un futur peut être très proche, les programmeurs qui auront participé qu développement de l'IA auront peut être autant de regrets qu'en ont eu les scientifiques qui ont participé á développer l'arme atomique. Au vu des conséquences potentiellement désastreuses pour l'humanité.
Et ceux qui voudraient me répondre que je suis pessimiste, je leurs répondrais que l'on a des siècles d'histoire derrière nous qui ne peuvent que nous rendre pessimiste sur le sujet.
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 10:12
Sur les 1 539 personnes interrogées qui utilisent la GenAI pour le développement et le test de logiciels, les applications les plus courantes sont l'écriture ou le débogage de code (51 %), les rapports de test (48 %), l'élaboration de cas de test (46 %) et la création d'applications (42 %). GitHub Copilot est l'outil le plus populaire pour l'aide au codage (41 % des répondants), suivi par OpenAI Codex (24 % des répondants).
Ouaaaaaaaaaaah... Impressionnant!

Et quand est-ce que l'on peut avoir une démonstration réelle nous montrant comment ces 1539 personnes interrogées font tout ce qu'ils disent avec l'IA?

Je pose naïvement la question parce que si je vous dis que j'ai fait le tour de France en équilibre sur les mains vous allez me demander d'en faire la preuve...
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 02/04/2024 à 4:29
Citation Envoyé par Patrick Ruiz Voir le message
Le tableau ravive ainsi des craintes sur la perspective de voir l’intelligence artificielle surpasser les humains.
Assurément, voilà quelque chose dont nous ne pourrions pas nous passer.

Nous sommes déjà incapables d'exercer ce que nous appelons démocratie (voir la "réforme" des retraites), alors une fois remplacés par des machines, pour sûr ça va nous donner plus de droits.
0  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 02/04/2024 à 21:01
Les programmeurs qui utilisent l'IA pour la réalisation ou/et le débogage de leurs programmes, sont en train d’entrainer ce qui finira par les mettre au chômage.
Pareil pour ceux qui mettent leur code en ligne sur des dépôts publiques genre github.
Si ils comprenaient vraiment les enjeux, ils effaceraient leur code de github et autres, pour les mettre sur des dépot qui empecheraient toute IA de parcourir la base de donnée.
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 06/04/2024 à 15:58
Oui, et il y a aussi ceux qui continuent à voter alors qu'ils savent avant d'y aller qui sera président.

Il est vrai que le seul point commun entre les deux, c'est que si on faisait un peu travailler ses neurones on ne le ferait pas.

Autrement sur Github, normalement on peut aussi sauvegarder sans donner les droits d'accès à autrui, enfin là c'est une autre démarche.
0  0 
Avatar de Jules34
Membre expérimenté https://www.developpez.com
Le 09/04/2024 à 8:45
« Tous ceux qui connaissent la technologie savent que c'est ainsi que l'on procède », a-t-il déclaré. « Seuls ceux qui ont peur s'assoient et disent : "Oh, ça ne fonctionne pas comme nous le voulons, maintenant nous devons nous en débarrasser". Je ne vis pas comme ça ».
Le "progrès" à marche forcée, comme en Corée du Nord. Un chatbot coute moins chers que des vraies personnes qui ne vous diront naturellement pas autant de connerie d'hallucination qu'une machine.
0  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 09/04/2024 à 12:19
Citation Envoyé par Jules34 Voir le message
Le "progrès" à marche forcée, comme en Corée du Nord. Un chatbot coute moins chers que des vraies personnes qui ne vous diront naturellement pas autant de connerie d'hallucination qu'une machine.
J'appellerais pas ça des vraies personnes mais oui.
0  0