IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité
Qui pourrait être confrontée à son plus grand et son plus proche péril existentiel

Le , par Bruno

21PARTAGES

5  0 
Une étude utilise des modèles économiques pour estimer la date d’arrivée de l’intelligence artificielle de niveau humain (AGI), c’est-à-dire une intelligence artificielle capable de réaliser toutes les tâches intellectuelles humaines. Selon cette étude, la date moyenne prévue pour l’AGI est 2041, avec une fourchette probable de 2032 à 2048, et une date la plus proche possible de 2028. L’étude souligne que l’AGI représente un risque existentiel imminent pour l’humanité, qui pourrait survenir avant les effets du réchauffement climatique.

L’étude retrace également l’évolution historique de la recherche et de la technologie en informatique et en intelligence artificielle, en mettant en évidence les progrès récents dans les systèmes de langage génératif et les avertissements des experts sur les dangers potentiels de l’AGI. L’AGI désigne un type de système d’IA capable de réaliser toutes les tâches intellectuelles d’un être humain. Autrement dit, l’AGI a une compréhension générale du monde et peut s’adapter à de nouvelles situations et environnements, tout comme le ferait un être humain.


L’IA se rapproche plus vite que prévu des capacités humaines. Les progrès rapides de l’IA dans des domaines comme le traitement du langage naturel (NLP) ont relancé le débat sur ce concept qui serait pour certains observateurs largement spéculatif. ChatGPT est une innovation majeure dans le domaine du traitement du langage naturel. Ce modèle de génération de langage à la pointe de la technologie a déjà démontré son efficacité dans divers secteurs. L’évolution rapide de l’IA ces derniers mois montre que l’ère de l’IA est déjà là. De nombreuses entreprises technologiques, comme Baidu et Google BARD, travaillent déjà sur leurs propres modèles concurrents pour ChatGPT.


Toutefois, il faut souligner que ce que nous avons accompli jusqu’à présent est une forme d’intelligence artificielle étroite (ANI). Ces systèmes d’IA sont conçus pour réaliser des tâches spécifiques, comme la reconnaissance d’images ou le jeu d’échecs, mais ils n’ont pas la compréhension générale du monde qu’aurait une intelligence artificielle générale.

Selon les chercheurs, le prochain quart de siècle jusqu'au milieu du XXIe siècle verra probablement l'arrivée de l'AGI et de tous les défis et risques qu'elle peut apporter à l'humanité, y compris des changements existentiels et catastrophiques, auxquels les générations actuelles, et pas seulement futures, devront faire face et qu'elles devront gérer.

L’AGI, une réalité proche et incertaine

L'étude appuie donc les alertes récentes sur les dangers existentiels à l’horizon 2023 émises par les principaux acteurs de la technologie de l’IA, tels que Hinton, Hassibis et Bengio. Par contre, elle ne va pas dans le sens des philosophes qui minimisent ou détournent les accusations de risque existentiel de l’IA, et qui se heurtent à des obstacles insurmontables dans les questions abstraites, comme celle de la conscience de l’IA.

Selon le PDG de Google Deepmind, « Il est possible d’atteindre une forme d’intelligence artificielle au niveau humain dans une décennie », ce qui donnerait aux machines un « sens commun. » À ce stade d’intelligence artificielle générale, elles seraient capables de raisonnement causal, c’est-à-dire de cette aptitude à réfléchir sur « la raison pour laquelle les choses se passent. »

En attendant d’y arriver, le PDG de Google Deepmind préconise de développer les systèmes d’intelligence artificielle de manière responsable pour une transition en douceur. « Je suis favorable à ce que nous continuions à travailler sur des systèmes d’IA à utiliser comme des outils pour nous aider à mieux les comprendre avant de passer à un autre niveau », admet-il en ajoutant que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »

Pour Masayoshi Son, PDG de SoftBan, l'intelligence générale artificielle verrait le jour d'ici 10 ans. S'exprimant lors de la conférence d'entreprise SoftBank World, il a déclaré : « Il est faux de dire que l'IA ne peut pas être plus intelligente que l'homme, car elle est créée par l'homme. L'IA est désormais capable de s'auto-apprendre, de s'auto-former et de s'auto-inférencer, tout comme les êtres humains. »

Depuis quelques années, Son évoque le potentiel de l'AGI - en utilisant généralement le terme "singularité" - pour transformer les entreprises et la société, mais c'est la première fois qu'il donne un calendrier pour son développement.

Comme la date d'arrivée de l'AGI est estimée, selon l’étude, à un quart de siècle ou au milieu du XXIe siècle, il est presque certain qu'elle se produira avant que l'urgence du réchauffement planétaire ne prenne effet. Et comme l'AGI pourrait comporter un risque existentiel pour l'homme, on peut en conclure et en déduire que l'AGI est probablement le risque existentiel potentiel le plus important et le plus imminent pour l'humanité, et qu'il convient donc de s'en préoccuper de toute urgence et à l'échelle mondiale dès à présent. Une hypothèse initiale prudente pourrait donc être que nous nous trouvons actuellement quelque part entre 5 % et 30 % du chemin à parcourir pour passer de l'absence d'AGI à l'AGI complète.

Un chemin semé d’innovations et de dangers

La question suivante est de savoir à quelle vitesse nous avançons, année après année, sur ce chemin vers l’AGI. Il est évident qu’il y a eu une longue période dans l’histoire de l’humanité, disons de 500 000 ans à 1900, où l’on pourrait dire qu’il n’y a pas eu d’avancée mécanique vers l’AGI, même si des découvertes importantes en physique et en mathématiques ont été faites, surtout vers la fin de cette période, qui forment la base conceptuelle du développement de l’AGI.

De même, de 1900 à 1960, par exemple, avec l’apparition des premiers transistors électroniques, il y a eu plus de recherche fondamentale sur la théorie de l’AGI, la théorie de l’informatique s’est développée et les premiers grands ordinateurs centraux ont été construits. La période de 1960 à 2000 a connu d’immenses progrès dans la technologie des puces d’ordinateur et le développement des puces graphiques, des PC et des serveurs.

C'est pour quand ? Prédire la date d'arrivée prévue de l'AGI


La période 2000-2020 a été marquée par l’explosion des technologies de l’information, des télécommunications et des réseaux sociaux, ainsi que par la connexion de tous les habitants de la planète. La période de 2020 à 2023+, malgré la crise du Covid, a vu l’apparition publique de systèmes d’IA générative à grand modèle de langage LLM, tels que : ChatGPT, GPT4, Bard et, au premier semestre 2023, des alertes de la part des principaux scientifiques qui ont créé ces systèmes, d’un risque existentiel possible si le développement non régulé continue.

L’intelligence, l’IA et l’AGI : une tentative de définition et de compréhension

Il existe une littérature riche et continue qui essaie de proposer des définitions plus formelles et plus complètes de l’intelligence, de l’IA et de l’AGI, mais aucune d’elles n’est sans problèmes ou controverses. Par exemple, Legg et Hutter proposent une définition de l’AGI centrée sur les objectifs : l’intelligence mesure la capacité d’un agent à atteindre des objectifs dans une grande variété d’environnements.

Cependant, cette définition n’englobe pas forcément tout le spectre de l’intelligence, car elle exclut les systèmes passifs ou réactifs qui peuvent accomplir des tâches complexes ou répondre à des questions sans motivation ou objectif intrinsèque. On pourrait imaginer une AGI, un oracle brillant par exemple, qui n’a pas d’agence ni de préférences, mais qui peut fournir des informations précises et utiles sur n’importe quel domaine.

De plus, la définition de la réalisation d’objectifs dans une grande variété d’environnements implique aussi un certain degré d’universalité ou d’optimalité, qui n’est peut-être pas réaliste (l’intelligence humaine n’est certainement jamais universelle ni optimale). La nécessité de reconnaître l’importance du contexte (par opposition à l’universalité) a été soulignée dans la définition proposée par Cholletin, qui centre l’intelligence sur l’efficacité de l’acquisition des compétences ou, en d’autres termes, met l’accent sur l’apprentissage par l’expérience (qui s’avère également être l’une des principales faiblesses des LLM).

Il n’y a pas de définition de l’intelligence qui fasse l’unanimité, mais un aspect largement admis est que l’intelligence ne se limite pas à un domaine ou à une tâche spécifique, mais qu’elle couvre plutôt un large éventail de compétences cognitives et d’aptitudes. Dans leurs premiers écrits, les fondateurs du domaine moderne de la recherche sur l’intelligence artificielle (IA) ont parlé d’objectifs ambitieux pour comprendre l’intelligence.

Au fil des décennies, les chercheurs en IA ont étudié les principes de l’intelligence, y compris les mécanismes généralisables de raisonnement et la construction de bases de connaissances contenant un large corpus de connaissances de bon sens. Cependant, beaucoup des succès récents de la recherche en IA peuvent être décrits comme étant étroitement focalisés sur des tâches et des défis bien définis, tels que le jeu du Chorus ou du Go, qui ont été maîtrisés par des systèmes d’IA en 1996 et 2016, respectivement.


La singularité de l’IA fait référence à un futur hypothétique où l’intelligence artificielle dépasse l’intelligence humaine et évolue potentiellement hors du contrôle humain. Elle est souvent associée à des scénarios dans lesquels les machines deviennent conscientes d’elles-mêmes et constituent une menace pour l’humanité. Cependant, tous les experts ne croient pas que l’AGI conduira à la singularité, et certains pensent que le développement de l’AGI pourrait ne jamais se produire. Jusqu’à présent, l’AGI reste un élément fondamental de la science-fiction, comme en témoignent les films hollywoodiens de science-fiction dystopique.

Les checheurs présentent les hypothèses de base qui sous-tendent l’analyse, qui consiste à utiliser des modèles économiques pour estimer la date d’arrivée de l’intelligence générale artificielle. Ces hypothèses sont basées sur l’extrapolation et le raisonnement inductif à partir des connaissances actuelles, et impliquent que l’AGI se produira dans un nombre fini d’années à partir de maintenant, qu’elle sera observable et connue a posteriori. Cette distribution peut être utilisée pour produire une estimation de la trajectoire de croissance plausible attendue et une distribution des limites attendues de l’AGI, ainsi qu’une estimation de l’évolution plausible vers l’AGI à 50 %, dans l’hypothèse supplémentaire d’un choc mondial majeur (mais inférieur au niveau de l’Armageddon).

S’il est vrai que l’analyse des chercheurs sur la date d’arrivée de l’intelligence générale artificielle est intéressante et originale, il n’en est pas moins vrai que la conclusion des chercheurs présente également quelques limites et faiblesses, qui pourraient être améliorées ou discutées. Par exemple :

  • la conclusion ne précise pas comment les modèles économiques sont construits, ni quels sont les paramètres et les données utilisés pour les calibrer. Il serait utile de fournir plus de détails sur la méthodologie employée et sur la robustesse des résultats obtenus ;
  • elle ne tient pas compte des aspects éthiques, sociaux et politiques liés au développement de l’AGI, qui pourraient avoir un impact significatif sur la date d’arrivée et sur les conséquences de l’AGI ;
  • les chercheurs ne mentionne pas les incertitudes et les risques associés aux hypothèses de base, qui pourraient être remises en question ou invalidées par des événements imprévus ou des découvertes scientifiques.

Source : St Cross College - University of Oxford

Et vous ?

L'analyse des chercheurs est-elle pertinente ?

Quels sont selon vous, les facteurs qui peuvent influencer ou modifier la trajectoire de développement de l’AGI ?

Pensez-vous que ces facteurs sont correctement pris en compte ou intégrés dans les scénarios de croissance plausibles ?

Quels sont les impacts potentiels de l’AGI sur la société, l’économie, l’environnement, la culture, l’éthique ? Comment ces impacts peuvent-ils être anticipés, évalués, régulés ou atténués ?

À votre avis, quels sont les risques et les incertitudes associés aux hypothèses de base de l’analyse ? Comment ces risques et ces incertitudes peuvent-ils être quantifiés, réduits ou gérés ?

Voir aussi :

L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue, testée et annoncée publiquement d'ici 2040

« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 29/11/2023 à 19:41
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
10  0 
Avatar de vmagnin
Membre éprouvé https://www.developpez.com
Le 29/11/2023 à 21:07
Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
(Pensées diverses IV - 6/23)

A relayer ad libitum...
10  0 
Avatar de Seb_de_lille
Membre habitué https://www.developpez.com
Le 01/12/2023 à 9:27
Tout a fait d'accord.

Le battage médiatique autour de l'IA commence vraiment à faire ch... . Ca ressemble à ce qu'on a déjà eu précédemment sur le metavers, les NFT, les blockchains, etc.
Et Developpez.com participe à ce battage puisqu'on ne peut pas passer une journée sans avoir un article au sujet de l'IA. Un peu de recul me semble nécessaire, voir indispensable.
9  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/10/2023 à 8:19
Une étude utilise des modèles économiques pour estimer la date d’arrivée de l’intelligence artificielle de niveau humain
Ça dépend de l'humain pris en modèle. Tu prends G. Darmanin, ma calculatrice à déjà largement le niveau (et elle date de 1982)
8  0 
Avatar de rsuinux
Membre habitué https://www.developpez.com
Le 29/11/2023 à 20:02
Citation Envoyé par kain_tn Voir le message
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
D'accord avec vous.
Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
8  0 
Avatar de pboulanger
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 15:26
La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
des développeurs compétents.

Comment devient-on un développeur compétent?
En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
8  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 28/02/2024 à 13:18
Je serai à la retraite avant Java. Et avant Cobol aussi.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/05/2024 à 0:45
7  0