IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le PDG de NVIDIA affirme que les ordinateurs réussiront tous les tests auxquels un humain peut se soumettre d'ici 2029
Et ravive le débat sur la possible mise au rebut des développeurs par l'IA

Le , par Patrick Ruiz

5PARTAGES

10  0 
ChatGPT a réussi à l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires US. Un internaute a proposé une compilation des réponses proposées par le chatbot après avoir souligné que l’intelligence artificielle a pris 32 points sur les 36 possibles. ChatGPT a en sus réussi l’examen de codage Google pour un ingénieur de niveau 3 avec un salaire de 183 000 $. Dans une récente sortie, le PDG de Nvidia affirme que, d’ici 2029, les ordinateurs réussiront tous les tests auxquels un être humain peut se soumettre. Le tableau est de nature à raviver le débat sur la possible mise au rebut des développeurs informatique humains en raison de la montée en puissance de l’intelligence artificielle.


En effet, ce sont des raisons pour lesquelles certains observateurs sont d’avis que les travailleurs de la filière du développement informatique sont menacés par l’IA. Emad Mostaque, PDG de Stability AI en fait partie et prédit qu’il n’y aura plus de programmeurs dans 5 ans.


« C’est un fait : 41 % de tout le code informatique sur GitHub est généré par une intelligence artificielle. ChatGPT est déjà capable de passer un examen de codage pour ingénieur de niveau 3 », souligne Emad Mostaque avant d’ajouter « qu’il n’y aura pas de programmeurs humains dans 5 ans. »

« J’ai demandé à GPT-4 de m’aider à produire du code pour une version 3D du jeu Asteroid, j’ai ensuite copié et collé le code qui a fonctionné d’un coup », ajoute-t-il. En fait, Emad Mostaque est d’avis que l’intelligence artificielle ouvre la porte à tous les individus désireux d’intervenir dans la filière du développement informatique : « Chacun de vous peut désormais être créatif. Chacun de vous peut désormais mettre sur pied des systèmes pour répondre aux besoins des gens. »


C’est un avis qui rejoint celui du propriétaire de la plateforme de distribution de jeux vidéo FRVR selon lequel « Tout le monde pourra créer des jeux vidéo » grâce à l’intelligence artificielle. Ce dernier propose une forge logicielle dénommée FRVR pour « permettre à quiconque de créer des jeux juste en les décrivant. »

« L’objectif est de mettre sur pied une plateforme où créer, jouer et partager des jeux est aussi facile que d'enregistrer, de regarder et de partager des vidéos sur des plateformes telles que TikTok et Instagram », ajoute-t-il. Une démonstration (d’une dizaine de minutes) des possibilités offertes par la plateforme est disponible. Elle montre les étapes de l’implémentation d’un jeu de tir spatial en s’appuyant sur ladite forge.


« L'idée selon laquelle l'IA ne va pas s’accaparer des emplois est ridicule. Tout d'abord, c'est déjà le cas. Les librairies et le commerce de détail ont tous été durement touchés par Amazon. Nous effectuons désormais nos recherches en ligne et non plus dans les bibliothèques, qui ont donc également été touchées. Les traitements de texte ont détruit les équipes de dactylographes et les tableurs, celles des comptables. Dans le domaine de la traduction, nous assistons déjà à la perte massive d'emplois chez Duolingo et dans toutes les grandes entreprises multilingues du monde. Les sociétés d'enseignement ont été les premières à constater les gains de productivité et ont licencié des milliers de personnes. L'idée qu'il n'y a pas eu ou qu'il n'y aura pas de remplacement d'emplois réels est absurde. C'est une belle phrase à lancer lors de conférences pour obtenir des applaudissements chaleureux, mais elle est dangereusement naïve. Les orateurs ont tendance à vouloir être aimés, plutôt que d'affronter l'inconfortable vérité économique selon laquelle les changements techniques majeurs entraînent TOUJOURS des pertes d'emplois », souligne Donald Clark.

Une récente étude débouche sur la conclusion selon laquelle l’intelligence artificielle générative ne les remplacera pas de sitôt

Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers modèles de grands langages (LLM).

Les chercheurs ont fourni à différents modèles de langage le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas.


Leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.

Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code. »

C’est la raison pour laquelle Linux Torvalds a tenu à se désolidariser de tout le battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose.


En fait, « le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'intelligence artificielle correspond bien à l'intention du développeur », comme le souligne le CEO de GitHub. Grosso modo, l’intelligence artificielle est à un stade d’évolution tel qu’elle ne saurait servir de raccourci à des personnes qui pensent ne plus avoir à faire usage de leur créativité ou de leur esprit critique.

Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

Source : Vidéo entretien CEO Nvidia

Et vous ?

Quelles évolutions du métier de développeur entrevoyez-vous dès 2024 au vu de l'adoption de l'intelligence artificielle dans la filière ? Quelles sont celles auxquelles vous assistez déjà du fait de la mise à contribution de l’intelligence artificielle ?

Voir aussi :

« ChatGPT est appelé à changer l'éducation telle que nous la connaissons, pas la détruire comme certains le pensent », affirme Douglas Heaven du MIT Technology Review

ChatGPT rédige désormais les dissertations des étudiants et l'enseignement supérieur est confronté à un grave problème, la détection des contenus générés par l'IA semble de plus en plus difficile

51 % des enseignants déclarent utiliser ChatGPT dans le cadre de leur travail, de même que 33 % des élèves, et affirment que l'outil a eu un impact positif sur leur enseignement et leur apprentissage

Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0 
Avatar de pboulanger
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 15:26
La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
des développeurs compétents.

Comment devient-on un développeur compétent?
En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
8  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 28/02/2024 à 13:18
Je serai à la retraite avant Java. Et avant Cobol aussi.
7  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 28/02/2024 à 11:26
Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
6  0 
Avatar de ONTAYG
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 11:45
Citation Envoyé par berceker united Voir le message
Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
Skynet
5  0 
Avatar de commandantFred
Membre averti https://www.developpez.com
Le 28/02/2024 à 22:06
L'IA ne va pas discuter avec un expert métier pour comprendre un problème en profondeur.
L'IA (neurones) commet des erreurs dont on sait qu'on ne peut pas les filtrer.
L'IA a besoin de prompts. Une courte phrase suffit pour résoudre un problème simple mais il faut des milliers de lignes de prompt pour décrire un logiciel complexe.

Y' a-t-il des IDE spéciales pour rédiger les prompts ?
1. C'est quasi impossible
2. Ca va à l'encontre du principal atout des IA qui consiste à comprendre le langage naturel.

A la fin de ce raisonnement, on finit par rendre le texte du prompt aussi déterministe qu'un langage de programmation. Mais dans ce cas, gagnons du temps et utilisons de vrais langages longuement améliorés au fil des décennies.

L'implémentation de prompts intelligents sur les IDE aurait son utilité.

Mais remplacer un humain, c'est de la SF

J'adore la SF, j'écris de la SF, la SF, c'est génial.

Mais, monsieur le CEO de NVidia, écrire un programme et écrire un roman, ce n'est pas la même chose.
5  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/04/2024 à 0:22
Le domaine de l'intelligence artificielle s'est creusé sur l'idée de faire des agents artificiels spécialisés variés et de les mettre ensemble pour faire un agent composite général. Cela n'a rien de loufoque à première vue, car c'est comme on fait des fonctions très spécialisées, qu'on combine ensuite pour faire des fonctions de plus haut niveau qui font des choses plus complexes.

Là où le bas blesse, c'est que même aujourd'hui, personne n'a créé la moindre fonction capable de faire tout et n'importe quoi. Et dans les faits, plus on monte en capacités diverses et variées, plus il faut introduire de "management". C'est le principe de "découper" la grosse brique monolithique en petits bouts (micro services) gérés de manière standardisée pour qu'on arrive à s'y retrouver (merci les ops). En bref, tout comme la fonction unique pouvant tout faire, l'IA générale comme combinaison d'IA spécifiques est un doux rêve théorique infaisable en pratique.

L'IA générale, qualifiée comme telle justement pour contrer cet aspect spécialisé, n'est cela dit pas un concept nouveau : il s'agit à la base d'une niche dans le domaine de l'IA, où on cherche justement à construire un agent non spécialisé. Par exemple l'intelligence pourrait être modélisée comme une capacité à maximiser les futurs possibles, quels qu'ils soient.

Ce qui se fait majoritairement dans le domaine de l'IA, à savoir de la performance spécialisée, c'est ce qu'on appelle de l'expertise (artificielle). Et je suis content de voir qu'on commence à s'en rendre compte avec des modèles comme Mixtral qui introduisent des concepts de "mixture of experts". Dans le temps on avait aussi ce qu'on appelait des systèmes experts (ça se fait encore mais ça n'est pas la tendance), mais le principe est d'incorporer dans la machine les connaissances d'un ou plusieurs experts, experts qu'on a cherché à mettre au placard avec les systèmes à apprentissage.

Aujourd'hui, le terme d'IA générale est sur le devant de la scène pour de mauvaises raisons : tout comme on fait l'amalgame entre intelligence et expertise depuis longtemps, on fait désormais l'amalgame entre IA générative et générale. Certes les systèmes actuels donnent l'impression de capacités générales, mais on voit vite que ce n'est pas le cas quand on joue un peu avec. Passé l'effet "wow !", on se rend vite compte qu'on a un générateur de texte sans cervelle : s'il a été entraîné sur les bonnes données, il régurgite ce qu'il a vu ailleurs (ce n'est pas pour rien que les procès liés à la propriété intellectuelle explosent), sinon il régurgite quelque chose en lien avec ce qu'on demande mais qui ressemble à ce qu'il a vu, quitte à générer des énormités. Énormités pour lesquelles il n'aura aucun mal à admettre ses erreurs (réponse cohérente dans un texte faisant état d'une erreur), mais sans pour autant les corriger si on recommence (réponse cohérente aussi : même garbage in, même garbage out).

Pour résumer, je suis d'accord que parler d'IA générale sur les technos d'aujourd'hui est un mensonge, mais au même titre que parler d'intelligence tout court l'est aussi depuis le début. Passé la frustration de la définition, c'est à prendre comme un buzzword marketing, et ça c'est la peine usuelle depuis que la publicité existe : faire passer des vessies pour des lanternes. C'est pourquoi on a les retours inverses que finalement on s'en fiche du terme employé, tant que ça sert (comprendre "tant que c'est bon pour le business"). La seule solution pérenne à ma connaissance est de développer son esprit critique pour ne pas tomber dans le panneau.
4  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 9:02
Citation Envoyé par marc.collin Voir le message
possible mais entretemps, c'est du code peu sécure et assez moyen

j'ai attendu ce discourt il y a plus de 18 ans de certaine entreprise qi propose des outils de no-code... on connait la suite

quand on regarde le taux de succès des projets informatiques selon le standish group via le chaos report c'est seulement autour de 30%...
a ma connaissance l’échec n'est jamais du au code.
il est du a la mauvaise expression du besoin par le client, de la mauvaise compréhension des taches ou encore du management qui a fait n'importe quoi (turn over, aucun budget...)

la mauvaise expression du besoin par le client avec la méthode agile, c'est normalement facilement rattrapable, avec une démo toute les 2-3 semaines on évite de trop s'égarer.

pour le management par contre c'est de pire en pire. les boites veulent payer le moins possible donc on se retrouve avec des équipes de juniors inexpérimenté et des jeunes sortie juste d'un boot camp. et ils sont censé faire un gros projet complexe.
pour ceux qui ont de l'ancienneté, les non augmentations des salariés, produisent des démissions et du turn over.
et enfin les boites qui veulent le moins possible embaucher font appelle a des ssii avec des résultats encore plus médiocre.

car dans les ssii c'est la même chose: salariés mal payé, donc profil les plus mauvais possible, les bons se casse à la 1ere occasion pour gagner plus. Donc si ton consultant est bon il va pas rester longtemps.

Enfin les stack technique sont devenus tellement vaste et énorme ! je fais du devops et je dois maitriser: linux, elasticsearch, kibana, grafana, prometheus, mongodb, helm, docker, kubernetes, ansible, terraform, jenkins, gitlab ci, l'environnement aws, azure, ServiceNow, Jira, confluence, python, molecule, fluentd, logstash, vault, ArgoCD... je dois surement en oublier.
c'est difficile de s'y retrouver et de bien maitriser toute une architecture. d'ou des instabilités et des pannes complexes a résoudre.
3  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/04/2024 à 10:32
Citation Envoyé par Patrick Ruiz Voir le message
Et vous ?

Quelle analyse faites-vous du positionnement de Dana Blankenhorn sur l'AGI ?
Je pense que son analyse est bonne. L'AI actuelle n'est qu'une supercherie médiatique pour vendre un produit. Produit que l'on a déjà sous une forme peu abordable pour le grand public. Mais, le "I" de IA, dans ce cas, n'a pas grand chose avec "Intelligence".
Citation Envoyé par Patrick Ruiz Voir le message
Partagez-vous l’avis selon lequel l’IA bénéficie de plus de battage médiatique qu’elle n’a de réelle substance ?
Tout à fait. Ça permet à des entreprises, comme OpenAI d'obtenir des financements sur du vent. C'est un phénomène connu, et généralement, ça fait pshiiit tôt ou tard, entrainant des pertes colossales (que le système fera payer aux plus pauvres, donc pas d'inquiétude)
Citation Envoyé par Patrick Ruiz Voir le message
ChatGPT et les autres célèbres modèles d’IA sont-ils à la hauteur de leur succès ou cela est-il simplement dû à la surmédiatisation ?
Bien sûr que c'est dû à la surmédiatisation. Le reste n'a que peu d'intérêt.
Citation Envoyé par Patrick Ruiz Voir le message
Que pensez-vous de l'AGI ? Sera-t-elle un jour une réalité ou restera-t-elle insaisissable pour toujours ?
Ça, je n'en sait rien. Mais je ne pense pas que je le connaitrai, et c'est tant mieux. Car, quoi qu'il arrive, ce sera toujours le pire que les hommes choisiront.
3  0