IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint»,
Selon des chercheurs

Le , par Bruno

10PARTAGES

4  0 
Alors que le PDG de Google Deepmind a déclaré que l’atteinte de l’intelligence artificielle de niveau humain ne serait possible que dans une décennie, les chercheurs Blaise Agüera y Arcas et Peter Norvig tentent de démontrer que l’intelligence artificielle générale (AGI) est déjà présente. Dans un essai publié par l’Institut Berggruen, Blaise Agüera y Arcas, vice-président et membre de Google Research, qui dirige une organisation travaillant sur la recherche fondamentale, le développement de produits et l’infrastructure pour l’IA, et Peter Norvig, informaticien et chercheur en éducation à l’Institut de Stanford pour l’IA centrée sur l’homme, soutiennent que les modèles d’IA les plus avancés d’aujourd’hui présentent de nombreux défauts. Cependant, ils estiment qu’il faudra plusieurs décennies avant que ces modèles ne soient reconnus comme les premiers véritables exemples d’intelligence générale artificielle.

Les modèles d’IA les plus avancés d’aujourd’hui, tels que ChatGPT, Bard, LLaMA et Claude, sont considérés comme des modèles d’avant-garde qui présentent de nombreux défauts. Cependant, ils ont déjà franchi un seuil que les générations précédentes d’IA et de systèmes d’apprentissage profond supervisé n’ont jamais réussi à atteindre. Ils sont performants même dans des nouvelles tâches pour lesquelles ils n’ont pas été formés. Dans plusieurs décennies, ils seront reconnus comme les premiers véritables exemples d’intelligence générale artificielle (AGI), tout comme l’ENIAC de 1945 est aujourd’hui reconnu comme le premier véritable ordinateur électronique à usage général. Les ordinateurs d’aujourd’hui dépassent de loin la vitesse, la mémoire, la fiabilité et la facilité d’utilisation de l’ENIAC, et de la même manière, l’IA de demain améliorera celle d’aujourd’hui.


Une étude menée par l’Université de Stanford a révélé que l’utilisation de l’AGIa peut augmenter la productivité des travailleurs de 14 %. L’étude a examiné l’impact de divers outils basés sur l’AI, tels que ChatGPT, CodeGPT et WriteGPT, sur la performance des employés dans différents domaines.

Les chercheurs ont constaté que ces outils peuvent aider les travailleurs à accomplir des tâches plus rapidement, à améliorer la qualité de leur travail et à stimuler leur créativité. L’étude a également identifié les défis et les risques liés à l’utilisation de l’AI générative, tels que les questions éthiques, juridiques et de sécurité. Les auteurs de l’étude recommandent aux entreprises d’adopter une approche prudente et responsable lors de l’intégration de ces outils dans leurs processus de travail.

L’étude a été menée par des chercheurs de Stanford et du MIT sur l’impact des outils d’intelligence artificielle générative sur la productivité des travailleurs dans une entreprise de logiciels. Il s’agit de la première étude du genre à mesurer l’effet de ces outils dans un contexte réel de travail.

Qu'est-ce que l'intelligence artificielle générale ?

L’IA créative et générative est une technologie qui permet aux machines d’apprendre les propriétés et les modèles des données pour créer du contenu et effectuer des tâches créatives qui nécessitaient auparavant l’intervention humaine, comme la génération de textes, d’images, de vidéos, de musique, etc. Elle utilise des modèles d’IA tels que les réseaux antagonistes génératifs (GAN), les réseaux neuronaux récurrents (RNN) ou les transformateurs pour produire du contenu dans différents styles et domaines.

Les premiers systèmes d'IA ont fait preuve d'une intelligence artificielle étroite, se concentrant sur une seule tâche et la réalisant parfois à un niveau proche ou supérieur à celui de l'homme. MYCIN, un programme développé par Ted Shortliffe à Stanford dans les années 1970, ne faisait que diagnostiquer et recommander un traitement pour les infections bactériennes. SYSTRAN ne faisait que de la traduction automatique. Deep Blue d'IBM ne jouait qu'aux échecs.

Plus tard, des modèles de réseaux neuronaux profonds formés par apprentissage supervisé, tels qu'AlexNet et AlphaGo, ont pris en charge avec succès un certain nombre de tâches de perception et de jugement automatiques qui avaient longtemps échappé aux systèmes heuristiques, basés sur des règles ou sur des connaissances. Plus récemment, nous avons vu des modèles d'avant-garde capables d'effectuer une grande variété de tâches sans être explicitement formés à chacune d'entre elles.

Une enquête menée par Capgemini Research Institute auprès de 10 000 personnes dans 13 pays révèle que, 73 % des utilisateurs font confiance au contenu produit par des outils d’’intelligence artificielle générative, avec des variations selon les marchés. Par exemple, la Norvège et Singapour sont respectivement les plus et les moins confiants. Le rapport cite aussi ChatGPT comme un exemple populaire d’outil d’IA générative, qui répond aux demandes des utilisateurs de manière claire et personnalisée. Enfin, le rapport mentionne que 53 % des utilisateurs font confiance à l’IA générative pour les aider dans leur planification financière.

[QUOTE =Blaise Agüera y Arcas et Peter Norvig]L'intelligence générale doit être considérée comme un tableau de bord multidimensionnel, et non comme une proposition unique de type oui/non. Néanmoins, il existe une discontinuité significative entre l'intelligence restreinte et l'intelligence générale : Les systèmes étroitement intelligents exécutent généralement un ensemble de tâches unique ou prédéterminé, pour lequel ils ont été explicitement formés. Même l'apprentissage multitâche ne produit qu'une intelligence restreinte, car les modèles fonctionnent toujours dans les limites des tâches envisagées par les ingénieurs. En effet, une grande partie du travail d'ingénierie difficile nécessaire au développement de l'intelligence artificielle restreinte consiste à conserver et à étiqueter des ensembles de données spécifiques à une tâche.
[/QUOTE]

En revanche, les modèles linguistiques d'avant-garde peuvent accomplir avec compétence à peu près n'importe quelle tâche d'information qui peut être effectuée par des humains, qui peut être posée et à laquelle on peut répondre en utilisant le langage naturel, et dont les performances sont quantifiables.

La capacité d'apprentissage en contexte est une méta-tâche particulièrement significative pour l'IA générale. L'apprentissage en contexte étend la gamme des tâches de tout ce qui est observé dans le corpus de formation à tout ce qui peut être décrit, ce qui constitue une amélioration considérable. Un modèle d'IA générale peut accomplir des tâches que ses concepteurs n'avaient jamais envisagées.

Une étude a utilisé des modèles économiques pour prédire la date d’arrivée de l’intelligence artificielle de niveau humain (AGI). Selon cette étude, la date moyenne prévue pour l’AGI est 2041, avec une fourchette probable de 2032 à 2048, et une date la plus proche possible de 2028. L’étude souligne que l’AGI représente un risque existentiel imminent pour l’humanité, qui pourrait survenir avant les effets du réchauffement climatique.

L’étude retrace également l’évolution historique de la recherche et de la technologie en informatique et en intelligence artificielle, en mettant en évidence les progrès récents dans les systèmes de langage génératif et les avertissements des experts sur les dangers potentiels de l’AGI. L’AGI désigne un type de système d’IA capable de réaliser toutes les tâches intellectuelles d’un être humain. Autrement dit, l’AGI a une compréhension générale du monde et peut s’adapter à de nouvelles situations et environnements, tout comme le ferait un être humain.

Les progrès rapides de l’IA dans des domaines tels que le traitement du langage naturel (NLP) ont relancé le débat sur ce concept qui serait pour certains observateurs largement spéculatif. ChatGPT est une innovation majeure dans le domaine du traitement du langage naturel. Ce modèle de génération de langage à la pointe de la technologie a déjà démontré son efficacité dans divers secteurs. L’évolution rapide de l’IA ces derniers mois montre que l’ère de l’IA est déjà là. De nombreuses entreprises technologiques, comme Baidu et Google BARD, travaillent déjà sur leurs propres modèles concurrents pour ChatGPT.

Il existe de nombreux désaccords sur la question de savoir où se situe le seuil de l'AGI

Mustafa Suleyman, cofondateur de DeepMind, a suggéré de passer à l' « intelligence artificielle capable », qu'il propose de mesurer par un « test de Turing moderne » : la capacité de gagner rapidement un million de dollars en ligne (à partir d'un investissement initial de 100 000 dollars Les systèmes d’IA qui peuvent générer de la richesse auront sans aucun doute un impact sur le monde, bien qu’il soit peu probable que l’on puisse assimiler la capacité à générer de la richesse à une idéologie capitaliste.

Il y a de bonnes raisons d'être sceptique à l'égard de certaines mesures. Lorsqu'un être humain réussit un examen juridique, commercial ou médical bien conçu, nous supposons qu'il est compétent non seulement pour les questions spécifiques de l'examen, mais aussi pour toute une série de questions et de tâches connexes - sans parler des compétences générales que les êtres humains possèdent en général.

Mais lorsqu'un modèle est formé pour réussir un tel examen, la formation est souvent étroitement adaptée aux types exacts de questions de l'examen. Les modèles de frontière d'aujourd'hui ne sont évidemment pas pleinement qualifiés pour devenir avocats ou médecins, même s'ils peuvent passer ces examens de qualification. Comme le dit la loi de Goodhart : « Lorsqu'une mesure devient une cible, elle cesse d'être une bonne mesure. De meilleurs tests sont nécessaires, et de nombreux travaux sont en cours, comme la suite de tests HELM (Holistic Evaluation of Language Models) de Stanford.

L’utilisation abusive du terme AGI : un danger pour la réflexion sur l’IA ?

Le cabinet d’analyse CCS Insight a prédit que l’IA générative sera remise en question l’année prochaine en raison des coûts élevés, des risques et de la complexité associés à cette technologie. Les modèles d’IA générative tels que ChatGPT d’OpenAI, Google Bard, Claude d’Anthropic et Synthesia nécessitent des quantités massives de puissance de calcul pour exécuter des modèles mathématiques complexes qui leur permettent de répondre aux demandes des utilisateurs.

Ben Wood, analyste en chef chez CCS Insight, a déclaré que bien qu’ils soient de fervents défenseurs de l’IA et qu’ils pensent qu’elle aura un impact considérable sur l’économie, la société en général et la productivité, le battage médiatique autour de l’IA générative en 2023 a été tellement important qu’il est exagéré et qu’il y a beaucoup d’obstacles à son déploiement.

Les générations précédentes de chatbots tels que Mitsuku (aujourd'hui connu sous le nom de Kuki) pouvaient parfois tromper les juges humains en changeant brusquement de sujet et en se faisant l'écho d'un passage de texte cohérent. Les modèles actuels génèrent des réponses à la volée plutôt que de s'appuyer sur un texte préétabli, et ils s'en tiennent mieux au sujet. Mais ils bénéficient toujours de l'hypothèse naturelle de l'être humain selon laquelle une réponse fluide et grammaticale provient très probablement d'une entité intelligente.

C'est ce que certains appelent « l'effet Chauncey Gardiner », du nom du héros de Being There : Chauncey est pris très au sérieux uniquement parce qu'il a l'air de quelqu'un qui devrait être pris au sérieux. Les chercheurs Rylan Schaeffer, Brando Miranda et Sanmi Koyejo ont identifié un autre problème lié aux mesures courantes des performances de l’IA : elles ne sont pas linéaires. Ils ont utilisé l’exemple d’un test consistant en une série de problèmes arithmétiques portant sur des nombres à cinq chiffres.

Les petits modèles répondront mal à tous ces problèmes, mais au fur et à mesure que la taille du modèle augmente, il y aura un seuil critique après lequel le modèle répondra correctement à la plupart des problèmes. Cela a conduit les commentateurs à dire que la compétence arithmétique est une propriété émergente dans les modèles de frontière de taille suffisante. Si le test incluait également des problèmes arithmétiques avec des nombres de un à quatre chiffres, et si un crédit partiel était accordé pour l’obtention de certains chiffres corrects, nous verrions alors que la performance augmente progressivement avec la taille du modèle ; il n’y a pas de seuil brutal.

Cette découverte jette un doute sur l'idée que des capacités et des propriétés superintelligentes, y compris éventuellement la conscience, pourraient soudainement et mystérieusement « émerger », ce que craignent certains citoyens et décideurs politiques. (Le même raisonnement est parfois utilisé pour « expliquer » pourquoi les humains sont intelligents alors que les autres grands singes ne le sont soi-disant pas ; en réalité, cette discontinuité peut être tout aussi illusoire).

L’AGI : entre optimisme et inquiétude

Quelle aurait été la réaction du public si l'AGI avait été réalisée « dans les délais prévus », lorsqu'un groupe de chercheurs s'est réuni à Dartmouth au cours de l'été 1956 pour comprendre « comment faire en sorte que les machines utilisent le langage, forment des abstractions et des concepts, résolvent des types de problèmes aujourd'hui réservés aux humains, et s'améliorent elles-mêmes » ? À l'époque, la plupart des personnes étaient optimistes quant au progrès technologique. La « Grande Compression » était en cours, une ère au cours de laquelle les gains économiques obtenus grâce aux progrès rapides de la technologie étaient redistribués largement mais certainement pas équitablement.

Aujourd'hui, cette pompe redistributive a été renversée : Les pauvres s'appauvrissent et les riches s'enrichissent (surtout dans les pays du Nord). Lorsque l'IA est qualifiée de « ni artificielle ni intelligente », mais de simple reconditionnement de l'intelligence humaine, il est difficile de ne pas lire cette critique sous l'angle de la menace et de l'insécurité économiques.

En confondant les débats sur ce que l'AGI devrait être avec ce qu'elle est, nous violons l'injonction de David Hume de faire de notre mieux pour séparer les questions de type « est » de celles de type « devrait ». C'est regrettable, car les débats sur le « devoir », qui sont indispensables, gagnent à être menés en toute honnêteté.
L'AGI promet de générer une grande valeur dans les années à venir, mais elle présente également des risques importants.

Source : Blaise agüera y Arcas and Peter Norvig

Et vous ?

Partagez-vous l'avis de agüera et Norvig qui estiment que l’intelligence artificielle générale est déjà présente ?

Croyez-vous en l'existence de l'intelligence artificielle de niveau humain (AGI) ?

Quels sont selon vous les avantages et les inconvénients de l'AGI ?

Est-ce que vous pensez que le débat sur l’existence de l’AGI devrait être remplacé par une réflexion sur son intérêt et son utilisation juste et équitable ?

Voir aussi :

L'intelligence artificielle générative boosterait la productivité des travailleurs de 14 %, selon une étude menée par l'Université de Stanford

« L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 29/11/2023 à 19:41
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
10  0 
Avatar de vmagnin
Membre éprouvé https://www.developpez.com
Le 29/11/2023 à 21:07
Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
(Pensées diverses IV - 6/23)

A relayer ad libitum...
10  0 
Avatar de Seb_de_lille
Membre habitué https://www.developpez.com
Le 01/12/2023 à 9:27
Tout a fait d'accord.

Le battage médiatique autour de l'IA commence vraiment à faire ch... . Ca ressemble à ce qu'on a déjà eu précédemment sur le metavers, les NFT, les blockchains, etc.
Et Developpez.com participe à ce battage puisqu'on ne peut pas passer une journée sans avoir un article au sujet de l'IA. Un peu de recul me semble nécessaire, voir indispensable.
9  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0 
Avatar de rsuinux
Membre habitué https://www.developpez.com
Le 29/11/2023 à 20:02
Citation Envoyé par kain_tn Voir le message
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
D'accord avec vous.
Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
8  0 
Avatar de pboulanger
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 15:26
La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
des développeurs compétents.

Comment devient-on un développeur compétent?
En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
8  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 28/02/2024 à 13:18
Je serai à la retraite avant Java. Et avant Cobol aussi.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/05/2024 à 0:45
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 19/10/2023 à 11:36
Citation Envoyé par Bruno Voir le message
Partagez-vous l'avis de agüera et Norvig qui estiment que l’intelligence artificielle générale est déjà présente ?
Non.

Citation Envoyé par Bruno Voir le message
Est-ce que vous pensez que le débat sur l’existence de l’AGI devrait être remplacé par une réflexion sur son intérêt et son utilisation juste et équitable ?
Ce serait plus sain, oui. Et aussi sur à qui profitent réellement ces IA. Qui se fait de l'argent dessus? Qui récoltent des données sur qui, avec?

Là, toutes les semaines, on a un nouveau "chercheur" qui vient nous raconter à quel point l'IA est intelligente...
6  0