IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Ilya Sutskever, directeur scientifique d'OpenAI, sur l'avenir de l'IA : « ce sera monumental, bouleversant. Il y aura un avant et un après »,
Il prédit l'arrivée d'une "superintelligence numérique"

Le , par Mathis Lucas

26PARTAGES

6  0 
Ilya Sutskever, cofondateur et directeur scientifique d'OpenAI, a déclaré dans une récente interview que ChatGPT est une technologie bien plus puissante qu'un simple argent conversationnel. Il estime qu'il se peut que ChatGPT et d'autres modèles d'IA soient légèrement conscients et invite le monde à s'intéresser davantage à ChatGPT qui, selon lui, a déjà réécrit les attentes de beaucoup de gens sur ce qui va arriver. Selon lui, l'IA évoluera à tel point où certains humains choisiront un jour de fusionner avec les machines. Et alors que l'IA semble se redéfinir après chaque évolution, le directeur scientifique d'OpenAI affirme que l'on atteindra un jour l'intelligence générale artificielle (AGI).

Ilya Sutskever estime que ChatGPT a redéfini l'agenda de l'ensemble du secteur de l'IA

L'on peut affirmer sans se tromper qu'OpenAI mène la danse dans la course à l'IA. Le succès sans précédent du chatbot d'IA ChatGPT a propulsé OpenAI sur le devant de la scène et ses produits d'IA sont parmi les plus populaires, ce qui a permis à la startup d'IA fondée en 2015 d'approcher une valorisation de 80 milliards de dollars. Lors d'une récente interview, Ilya Sutskever, cofondateur et directeur scientifique d'OpenAI, a déclaré que ChatGPT a permis au secteur de l'IA de faire un grand bond en avant. Beaucoup moins connu du grand public que Sam Altman et Elon Musk, il a donné lors de l'interview son point de vue sur l'avenir de l'IA et de ChatGPT.


Comme Sam Altman, PDG d'OpenAI, Sutskever est persuadé que l'industrie atteindra dans un avenir pas si lointain une forme d'AGI. « Il est important de parler de la direction que tout cela prend. À un moment donné, nous aurons vraiment l'AGI. Peut-être qu'OpenAI la construira. Peut-être qu'une autre entreprise la construira », a-t-il déclaré. Lorsqu'il a été interrogé sur les risques et opportunités qu'il entrevoit, Sutskever a répondu : « ce sera monumental, bouleversant. Il y aura un avant et un après ». Il a déclaré que lors du lancement de ChatGPT, OpenAI craignait que le chatbot n'intéresse pas le public, mais c'est le contraire qui s'est finalement produit.

Sutskever a expliqué : « je vais l'admettre. À mon grand embarras - je ne sais pas si je devrais, mais bon sang, c'est vrai -, lorsque nous avons créé ChatGPT, je ne savais pas s'il était bon. Lorsque vous lui posiez une question factuelle, il vous donnait une mauvaise réponse. Je pensais que ce serait si peu impressionnant que les gens diraient : "pourquoi faites-vous cela ? C'est tellement ennuyeux" ». Mais ce chatbot semble avoir redéfini l'agenda de l'ensemble du secteur. « C'est la commodité qui a attiré l'attention », a-t-il ajouté. Sutskever a déclaré lors de l'interview qu'après le succès de ChatGPT, l'AGI avait cessé d'être un gros dans l'industrie.

« Cela a été un grand changement. Historiquement, l'attitude des gens était la suivante : l'IA ne fonctionne pas, chaque étape est difficile, il faut se battre pour chaque once de progrès. Et lorsque les gens faisaient de grandes déclarations sur l'AGI, les chercheurs disaient : "de quoi parlez-vous ? Cela ne fonctionne pas. Il y a trop de problèmes". Mais avec ChatGPT, les choses ont commencé à changer. Il a permis aux chercheurs en apprentissage automatique de rêver. Nous avons maintenant des gens qui parlent de l'étendue de l'IA, des gens qui parlent d'AGI, ou de superintelligence. Tout le monde en parle. C'est complètement fou », a-t-il déclaré.

Sutskever insiste sur le fait que toutes ces discussions sur une technologie qui n'existe pas encore (et qui n'existera peut-être jamais) sont une bonne chose, car elles permettent de sensibiliser davantage de gens à un avenir qu'il considère déjà comme acquis. « On peut faire tellement de choses incroyables avec l'AGI : automatiser les soins de santé, les rendre mille fois moins chers et mille fois meilleurs, guérir tant de maladies, résoudre le problème du réchauffement de la planète », déclare-t-il. Malgré ce qu'il dit, l'AGI reste l'une des idées les plus controversées dans ce domaine. Rares sont ceux qui considèrent son développement comme acquis.

De nombreux chercheurs pensent que des avancées conceptuelles majeures sont nécessaires avant de voir ce que Sutskever a en tête ; et certains pensent que nous ne le verrons jamais. La communauté de l'IA est divisée sur la question et la notion même d'intelligence ne fait pas l'objet d'un consensus.

Sutskever affirme qu'il se peut que les modèles de langage soient légèrement conscients

Israélo-canadien, Sutskever est né en Russie soviétique, mais a grandi à Jérusalem dès l'âge de cinq ans (il parle toujours le russe et l'hébreu, ainsi que l'anglais). Il a ensuite déménagé au Canada pour étudier à l'université de Toronto avec Geoffrey Hinton, pionnier de l'IA et prix Turing 2018, qui a fait part de ses craintes concernant la technologie qu'il a contribué lui-même à créer au début des années 80. Lors de l'interview, Sutskever n'a pas commenté les déclarations de Hinton, mais le fait qu'il s'intéresse désormais aux formes d'IA malveillantes laisse penser qu'ils sont sur la même longueur d'onde. Sutskever a toutefois déclaré à propos de l'AGI :


« Nombreux sont ceux qui s'inquiètent : "mon Dieu, les entreprises d'IA réussiront-elles à gérer cette formidable technologie ?" ». Sutskever a défini l'AGI comme suit : « l'AGI n'est pas un terme scientifique. Il s'agit d'un seuil utile, d'un point de référence. C'est le moment où l'IA est si intelligente que si une personne peut accomplir une tâche, l'IA peut aussi le faire. À ce moment-là, on peut dire qu'il y a une IAG ». En février de l'année dernière, Sutskever a laissé entendre sur son compte Twitter (aujourd'hui X) qu'il se peut que les grands réseaux neuronaux d'aujourd'hui soient légèrement conscients. Cependant, il a rapidement fait l'objet de critiques.

Par exemple, Murray Shanahan, scientifique principal chez Google DeepMind et professeur à l'Imperial College de Londres, a répondu : « dans le même sens qu'il se peut qu'un grand champ de blé soit légèrement composé de pâtes ». Lors de l'interview, Sutskever a essayé d'expliquer son propos en se référant au concept de cerveau de Boltzmann. Il s'agit en effet d'une expérience de pensée en mécanique quantique (nommée d'après le physicien du XIXe siècle Ludwig Boltzmann) dans laquelle des fluctuations thermodynamiques aléatoires dans l'univers sont imaginées comme étant à l'origine de l'apparition et de la disparition de cerveaux.

« J'ai l'impression qu'à l'heure actuelle, ces modèles de langage sont un peu comme un cerveau de Boltzmann. Vous commencez à lui parler, vous parlez un peu, puis vous finissez de parler, et le cerveau, il fait un mouvement de disparition avec ses mains. Pouf, adieu, cerveau », a déclaré Sutskever. Alors que d'autres s'interrogent sur l'idée de machines capables d'égaler l'intelligence humaine, Sutskever se prépare à des machines capables de nous surpasser. C'est ce que le directeur scientifique d'OpenAI appelle la superintelligence artificielle (ASI) : « elles verront les choses plus profondément. Elles verront des choses que nous ne voyons pas ».

« Nous avons vu un exemple de superintelligence très étroite avec AlphaGo. En 2016, l'IA de DeepMind spécialisée dans les jeux de société a battu Lee Sedol, l'un des meilleurs joueurs du jeu de Go au monde ; elle a gagné 4 parties sur 5. Elle a compris comment jouer au jeu de Go d'une manière différente de celle que l'humanité a développée collectivement pendant des milliers d'années. Il a trouvé de nouvelles idées », a-t-il déclaré. Sutskever attire en effet l'attention sur le fameux mouvement 37 d'AlphaGo. Lors de sa deuxième partie contre Sedol, l'IA a fait un mouvement qui a déconcerté les commentateurs. Ils pensaient qu'AlphaGo avait fait une erreur.

En réalité, elle avait joué un coup gagnant que personne n'avait jamais vu auparavant dans l'histoire du jeu. « Imaginez un tel niveau de perspicacité, mais dans tous les domaines », a déclaré Sutskever. Pour lui, l'AGI sera capable de reproduire de tels exploits, mais dans tous les domaines.

Sutskever s'exprime sur les préoccupations liées à l'IA et à l'atteinte d'une forme d'AGI

« Il est très important de ne pas se concentrer uniquement sur les possibilités offertes par les modèles de langage, mais aussi sur les risques et les inconvénients », a déclaré Jeff Dean, directeur scientifique de Google. Ancien membre de l'équipe Google Brain, Hinton a quitté son poste pour mettre en garde contre les risques de l'IA. Il pense qu'une forme d'AGI sera atteinte d'ici 5 à 20 ans et que nous vivons une époque très incertaine. « Il est possible que je me trompe totalement sur le fait que l'intelligence numérique nous dépasse. Personne ne le sait vraiment et c'est la raison pour laquelle nous devrions nous inquiéter dès maintenant », a-t-il déclaré.

Hinton et beaucoup d'autres craignent qu'une là, l'AGI prenne le dessus sur l'humanité et décide de l'éradiquer. Un scénario dystopique rejeté catégoriquement par des chercheurs en IA comme Yann LeCun, responsable de l'IA chez Meta avec qui Hinton a partagé le prix Turing en 2018. Elon Musk, PDG de xAI, a appelé à un moratoire pour rédiger de bonnes règles pour le développement de l'IA afin qu'elle soit centrée sur l'humain. Avec Altman, Musk pense que l'IA représente un risque existentiel pour l'humanité. Récemment, OpenAI a annoncé la création d'une équipe chargée d'étudier les risques existentiels liés à l'IA, y compris les menaces nucléaires.

Avec Jan Leike, un collègue scientifique d'OpenAI, Sutskever a mis sur pied une équipe qui se concentrera sur ce qu'ils appellent le "superalignement". L'alignement est un jargon qui signifie que les modèles d'IA font ce que l'humain veut, et rien de plus. Le superalignement est le terme utilisé par OpenAI pour désigner l'alignement appliqué à la superintelligence. L'objectif est de mettre au point un ensemble de procédures de sécurité pour construire et contrôler cette technologie future. OpenAI affirme qu'elle consacrera un cinquième de ses vastes ressources informatiques à ce problème et qu'elle le résoudra en quatre ans. Mais le projet est critiqué.

OpenAI a annoncé le projet sur X, mais l'initiative est critiquée par des personnes comme Abeba Birhane, qui travaille sur la responsabilité en matière d'IA chez Mozilla ; Timnit Gebru, cofondateur du Distributed Artificial Intelligence Research Institute (DAIR) ; et Margaret Mitchell, responsable de l'éthique de l'IA au sein de l'entreprise d'IA Hugging Face. Mais Sutskever estime que le superalignement est la prochaine étape inévitable. « C'est un problème non résolu. Il s'agit également d'un problème sur lequel trop peu de chercheurs en apprentissage automatique travaillent. Je le fais dans mon propre intérêt », a déclaré le directeur scientifique d'OpenAI.

« Il est évidemment important qu'aucune superintelligence construite par quiconque ne devienne malveillante. C'est évident. Le travail sur le superalignement ne fait que commencer. Ils nécessiteront de vastes changements dans les institutions de recherche », a-t-il ajouté. Sutskever a un exemple en tête pour les garanties qu'il veut concevoir : une machine qui regarde les gens comme les parents regardent leurs enfants. « À mon avis, c'est l'étalon-or. C'est une affirmation généralement vraie que les gens se soucient vraiment des enfants. (A-t-il des enfants ? "Non, mais j'aimerais en avoir", dit-il) », a déclaré Sutskever lors de son interview.

Mais que se passera-t-il une fois que l'on aura relevé le défi de l'IA malveillante ? Y a-t-il encore de la place pour les êtres humains dans un monde où les IA sont plus intelligentes ? Sutskever a répondu : « l'une des possibilités - qui est peut-être folle selon les normes actuelles, mais qui ne le sera pas selon les normes futures - est que de nombreuses personnes choisissent de devenir une partie de l'IA ». Il affirme que cela pourrait être la façon dont les humains essaient de rester à la hauteur. « Au début, seules les personnes les plus audacieuses et les plus aventureuses essaieront de le faire. Peut-être que d'autres suivront. Ou pas », a-t-il déclaré.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des prédictions du directeur scientifique d'OpenAI sur l'avenir de l'IA ?
Êtes-vous d'avis que l'IA entraînera des bouleversements majeurs dans le monde à l'avenir ?
Les modèles de langage actuels sont-ils "légèrement conscients" comme il le prétend ? Pourquoi ?
Quel est votre avis sur l'AGI ? Cette forme d'IA est-elle à portée de main pour l'industrie ?
Les modèles d'IA comme GPT-4 sont-ils d'une manière ou d'une autre une forme d'AGI ? Pourquoi ?
Que pensez-vous du concept de l'alignement censé empêcher l'avènement d'une AGI de type Skynet ?
A-t-on besoin d'une organisation chargée de la gouvernance mondiale de l'IA ? Fonctionnera-t-elle ?
Quels pourraient être les impacts d'un tel organe sur le marché de l'IA ? Cela nuira-t-il à l'innovation ?
Que pensez-vous du débat sur l'IA et sur l'AGI ? Est-il mal orienté ? Si oui, sur quoi doit-il se concentrer ?

Voir aussi

Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale : « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

OpenAI crée une équipe chargée d'étudier les risques catastrophiques liés à l'IA, y compris les menaces nucléaires

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 29/11/2023 à 19:41
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
10  0 
Avatar de vmagnin
Membre éprouvé https://www.developpez.com
Le 29/11/2023 à 21:07
Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
(Pensées diverses IV - 6/23)

A relayer ad libitum...
10  0 
Avatar de Seb_de_lille
Membre habitué https://www.developpez.com
Le 01/12/2023 à 9:27
Tout a fait d'accord.

Le battage médiatique autour de l'IA commence vraiment à faire ch... . Ca ressemble à ce qu'on a déjà eu précédemment sur le metavers, les NFT, les blockchains, etc.
Et Developpez.com participe à ce battage puisqu'on ne peut pas passer une journée sans avoir un article au sujet de l'IA. Un peu de recul me semble nécessaire, voir indispensable.
9  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0 
Avatar de rsuinux
Membre habitué https://www.developpez.com
Le 29/11/2023 à 20:02
Citation Envoyé par kain_tn Voir le message
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
D'accord avec vous.
Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
8  0 
Avatar de pboulanger
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 15:26
La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
des développeurs compétents.

Comment devient-on un développeur compétent?
En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
8  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 28/02/2024 à 13:18
Je serai à la retraite avant Java. Et avant Cobol aussi.
7  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 10/01/2024 à 9:31
Le deep Learning n'a pas de représentation du Monde. Donc il ne peut pas simuler, pas mettre en place de stratégie pour simuler une experience, en tirer des règles, avoir un moteur de règles internes . Donc c'est de l'hype pour des chercheurs qui ont besoin de Publish or perish .
Il manque le sens commun pour apprécier des situations.
6  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 10/01/2024 à 10:44
découvrez toutes les prédictions de 2,778 chercheurs
Ce sont des "chercheurs" ou des madames Irma qui lisent votre avenir dans les lignes des mains et dans le marc de café...

Je pense qu'il est nécessaire ici de rappeler une citation du Général De Gaulle: "Des chercheurs qui cherchent, on en trouve... Des chercheurs qui trouvent, on en cherche!"
6  0