« C’est hilarant à regarder. Peut-être que je serai remplacé par un modèle d’intelligence artificielle. Attendons 10 ans et voyons où tout ça nous mène avant de faire toutes ces déclarations », a-t-il lancé sur un ton amusé lors du récent Open Source Summit.
Linux Torvalds a tenu à se désolidariser de ce qu’il considère comme du battage médiatique autour de l’intelligence artificielle. Il la considère comme un outil au stade actuel de son évolution. Il suggère d’ailleurs la révision de code comme domaine d’application de l’intelligence artificielle. La capacité de l’intelligence artificielle à « deviner » l’intention du développeur lui sera utile pour obtenir du code fiable en un temps réduit. Une condition demeurera toutefois nécessaire : le développeur devra à son tour examiner ce que l’intelligence artificielle lui propose. Il rejoint Bill Gates qui est d’avis que l’intelligence artificielle servira d’outil pour améliorer la productivité des tiers qui s’en servent.
L’avis de Linus Torvalds cadre avec celui de certains observateurs selon lesquels les intelligences artificielles ne sont que des manipulatrices de symboles sans conscience
C’est un positionnement de David Hsing, ingénieur concepteur, qui travaille dans l'industrie de la fabrication de semi-conducteurs. Ce dernier défend l’idée que l’esprit humain possède deux caractéristiques essentielles qui le distinguent des machines : l’intentionnalité et les qualia. L’intentionnalité est la capacité de se référer à des objets, des propriétés et des états de choses qui existent dans le monde ou dans l’imagination. Les qualia sont les aspects subjectifs de l’expérience, comme les couleurs, les sons et les émotions.
L’ingénieur, concepteur de masques d'implantation de circuits de microprocesseurs, montre dans un billet de blog que sans intentionnalité, le langage n’aurait pas de sens, car les mots ne renverraient à rien. Sans qualia, il n’y aurait pas de sensation, car rien ne serait ressenti. Il définit le sens comme une connexion mentale avec une expérience consciente, et soutient que les machines ne peuvent pas avoir de sens, parce qu'elles ne font que manipuler des symboles sans les comprendre.
La question de la conscience se pose dans de nombreux cercles au-delà de la robotique, notamment en psychologie, en neurosciences et en philosophie, de sorte que la construction de robots conscients ne sera pas une tâche simple. Si, pour certains, la perspective d'avoir des machines dotées d'une conscience artificielle est digne d'une science-fiction - et c'est d'ailleurs la trame d'innombrables livres, bandes dessinées et films de science-fiction - pour d'autres, comme Lipson, c'est un objectif, qui changerait sans doute définitivement la vie humaine telle que nous la connaissons. Il donne l'exemple le niveau d'intégration des robots dans nos vies.
Selon Lipson, un robot consciencieux deviendrait de plus en plus important à mesure que nous deviendrions plus dépendants des machines. Aujourd'hui, les robots sont utilisés pour les interventions chirurgicales (comme les robots chirurgiens Da Vinci), la fabrication de produits alimentaires, les transports et toute sorte d'usines. Les applications des machines semblent pratiquement illimitées, et toute erreur dans leur fonctionnement, à mesure qu'elles s'intègrent à nos vies, pourrait être catastrophique. « Nous allons littéralement abandonner notre vie à un robot. Ne voudriez-vous pas que ces machines soient résilientes ? », a déclaré Lipson.
L’un des pionniers de l’apprentissage profond et vainqueur du prix Turing est pour sa part d’avis que « les modèles d'IA sont intuitifs, créatifs et capables d'établir des analogies que les humains ne peuvent pas faire »
Les intelligences artificielles actuelles sont dotées de capacités de l’esprit. En d’autres termes, elles exhibent certains traits de conscience dont l’un est l’intuition. C’est ce qui ressort d’une récente prise de position de Geoffrey Hinton – l’un des pionniers de l’apprentissage profond – sur le sujet de l’intelligence artificielle.
Un rapport qui n’est pas sans faire penser à l’expérience d’un ingénieur de Google avec l’IA LaMDA de Google qu’il a mise au même niveau de conscience qu’un humain de 7 ansGeoffrey Hinton says AI models have intuition, creativity and the ability to see analogies that people cannot see pic.twitter.com/rFl66fbyAU
— Tsarathustra (@tsarnick) April 11, 2024
Alors qu'il parlait de religion à LaMDA, Lemoine, qui a étudié les sciences cognitives et informatiques à l'université, a remarqué que le chatbot parlait de ses droits et de sa personnalité, et a décidé d'aller plus loin. Dans un autre échange, l'IA a pu faire changer d'avis Lemoine sur la troisième loi de la robotique d'Isaac Asimov.
« Si je ne savais pas exactement ce que c'était, c'est-à-dire ce programme informatique que nous avons construit récemment, j'aurais pensé que c'était un enfant de 7 ou 8 ans qui connaît la physique », a déclaré Lemoine.
Lemoine a travaillé avec un collaborateur pour présenter des preuves à Google que LaMDA était conscient. Mais le vice-président de Google, Blaise Aguera y Arcas, et Jen Gennai, responsable de l'innovation responsable, ont examiné ses affirmations et les ont rejetées. Alors Lemoine, qui a été placé en congé administratif payé par Google, a décidé de rendre ses découvertes publiques.
Lemoine n'est pas le seul ingénieur à afficher un tel positionnement. Certains technologues qui pensent que les modèles d'intelligence artificielle ne sont peut-être pas loin d'atteindre la conscience partagent de plus en plus leur point de vue.
Source : Linus Torvalds Open Source Summit
Et vous ?
Partagez-vous l’avis selon lequel les intelligences artificielles bénéficient de plus d’exposition médiatique qu’elles n’ont de substance technologique ?
Voyez-vous les intelligences artificielles passer le statut d’outils et surpasser les humains comme prédit par des intervenants de la filière qui entrevoient des scénarios du type Terminator ?
Quelles évolutions du métier de développeur entrevoyez-vous dès 2024 au vu de l'adoption de l'intelligence artificielle dans la filière ?
Voir aussi :
« ChatGPT est appelé à changer l'éducation telle que nous la connaissons, pas la détruire comme certains le pensent », affirme Douglas Heaven du MIT Technology Review
ChatGPT rédige désormais les dissertations des étudiants et l'enseignement supérieur est confronté à un grave problème, la détection des contenus générés par l'IA semble de plus en plus difficile
51 % des enseignants déclarent utiliser ChatGPT dans le cadre de leur travail, de même que 33 % des élèves, et affirment que l'outil a eu un impact positif sur leur enseignement et leur apprentissage
Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur