L’argument de Wolfram
Enfant prodige, Wolfram a publié son premier article scientifique à l'âge de 15 ans et obtenu son doctorat à Caltech à 20 ans. Son œuvre impressionnante touche à la fois à la science, aux mathématiques et à l'informatique : Il a développé Mathematica, Wolfram Alpha et le Wolfram Language, un puissant langage de programmation informatique.
« Mon principal travail dans la vie, en plus de la science fondamentale, a été de créer notre langage informatique Wolfram afin de disposer d'un moyen d'exprimer des choses par le calcul qui soit utile à la fois aux humains et aux ordinateurs », a déclaré Wolfram.
Wolfram, connu pour ses contributions majeures telles que Mathematica et Wolfram Alpha, a grandi dans un environnement où la philosophie était omniprésente, sa mère étant professeure de philosophie à l’Université d’Oxford. Bien qu’il ait initialement rejeté cette discipline, il reconnaît aujourd’hui la valeur de la rigueur philosophique pour comprendre les implications profondes de l’IA.
Les défis éthiques et existentialistes de l’IA
L’IA, en évoluant, soulève des questions complexes sur la conscience, la prise de décision et l’interaction entre humains et machines. Wolfram soutient que ces questions ne peuvent être pleinement comprises sans une réflexion philosophique approfondie. Par exemple, déterminer ce qui est « juste » ou « moral » dans le contexte de l’IA est fondamentalement une question philosophique.
« Je n'avais jamais vraiment appris grand-chose sur la philosophie. Ma mère était professeur de philosophie à Oxford quand j'étais enfant, et l'une des choses que je disais toujours, c'est qu'il y a une chose que je ne ferai jamais quand je serai adulte, c'est la philosophie.
« Et regardez ce que font les philosophes : ils discutent toujours des mêmes choses qu'il y a 2 000 ans. Comment cela peut-il être une chose sensée à faire ? Mais maintenant que j'ai atteint l'âge adulte, je me suis retrouvé plongé dans toutes ces questions philosophiques, mais avec une sorte de nouvel ensemble d'outils, des outils qui viennent de la science, et il y a beaucoup de choses vraiment significatives et intéressantes ».
Rendez-vous à 8:00
L’importance des garde-fous philosophiques
Alors que les développeurs d'IA et d'autres personnes commencent à réfléchir plus profondément à la façon dont les ordinateurs et les personnes se croisent, Wolfram explique que cela devient beaucoup plus un exercice philosophique, impliquant une réflexion au sens pur sur les implications que ce type de technologie peut avoir sur l'humanité. Ce type de réflexion complexe est lié à la philosophie classique.
« La question est de savoir à quoi l'on pense, et c'est un autre type de question, que l'on retrouve davantage dans la philosophie traditionnelle que dans les STEM traditionnels », a-t-il déclaré.
Par exemple, lorsque vous commencez à parler de la manière de mettre des garde-fous à l'IA, il s'agit essentiellement de questions philosophiques. Parfois, dans l'industrie technologique, lorsque les gens parlent de la manière dont nous devrions mettre en place telle ou telle chose avec l'IA, certains peuvent dire : « Eh bien, faisons en sorte que l'IA fasse ce qu'il faut ». Et cela nous amène à nous demander ce qu'est la bonne chose ». Et déterminer les choix moraux est un exercice philosophique.
Il dit avoir eu des « discussions horribles » avec des entreprises qui mettent l'IA sur le marché, manifestement sans y penser. « La tentative de discussion socratique sur la manière dont vous réfléchissez à ce genre de questions vous choquerait, tant les gens ne réfléchissent pas clairement à ces questions. Je ne sais pas comment résoudre ces questions. C'est le défi, mais c'est un endroit où ce genre de questions philosophiques, je pense, sont d'une importance actuelle ».
Une approche interdisciplinaire
La science, selon Wolfram, est souvent incrémentale et ne remet pas en question les paradigmes existants. En revanche, la philosophie encourage une réflexion radicale et une remise en question des idées préconçues. En combinant ces deux approches, nous pourrions mieux naviguer dans les défis posés par l’IA et assurer un développement technologique éthique et responsable.
Selon lui, les scientifiques en général ont du mal à envisager les choses en termes philosophiques. « Une chose que j'ai remarquée et qui est vraiment frappante, c'est que lorsque vous parlez à des scientifiques et que vous évoquez de grandes et nouvelles idées, ils sont désorientés parce que ce n'est pas ce qui se passe en général dans le domaine scientifique », a-t-il déclaré. « La science est un domaine progressif où l'on ne s'attend pas à être confronté à une façon radicalement différente de penser les choses ».
Si le travail principal de la philosophie est de répondre aux grandes questions existentielles, il estime que nous entrons dans un âge d'or de la philosophie en raison de l'influence croissante de l'IA et de toutes les questions qu'elle soulève. Selon lui, bon nombre des questions auxquelles l'IA nous confronte aujourd'hui sont en fait des questions philosophiques traditionnelles.
« Je trouve que les groupes de philosophes avec lesquels je discute sont en fait beaucoup plus agiles lorsqu'ils réfléchissent de manière paradigmatique à différents types de choses », a-t-il déclaré.
Il a notamment rencontré un groupe d'étudiants en master de philosophie au Ralston College de Savannah, en Géorgie. Wolfram a parlé aux étudiants de la collision à venir entre les arts libéraux et la philosophie, d'une part, et la technologie, d'autre part. En fait, Wolfram dit avoir relu la « République » de Platon parce qu'il veut revenir aux racines de la philosophie occidentale dans sa propre réflexion.
Rumi Allbert, étudiant dans le programme Ralston, qui a passé sa carrière à travailler dans la science des données et qui a également participé à la Wolfram Summer School, un programme annuel conçu pour aider les étudiants à comprendre l'approche de Wolfram en matière d'application de la science aux idées commerciales, a été fasciné par la pensée de Wolfram.
« Il est très, très intéressant qu'un homme comme le Dr Wolfram s'intéresse autant à la philosophie, et je pense que cela témoigne de l'importance de la philosophie et de l'approche humaniste de la vie. Il me semble qu'il s'est tellement développé dans son propre domaine qu'il a évolué vers une question plus philosophique », a déclaré Allbert.
Le fait que Wolfram, qui est à la pointe de l'informatique depuis un demi-siècle, perçoive les liens entre la philosophie et la technologie pourrait être le signe qu'il est temps de commencer à aborder ces questions relatives à l'utilisation de l'IA d'une manière beaucoup plus large que comme un simple problème mathématique. Et peut-être qu'associer des philosophes à la discussion est un bon moyen d'y parvenir.
Une analyse critique de l’appel de Stephen Wolfram
L’idée de Stephen Wolfram d’intégrer des philosophes dans le développement de l’IA est audacieuse et mérite une réflexion approfondie. Cependant, cette proposition n’est pas sans ses critiques et ses défis. Examinons certains des arguments contre cette approche.
La complexité de l’intégration interdisciplinaire
L’une des principales critiques de l’appel de Wolfram est la complexité de l’intégration des philosophes dans un domaine aussi technique que l’IA. Les philosophes et les ingénieurs ont souvent des méthodologies et des langages très différents, ce qui peut rendre la collaboration difficile. Les ingénieurs peuvent percevoir les philosophes comme étant trop théoriques, tandis que les philosophes peuvent voir les ingénieurs comme étant trop pragmatiques.
Le risque de paralysie par l’analyse
Un autre argument contre l’intégration des philosophes est le risque de « paralysie par l’analyse ». Les philosophes sont formés pour poser des questions profondes et souvent sans réponse définitive. Cela peut ralentir le processus de développement technologique, car chaque décision pourrait être remise en question sous un angle éthique ou philosophique. Dans un domaine où la rapidité d’innovation est cruciale, cela pourrait être perçu comme un obstacle.
La question de la pertinence
Certains critiques soutiennent que les philosophes peuvent ne pas être suffisamment informés sur les aspects techniques de l’IA pour apporter une contribution significative. La philosophie, bien qu’importante, pourrait ne pas toujours fournir des solutions pratiques aux problèmes techniques complexes rencontrés dans le développement de l’IA. Il est essentiel que les philosophes aient une compréhension de base des technologies sur lesquelles ils réfléchissent, ce qui n’est pas toujours le cas.
Les intérêts divergents des entreprises technologiques
Enfin, il y a la question des intérêts divergents. Les entreprises technologiques sont souvent motivées par des objectifs commerciaux et financiers, tandis que les philosophes peuvent être plus préoccupés par les implications éthiques et sociales. Cette divergence d’intérêts peut créer des tensions et des conflits, rendant la collaboration difficile. Les entreprises peuvent également être réticentes à intégrer des perspectives qui pourraient ralentir leur progression ou nuire à leur rentabilité.
Conclusion
Bien que l’idée de Stephen Wolfram d’intégrer des philosophes dans le développement de l’IA soit noble et nécessaire à bien des égards, elle n’est pas sans défis. La complexité de l’intégration interdisciplinaire, le risque de paralysie par l’analyse, la question de la pertinence et les intérêts divergents des entreprises technologiques sont autant de facteurs qui doivent être pris en compte. Une approche équilibrée, où les philosophes et les ingénieurs travaillent ensemble tout en respectant leurs domaines d’expertise respectifs, pourrait être la clé pour surmonter ces obstacles.
Source : Stephen Wolfram (vidéo dans le texte)
Et vous ?
Pensez-vous que les philosophes peuvent réellement influencer les décisions technologiques des entreprises d’IA ? Pourquoi ou pourquoi pas ?
Pensez-vous que les différences méthodologiques entre philosophes et ingénieurs peuvent être surmontées ? Si oui, comment ?
Quels sont, selon vous, les principaux défis éthiques posés par l’IA aujourd’hui ? Comment les philosophes pourraient-ils contribuer à résoudre ces défis ?
Comment les philosophes peuvent-ils acquérir une compréhension suffisante des aspects techniques de l’IA pour être pertinents dans ce domaine ?
Avez-vous des exemples où une collaboration interdisciplinaire a réussi à surmonter des défis similaires dans d’autres domaines ?
Quels autres domaines de la connaissance devraient être impliqués dans la réflexion sur l’IA, en plus de la philosophie ?
Croyez-vous que les entreprises technologiques prennent suffisamment en compte les implications éthiques de leurs innovations ? Pourquoi ou pourquoi pas ?
Pensez-vous que les entreprises technologiques sont prêtes à accepter des ralentissements potentiels dans leur développement pour intégrer des perspectives éthiques ? Pourquoi ou pourquoi pas ?
Pensez-vous que l’éducation en philosophie devrait être intégrée dans les cursus des ingénieurs et des scientifiques ?
Comment voyez-vous l’avenir de l’IA si nous intégrons davantage de perspectives philosophiques dans son développement ?