IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Stephen Wolfram pense que nous avons besoin de philosophes dans le débat sur le développement de l'IA
Pour établir des garde-fous nécessaires afin d'éviter des conséquences potentiellement désastreuses

Le , par Stéphane le calme

26PARTAGES

26  0 
Stephen Wolfram, mathématicien et scientifique de renom, a récemment exprimé une opinion intrigante : les philosophes devraient jouer un rôle crucial dans la réflexion sur les grandes questions entourant l’intelligence artificielle (IA). Wolfram a exprimé des inquiétudes quant à la manière dont certaines entreprises technologiques déploient l’IA sans une réflexion éthique adéquate. Il a eu des discussions « horrifiantes » avec des entreprises qui, selon lui, ne pensent pas clairement aux implications de leurs technologies. Pour lui, intégrer des philosophes dans ces discussions pourrait aider à établir des garde-fous nécessaires pour éviter des conséquences potentiellement désastreuses. Cette perspective, bien que surprenante pour certains, souligne l’importance d’une approche interdisciplinaire pour aborder les défis éthiques et existentiels posés par l’IA.

L’argument de Wolfram

Enfant prodige, Wolfram a publié son premier article scientifique à l'âge de 15 ans et obtenu son doctorat à Caltech à 20 ans. Son œuvre impressionnante touche à la fois à la science, aux mathématiques et à l'informatique : Il a développé Mathematica, Wolfram Alpha et le Wolfram Language, un puissant langage de programmation informatique.

« Mon principal travail dans la vie, en plus de la science fondamentale, a été de créer notre langage informatique Wolfram afin de disposer d'un moyen d'exprimer des choses par le calcul qui soit utile à la fois aux humains et aux ordinateurs », a déclaré Wolfram.

Wolfram, connu pour ses contributions majeures telles que Mathematica et Wolfram Alpha, a grandi dans un environnement où la philosophie était omniprésente, sa mère étant professeure de philosophie à l’Université d’Oxford. Bien qu’il ait initialement rejeté cette discipline, il reconnaît aujourd’hui la valeur de la rigueur philosophique pour comprendre les implications profondes de l’IA.

Les défis éthiques et existentialistes de l’IA

L’IA, en évoluant, soulève des questions complexes sur la conscience, la prise de décision et l’interaction entre humains et machines. Wolfram soutient que ces questions ne peuvent être pleinement comprises sans une réflexion philosophique approfondie. Par exemple, déterminer ce qui est « juste » ou « moral » dans le contexte de l’IA est fondamentalement une question philosophique.

« Je n'avais jamais vraiment appris grand-chose sur la philosophie. Ma mère était professeur de philosophie à Oxford quand j'étais enfant, et l'une des choses que je disais toujours, c'est qu'il y a une chose que je ne ferai jamais quand je serai adulte, c'est la philosophie.

« Et regardez ce que font les philosophes : ils discutent toujours des mêmes choses qu'il y a 2 000 ans. Comment cela peut-il être une chose sensée à faire ? Mais maintenant que j'ai atteint l'âge adulte, je me suis retrouvé plongé dans toutes ces questions philosophiques, mais avec une sorte de nouvel ensemble d'outils, des outils qui viennent de la science, et il y a beaucoup de choses vraiment significatives et intéressantes ».


Rendez-vous à 8:00

L’importance des garde-fous philosophiques

Alors que les développeurs d'IA et d'autres personnes commencent à réfléchir plus profondément à la façon dont les ordinateurs et les personnes se croisent, Wolfram explique que cela devient beaucoup plus un exercice philosophique, impliquant une réflexion au sens pur sur les implications que ce type de technologie peut avoir sur l'humanité. Ce type de réflexion complexe est lié à la philosophie classique.

« La question est de savoir à quoi l'on pense, et c'est un autre type de question, que l'on retrouve davantage dans la philosophie traditionnelle que dans les STEM traditionnels », a-t-il déclaré.

Par exemple, lorsque vous commencez à parler de la manière de mettre des garde-fous à l'IA, il s'agit essentiellement de questions philosophiques. Parfois, dans l'industrie technologique, lorsque les gens parlent de la manière dont nous devrions mettre en place telle ou telle chose avec l'IA, certains peuvent dire : « Eh bien, faisons en sorte que l'IA fasse ce qu'il faut ». Et cela nous amène à nous demander ce qu'est la bonne chose ». Et déterminer les choix moraux est un exercice philosophique.

Il dit avoir eu des « discussions horribles » avec des entreprises qui mettent l'IA sur le marché, manifestement sans y penser. « La tentative de discussion socratique sur la manière dont vous réfléchissez à ce genre de questions vous choquerait, tant les gens ne réfléchissent pas clairement à ces questions. Je ne sais pas comment résoudre ces questions. C'est le défi, mais c'est un endroit où ce genre de questions philosophiques, je pense, sont d'une importance actuelle ».


Une approche interdisciplinaire

La science, selon Wolfram, est souvent incrémentale et ne remet pas en question les paradigmes existants. En revanche, la philosophie encourage une réflexion radicale et une remise en question des idées préconçues. En combinant ces deux approches, nous pourrions mieux naviguer dans les défis posés par l’IA et assurer un développement technologique éthique et responsable.

Selon lui, les scientifiques en général ont du mal à envisager les choses en termes philosophiques. « Une chose que j'ai remarquée et qui est vraiment frappante, c'est que lorsque vous parlez à des scientifiques et que vous évoquez de grandes et nouvelles idées, ils sont désorientés parce que ce n'est pas ce qui se passe en général dans le domaine scientifique », a-t-il déclaré. « La science est un domaine progressif où l'on ne s'attend pas à être confronté à une façon radicalement différente de penser les choses ».

Si le travail principal de la philosophie est de répondre aux grandes questions existentielles, il estime que nous entrons dans un âge d'or de la philosophie en raison de l'influence croissante de l'IA et de toutes les questions qu'elle soulève. Selon lui, bon nombre des questions auxquelles l'IA nous confronte aujourd'hui sont en fait des questions philosophiques traditionnelles.

« Je trouve que les groupes de philosophes avec lesquels je discute sont en fait beaucoup plus agiles lorsqu'ils réfléchissent de manière paradigmatique à différents types de choses », a-t-il déclaré.

Il a notamment rencontré un groupe d'étudiants en master de philosophie au Ralston College de Savannah, en Géorgie. Wolfram a parlé aux étudiants de la collision à venir entre les arts libéraux et la philosophie, d'une part, et la technologie, d'autre part. En fait, Wolfram dit avoir relu la « République » de Platon parce qu'il veut revenir aux racines de la philosophie occidentale dans sa propre réflexion.

Rumi Allbert, étudiant dans le programme Ralston, qui a passé sa carrière à travailler dans la science des données et qui a également participé à la Wolfram Summer School, un programme annuel conçu pour aider les étudiants à comprendre l'approche de Wolfram en matière d'application de la science aux idées commerciales, a été fasciné par la pensée de Wolfram.

« Il est très, très intéressant qu'un homme comme le Dr Wolfram s'intéresse autant à la philosophie, et je pense que cela témoigne de l'importance de la philosophie et de l'approche humaniste de la vie. Il me semble qu'il s'est tellement développé dans son propre domaine qu'il a évolué vers une question plus philosophique », a déclaré Allbert.

Le fait que Wolfram, qui est à la pointe de l'informatique depuis un demi-siècle, perçoive les liens entre la philosophie et la technologie pourrait être le signe qu'il est temps de commencer à aborder ces questions relatives à l'utilisation de l'IA d'une manière beaucoup plus large que comme un simple problème mathématique. Et peut-être qu'associer des philosophes à la discussion est un bon moyen d'y parvenir.

Une analyse critique de l’appel de Stephen Wolfram

L’idée de Stephen Wolfram d’intégrer des philosophes dans le développement de l’IA est audacieuse et mérite une réflexion approfondie. Cependant, cette proposition n’est pas sans ses critiques et ses défis. Examinons certains des arguments contre cette approche.

La complexité de l’intégration interdisciplinaire

L’une des principales critiques de l’appel de Wolfram est la complexité de l’intégration des philosophes dans un domaine aussi technique que l’IA. Les philosophes et les ingénieurs ont souvent des méthodologies et des langages très différents, ce qui peut rendre la collaboration difficile. Les ingénieurs peuvent percevoir les philosophes comme étant trop théoriques, tandis que les philosophes peuvent voir les ingénieurs comme étant trop pragmatiques.

Le risque de paralysie par l’analyse

Un autre argument contre l’intégration des philosophes est le risque de « paralysie par l’analyse ». Les philosophes sont formés pour poser des questions profondes et souvent sans réponse définitive. Cela peut ralentir le processus de développement technologique, car chaque décision pourrait être remise en question sous un angle éthique ou philosophique. Dans un domaine où la rapidité d’innovation est cruciale, cela pourrait être perçu comme un obstacle.

La question de la pertinence

Certains critiques soutiennent que les philosophes peuvent ne pas être suffisamment informés sur les aspects techniques de l’IA pour apporter une contribution significative. La philosophie, bien qu’importante, pourrait ne pas toujours fournir des solutions pratiques aux problèmes techniques complexes rencontrés dans le développement de l’IA. Il est essentiel que les philosophes aient une compréhension de base des technologies sur lesquelles ils réfléchissent, ce qui n’est pas toujours le cas.

Les intérêts divergents des entreprises technologiques

Enfin, il y a la question des intérêts divergents. Les entreprises technologiques sont souvent motivées par des objectifs commerciaux et financiers, tandis que les philosophes peuvent être plus préoccupés par les implications éthiques et sociales. Cette divergence d’intérêts peut créer des tensions et des conflits, rendant la collaboration difficile. Les entreprises peuvent également être réticentes à intégrer des perspectives qui pourraient ralentir leur progression ou nuire à leur rentabilité.

Conclusion

Bien que l’idée de Stephen Wolfram d’intégrer des philosophes dans le développement de l’IA soit noble et nécessaire à bien des égards, elle n’est pas sans défis. La complexité de l’intégration interdisciplinaire, le risque de paralysie par l’analyse, la question de la pertinence et les intérêts divergents des entreprises technologiques sont autant de facteurs qui doivent être pris en compte. Une approche équilibrée, où les philosophes et les ingénieurs travaillent ensemble tout en respectant leurs domaines d’expertise respectifs, pourrait être la clé pour surmonter ces obstacles.

Source : Stephen Wolfram (vidéo dans le texte)

Et vous ?

Pensez-vous que les philosophes peuvent réellement influencer les décisions technologiques des entreprises d’IA ? Pourquoi ou pourquoi pas ?
Pensez-vous que les différences méthodologiques entre philosophes et ingénieurs peuvent être surmontées ? Si oui, comment ?
Quels sont, selon vous, les principaux défis éthiques posés par l’IA aujourd’hui ? Comment les philosophes pourraient-ils contribuer à résoudre ces défis ?
Comment les philosophes peuvent-ils acquérir une compréhension suffisante des aspects techniques de l’IA pour être pertinents dans ce domaine ?
Avez-vous des exemples où une collaboration interdisciplinaire a réussi à surmonter des défis similaires dans d’autres domaines ?
Quels autres domaines de la connaissance devraient être impliqués dans la réflexion sur l’IA, en plus de la philosophie ?
Croyez-vous que les entreprises technologiques prennent suffisamment en compte les implications éthiques de leurs innovations ? Pourquoi ou pourquoi pas ?
Pensez-vous que les entreprises technologiques sont prêtes à accepter des ralentissements potentiels dans leur développement pour intégrer des perspectives éthiques ? Pourquoi ou pourquoi pas ?
Pensez-vous que l’éducation en philosophie devrait être intégrée dans les cursus des ingénieurs et des scientifiques ?
Comment voyez-vous l’avenir de l’IA si nous intégrons davantage de perspectives philosophiques dans son développement ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de rsuinux
Membre actif https://www.developpez.com
Le 28/08/2024 à 6:57
La philosophie dans l'IA ne sert strictement a rien.
Enfin, si , ça peut servir, mais tel que le Monde tourne, non. Pour le moment, l'IA est uniquement utiliser pour virer les personnes et faire du bien aux portefeuilles d'actions des entreprises.
Dire qu'amazon licencie "a cause de l'IA" parce que son modèle économique s'effondre, ça me fait rire. Quel sont les retours des actionnaires d'amazon?
Non pour le moment, les dirigeants d'entreprises ne pense qu'à remplacer l'humain pour faire plaisir aux [banque/actionnaires/autre] c'est tout. L'implication pour la société, tout le monde s'en fout.
4  0 
Avatar de Vilanelle
Membre régulier https://www.developpez.com
Le 28/08/2024 à 11:52
Pas de panique ! Nous avons déjà en France les meilleurs philosophes du monde, dignes du siècle des lumières, j'ai nommé BHL et Raphaël Enthoven !
(Humour, ironie, désespoir ...)
4  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 28/08/2024 à 8:03
Pensez-vous que les philosophes peuvent réellement influencer les décisions technologiques des entreprises d’IA ? Pourquoi ou pourquoi pas ?
Non, pour deux raisons :
1. Nous sommes dans un société qui se prétend de rationnalisme/pragmatisme et qui exclue la philosophie
2. Une bonne partie des philosophes qui ont un discours public ne méritent pas ce titre, ils ne sont plus capable de mener une réflexion complète.
Pensez-vous que les différences méthodologiques entre philosophes et ingénieurs peuvent être surmontées ? Si oui, comment ?
Je penses surtout qu'elles ne doivent pas être opposées, chacune doit enrichir l'autre.
Le jour où les ingénieurs se rendront compte qu'avoir un résultat sorti d'un ordinateur n'en fait pas un résultat neutre/objectif/apolitique etc la monde aura bien avancé!
Quels sont, selon vous, les principaux défis éthiques posés par l’IA aujourd’hui ? Comment les philosophes pourraient-ils contribuer à résoudre ces défis ?
L'IA, telle qu'elle est considérée aujourd'hui, amène des solutions absolues et donc intrinsèquement bonnes pour la société.
Mais celles ci ont des implications éthiques sociales et sociétales, quelques philosophes pour le rappeler ne ferait pas de mal.
Les sujets sont notamment abordés de façon statistiques ou probabilistes en ce moment, ce qui n'est pas forcément un mal. Mais que se passe-t-il quand la statistique sacrifie des personnes que la situation précédente de sacrifiait pas?
La décision est-elle toujours aussi bonne? (La réponse varie en fonction de la situation et de nos positionnement politiques notamment)
Comment les philosophes peuvent-ils acquérir une compréhension suffisante des aspects techniques de l’IA pour être pertinents dans ce domaine ?
Ces personnes ne sont pas censées être capables d'ingérer des tonnes d'informations pour en sortir une réflexion qui n'est pas à la portée de tous?
Il existe des livres, des recherches, des experts qui peuvent les renseigner.
D'ailleurs certains de ces experts ou chercheurs ont probablement déjà abordé le sujet d'un point de vue plus philosophique que technique.
Avez-vous des exemples où une collaboration interdisciplinaire a réussi à surmonter des défis similaires dans d’autres domaines ?
On doit trouver des choses du coté de la collaboration entre écologie et industrie par exemple.
Quels autres domaines de la connaissance devraient être impliqués dans la réflexion sur l’IA, en plus de la philosophie ?
Les sciences humaines, l'IA impactera significativement les sociétés, évaluer/prévenir/se préparer à ces impacts ne fera pas de mal à certains.
la sureté aussi, je penses que l'industrie risque d'augmenter sa létalité si on suit les messages que je perçoit aujourd'hui : les incidents courants vont diminuer mais ceux qui se produisent moins risquent d'augmenter (parce que l'IA gère difficilement les exceptions) et les incidents exceptionnels sont souvent plus mortels.
Croyez-vous que les entreprises technologiques prennent suffisamment en compte les implications éthiques de leurs innovations ? Pourquoi ou pourquoi pas ?
Non, l'éthique c'est rarement rentable.
Pensez-vous que les entreprises technologiques sont prêtes à accepter des ralentissements potentiels dans leur développement pour intégrer des perspectives éthiques ? Pourquoi ou pourquoi pas ?
Non, le ralentissement va à l'encontre du capitalisme.
C'est pour ça qu'il existe des règlementations.
Pensez-vous que l’éducation en philosophie devrait être intégrée dans les cursus des ingénieurs et des scientifiques ?
Oui mais non.
Oui elle le devrait mais quelle école veut embaucher un profs qui va suggérer qu'on part dans la mauvaise direction.
Les premiers clients des écoles d'ingé sont des industries ou des futurs industriels. Qui va à l'encontre de ses clients?
Comment voyez-vous l’avenir de l’IA si nous intégrons davantage de perspectives philosophiques dans son développement ?
La question ne se pose pas parce que ça n'arrivera pas (voir ma première réponse)
1  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 18/09/2024 à 18:04
Citation Envoyé par Stéphane le calme Voir le message
Quels sont les avantages et les inconvénients de l’automatisation des tâches par l’IA dans les entreprises ?
Que l'IA n'est pas flexible en plus de ne pas être pas drôle. Automatiser ce que l'on croit automatisable c'est mépriser tout le travail imperceptible que font tous ceux que l'on croit ne faire que des trucs automatiques. j'espère que ceux qui feront ca s'en mordront vite les doigts.

Citation Envoyé par Stéphane le calme Voir le message
Comment les gouvernements devraient-ils réagir face à l’augmentation de l’automatisation et à la possible perte d’emplois ?
La fiscalité, robot ou IA même combat il faut les taxer plutot que de taxer l'emploi. aujourd'hui on fait tout pour virer de l'emploi par la fiscalité alors que c'est de tout l'inverse dont la société a besoin.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que l’IA pourrait créer de nouveaux types d’emplois pour compenser ceux qu’elle remplace ? Si oui, lesquels ?
Oui, chez ceux qui n'en manquent pas aujourd'hui, loin, très loin de la prise en compte des nombreuses personnes non qualifiées pour gérer ces outils et/ou qui ont un sens éthique et social suffisamment développé pour ne pas avoir envie d'y contribuer.

Citation Envoyé par Stéphane le calme Voir le message
Comment les entreprises peuvent-elles préparer leurs employés à travailler aux côtés de l’IA ?
en développant des services flexibles qui marqueront le manque d’intérêt de ce qui est produit pas les IA. A définir des stratégie pour ne pas les adopter.

Citation Envoyé par Stéphane le calme Voir le message
Quels sont les défis éthiques liés à l’utilisation de l’IA dans le monde professionnel ?
Aujourd'hui le gros sujet c'est que l'IA ne construise pas sa valeur sur le travail produit par les humains qu'elle vise à écarter à moyen terme.

Citation Envoyé par Stéphane le calme Voir le message
Comment les entreprises peuvent-elles assurer une transition équitable pour les employés dont les postes sont automatisés ?
Pourquoi les entreprises devraient souhaiter cela ? Une entreprise est une machine à cash qui peut avoir vocation à engraisser des actionnaire mais qui peut aussi plus largement avoir comme objectif de faire vivre des gens.

Citation Envoyé par Stéphane le calme Voir le message
Voyez-vous des secteurs où l’IA ne devrait pas être utilisée ? Pourquoi ?
La totalité des métiers de création, quels qu'ils soient. La totalité des métiers à faible qualification.

Citation Envoyé par Stéphane le calme Voir le message
Comment les entreprises peuvent-elles utiliser l’IA de manière responsable tout en restant compétitives ?
l'IA a t-elle démontrée sa toute puissance aujourd’hui ? a par les hallucinations, la consommation d'énergie et l'absence d'humour elle n'a pas démontré grand chose aujourd'hui.
1  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 28/08/2024 à 12:03
Elon, Mark, Jeff, Larry, Sam et les autres font régulièrement de grandes interventions philosophiques ; ce sont des philosophes pleinement engagés pour le bien de la société.
Si au final c'est catastrophique pour la société ce n'est qu'un coup de pas d'bol. (on me souffle dans l'oreillette qu'il y a peut être confusion entre société et leur société)
0  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 19/09/2024 à 9:16
Ce n'est pas I.A, c'est de l'automation comporte-mentale. L'I.A est invoquée comme la "main invisible" du marché à une certaine époque.
L'I.A est disruptive du marché du savoir et de l'ensemble de ses applications (sciences, éducation, etc.).
La bombe nucléaire est disruptive du marché de la guerre et de l'ensemble de ses tactiques.
La fusion nucléaire est disruptive du marché de l'énergie et de l'ensemble de ses sources.
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 21/09/2024 à 10:00
Citation Envoyé par petitours Voir le message

La fiscalité, robot ou IA même combat il faut les taxer plutot que de taxer l'emploi. aujourd'hui on fait tout pour virer de l'emploi par la fiscalité alors que c'est de tout l'inverse dont la société a besoin.
Non applicable, déjà il faut avoir une harmonie dans la fiscalité au seins des grandes puissance ce serait bien.
Aux USA toute les boites vont au Delaware, en UE elles vont toutes au Luxembourg, Irlande, Malte et Pays Bas.
Au niveau mondial, la liste et trop longue.

Les pays qui vont taxer, les usines vont juste aller ailleurs dans les pays plus accueillants.
Aussi longtemps que la seul solution des politiciens soit la "redoutable" arme: une liste noir oh la la j'ai peur rien que de prononcer son nom.
0  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 21/09/2024 à 10:20
Citation Envoyé par calvaire Voir le message
Non applicable, déjà il faut avoir une harmonie dans la fiscalité au seins des grandes puissance ce serait bien.
Aux USA toute les boites vont au Delaware, en UE elles vont toutes au Luxembourg, Irlande, Malte et Pays Bas.
Au niveau mondial, la liste et trop longue.

Les pays qui vont taxer, les usines vont juste aller ailleurs dans les pays plus accueillants.
Aussi longtemps que la seul solution des politiciens soit la "redoutable" arme: une liste noir oh la la j'ai peur rien que de prononcer son nom.
Vu que nous partageons tous la même planète les problèmes sont tous internationaux, les solutions aussi.
0  0