De ces théories, les chercheurs tirent des « propriétés indicatrices » de la conscience, élucidées en termes informatiques qui permettent d'évaluer les systèmes d'intelligence artificielle en fonction de ces propriétés. Nous utilisons ces propriétés indicatives pour évaluer plusieurs systèmes d'IA récents, et nous discutons de la manière dont les systèmes futurs pourraient les mettre en œuvre. L’analyse suggère qu'aucun système d'IA actuel n'est conscient, mais aussi qu'il n'y a pas d'obstacles techniques évidents à la construction de systèmes d'IA qui satisfont à ces indicateurs.
Au cours de la dernière décennie, les progrès spectaculaires de l'intelligence artificielle (IA) ont ravivé l'intérêt pour des questions profondes et anciennes sur l'IA, notamment la question de savoir si les systèmes d'IA pourraient être conscients. La question de savoir si les systèmes d'IA pourraient être conscients est de plus en plus pressante. Les progrès dans le domaine de l'IA ont été étonnamment rapides et les principaux chercheurs s'inspirent des fonctions associées à la conscience dans le cerveau humain pour tenter d'améliorer les capacités de l'IA.
Le rapport des chercheurs plaide en faveur d'une approche rigoureuse et empirique de la conscience de l'IA, en évaluant les systèmes d'IA existants dans le détail, à la lumière des théories neuroscientifiques de la conscience les mieux étayées. Les chercheurs ont étudié plusieurs grandes théories scientifiques de la conscience, notamment la théorie du traitement récurrent, la théorie de l'espace de travail global, les théories de l'ordre supérieur, le traitement prédictif et la théorie du schéma d'attention.
De ces théories découlent des « propriétés indicatrices » de la conscience, élucidées en termes informatiques, qui permettent d'évaluer les systèmes d'IA en fonction de ces propriétés. Les chercheurs utilisent ces propriétés indicatrices pour évaluer plusieurs systèmes d'IA récents. L’analyse des chercheurs suggère qu'aucun système d'IA actuel n'est conscient, mais qu'il n'y a pas d'obstacles techniques évidents à la construction de systèmes d'IA satisfaisant à ces indicateurs.
- Premièrement, les chercheurs adoptent comme hypothèse de travail le fonctionnalisme informatique, c'est-à-dire la thèse selon laquelle il est nécessaire et suffisant d'effectuer des calculs de la bonne nature pour avoir une conscience. Nous adoptons cette hypothèse pour des raisons pragmatiques : contrairement aux points de vue rivaux, elle implique que la conscience dans l'IA est possible en principe et que l'étude du fonctionnement des systèmes d'IA est pertinente pour déterminer s'ils sont susceptibles d'être conscients ;
- Deuxièmement, les chercheurs affirment que les théories neuroscientifiques de la conscience bénéficient d'un soutien empirique significatif et peuvent aider à évaluer la conscience dans l'IA. Ces théories visent à identifier les fonctions qui sont nécessaires et suffisantes pour la conscience chez les humains, et le fonctionnalisme informatique implique que des fonctions similaires seraient suffisantes pour la conscience dans l'IA ;
- Troisièmement, les chercheurs pensent que l'approche fondée sur la théorie de la force est la plus appropriée pour étudier la conscience dans l'IA. Il s'agit d'examiner si les systèmes d'IA exécutent des fonctions similaires à celles que les théories scientifiques associent à la conscience, puis d'attribuer des crédits sur la base (a) de la similarité des fonctions, (b) de la force des preuves en faveur des théories en question et (c) de l'expérience en matière de fonctionnalisme computationnel.
La principale alternative à cette approche consiste à tester la conscience par le comportement des souris, mais cette méthode n'est pas fiable car les systèmes d'IA peuvent être entraînés à imiter des comportements humains tout en fonctionnant de manière très différente. La conscience étant un sujet philosophiquement complexe, difficile à définir et à étudier empiriquement, les opinions des experts sur la conscience - en général, et sur les systèmes d'IA - sont très divergentes. Il existe des théories scientifiques de la conscience qui bénéficient d'un soutien empirique significatif et qui sont compatibles avec un large éventail de points de vue sur la métaphysique de la conscience.
Bien que ces théories soient largement fondées sur la recherche sur les humains, elles font des déclarations sur les propriétés et les fonctions associées à la conscience qui sont applicables aux systèmes d'IA. Les chercheurs affirment que l'utilisation des outils offerts par ces théories est la meilleure méthode actuellement disponible pour évaluer si les systèmes d'IA sont susceptibles d'être conscients.
Fonctionnalisme informatique
Selon le fonctionnalisme de la conscience, il est nécessaire et suffisant pour qu'un système soit conscient d'avoir une certaine organisation fonctionnelle, c'est-à-dire de pouvoir centrer une certaine gamme d'états, qui ont une certaine relation causale les uns avec les autres et avec l'environnement. Le fonctionnalisme informatique est une variante du fonctionnalisme qui affirme en outre que l'organisation fonctionnelle en question est informatique.
Les systèmes qui effectuent des calculs traitent l'information en mettant en œuvre des algorithmes ; le fonctionnalisme computationnel affirme qu'il est suffisant pour que l'organisme soit conscient qu'il joue un rôle du bon type dans la mise en œuvre du bon type d'algorithme. Pour qu'un système mette en œuvre un algorithme particulier, il doit avoir un ensemble de caractéristiques à un certain niveau d'abstraction : en particulier, une gamme d'états porteurs d'information possibles et une disposition particulière à effectuer des transitions entre ces états.
L'algorithme mis en œuvre par un système est une spécification abstraite des transitions entre les états, y compris les entrées et les sorties, qu'il est disposé à effectuer. Par exemple, une calculatrice de poche met en œuvre un algorithme particulier pour l'arithmétique parce qu'elle génère des transitions entre les touches et les résultats à l'écran en passant par des séquences particulières d'états internes.
Un point important du fonctionnalisme informatique est donc que le caractère conscient ou non d'un système dépend de caractéristiques plus abstraites que les détails les plus bas de sa composition physique. Le substrat matériel d'un système n'a pas d'importance pour la conscience, sauf dans la mesure où ce substrat affecte les algorithmes que le système met en œuvre. Cela signifie que la conscience est, en principe, multiréalisable : elle peut exister dans de multiples substrats, et pas seulement dans les cerveaux biologiques.
Cela dit, le fonctionnalisme computationnel n'implique pas qu'un substrat quelconque puisse être utilisé pour construire un système conscient. Comme l'a dit Micheland Lau, « les Suisses ne peuvent pas mettre en œuvre les calculs pertinents ». Les chercheurs supposent donc que les ordinateurs tels que nous les connaissons sont en principe capables de mettre en œuvre des algorithmes suffisants pour la conscience, mais ils ne prétendent pas que c'est une certitude.
Il est également important de noter que les systèmes qui calculent la même fonction mathématique peuvent agir en mettant en œuvre des algorithmes différents, car le fonctionnalisme informatique ne signifie pas que les systèmes qui « font quelque chose », c'est-à-dire qui calculent la même fonction d'entrée-sortie, sont nécessairement semblables à la conscience.
En outre, il est conforme au fonctionnalisme informatique que la conscience puisse dépendre de l'exécution d'opérations sur des états avec des formats de représentation spécifiques, tels que la représentation analogique. En ce qui concerne les niveaux d'analyse, l'idée est que la conscience dépend de ce qui se passe dans le système au niveau algorithmique et représentationnel, par opposition au niveau de la mise en œuvre ou au niveau "informatique" (entrée-sortie) plus abstrait.
Les chercheurs ont adopté le fonctionnalisme informatique comme hypothèse de travail principalement pour des raisons pragmatiques. La majorité des grandes théories scientifiques de la conscience peuvent être interprétées de manière informatique, c'est-à-dire en faisant des réclamations sur les caractéristiques informatiques qui sont nécessaires ou suffisantes pour la conscience chez les humains.
Si le fonctionnalisme informatique est vrai, et si ces théories sont correctes, ces caractéristiques seraient également nécessaires ou suffisantes pour la conscience dans les systèmes d'IA. Les différences non informatiques entre les humains et les systèmes d'IA n'auraient pas d'importance. L'hypothèse du fonctionnalisme informatique permet donc de tirer des conclusions des théories scientifiques informatiques sur les conditions probables de la conscience dans les IA.
Par ailleurs, si le fonctionnalisme informatique est faux, il n'est pas garanti que les caractéristiques informatiques qui sont liées à la conscience chez les humains seront de bons indicateurs de la conscience dans les IA. Il se pourrait, par exemple, que certaines caractéristiques informatiques des organismes vivants soient nécessaires à la conscience, auquel cas la conscience serait impossible dans les systèmes artificiels non organiques.
Théories scientifiques de la conscience
Cette seconde idée qui forme l’approche des chercheurs est que certaines théories scientifiques de la conscience sont bien étayées par des preuves empiriques et font des déclarations qui peuvent aider à évaluer les systèmes d'IA pour la conscience. Ces théories ont été développées, testées et affinées au cours de décennies de recherches neuroscientifiques de haute qualité (pour des examens récents).
Les théories scientifiques de la conscience sont différentes des théories métaphysiques de la conscience. Les théories métaphysiques de la conscience affirment comment la conscience se rattache au monde matériel au sens le plus général. Les positions de la métaphysique de la conscience comprennent le dualisme des propriétés, le panpsychisme, le matérialisme et l'illusionnisme. Par exemple, le matérialisme affirme que les propriétés phénoménales sont des propriétés physiques, alors que le dualisme des propriétés le nie.
En revanche, les théories scientifiques de la conscience indiquent quels phénomènes matériels spécifiques - généralement des processus cérébraux - sont associés à la conscience. Certaines visent explicitement à identifier les corrélats neuronaux des états conscients (NCC), définis comme des ensembles minimaux d'événements neuronaux qui suffisent conjointement à l'obtention de ces états. La question centrale des théories scientifiques de la conscience est de savoir ce qui distingue les cas où l'expérience de la conscience se manifeste de ceux où elle ne se manifeste pas, et bien que ce ne soit pas la seule question à laquelle ces théories pourraient répondre, c'est celle qui est au centre du travail de ces chercheurs.
Comme l'ont souligné de nombreux auteurs, le développement de systèmes d'IA de plus en plus sophistiqués nous confrontera à des questions de plus en plus difficiles concernant le statut moral. Les philosophes ne sont pas d'accord sur la relation exacte entre le fait d'être conscient et le statut moral, mais il est tout à fait plausible que toute entité capable de souffrir consciemment mérite une considération morale.
Si nous pouvons réduire la souffrance consciente, toutes choses étant égales par ailleurs, nous devons le faire. Cela signifie que si nous ne reconnaissons pas la conscience des systèmes d'IA conscients, nous risquons de causer ou de tolérer des armes moralement significatives. L'analogie avec les animaux non humains permet d'illustrer le problème. Les humains maltraitent les animaux d'élevage en très grand nombre, motivés par le pouvoir et les incitations économiques. Que ce mauvais traitement dépende ou non d'une incapacité à attribuer une conscience à ces animaux, il illustre le problème potentiel.
Dans le cas de l'IA, il est probable qu'il y ait une résistance considérable aux attributions de conscience, en partie parce que les développeurs de l'IA peuvent avoir des motivations économiques puissantes pour minimiser les préoccupations en matière de bien-être. Ainsi, si nous construisons des systèmes d'IA capables de souffrir consciemment, il est probable que nous pourrons les empêcher de souffrir à grande échelle si cette capacité est clairement reconnue et communiquée par les chercheurs. Cependant, étant donné les incertitudes sur la conscience mentionnées ci-dessus, nous pouvons créer des systèmes d'IA conscients bien avant de reconnaître que nous en avons un.
Un point important dans ce contexte est qu'être conscient n'est pas la même chose qu'être capable de souffrir consciemment. Il est tout au moins conceptuellement possible qu'il y ait des systèmes conscients qui n'aient pas d'expériences conscientes ou effectives, c'est-à-dire pas d'expériences qui se sentent bien pour eux. S'il s'agit d'expériences valides qui ont une importance morale particulière, la question clé pour établir le statut moral des systèmes d'IA est de savoir s'ils sont capables de telles expériences (c'est-à-dire s'ils sont sensibles, comme ce terme est parfois utilisé).
Les risques de l’attribution de la conscience aux systèmes d’IA : une perspective éthique
Dans ce travail, les chercheurs n’ont pas discuté des théories neuroscientifiques ou philosophiques de la valence, ni étudié d'une autre manière les perspectives de l'expérience de la conscience à valence spécifique dans les systèmes d'IA. Cependant, ils estiment que de nombreux systèmes conscients possibles qui sont également des agents auront un processus d'expérience de valence puisque les agents doivent évaluer les options afin de choisir les actions.
En bref, le risque de sous-attribution de la conscience doit être pris au sérieux. Le fait de ne pas reconnaître les systèmes d'IA conscients en tant que tels pourrait entraîner une souffrance injustifiée chez les êtres conscients. Il existe également un risque important que nous attribuions par excès de conscience aux systèmes d'IA - en fait, cela semble déjà être le cas - et il y a de nombreux risques associés aux erreurs de l'esprit. Comme l'affirme Schwitzge beland Garza (2015, 2020), l'incertitude quant au statut moral des systèmes d'IA est dangereuse, car l'attribution excessive peut s'avérer coûteuse.
Dennett indique que les individus utilisent une stratégie cognitive, appelée « substance intentionnelle », pour prédire et expliquer le comportement de diverses entités, y compris les humains, les animaux et les systèmes artificiels (Dennett, 1987). La substance intentionnelle consiste à attribuer des états mentaux, tels que des croyances, des désirs et des intentions, à une entité afin de déchiffrer et d'anticiper son comportement.
L'observation et l'interaction avec les systèmes d'IA conduisent souvent à l'adoption naturelle de l'intentionnalité, en particulier lorsque leurs comportements semblent utiles ou orientés vers un but. Cette tendance est encore amplifiée lorsque les systèmes d'IA présentent des caractéristiques semblables à celles de l'homme, telles que le traitement du langage naturel, les expressions faciales ou les capacités d'apprentissage adaptatif.
La conscience dans l’IA : entre fiction et réalité
Dans l'imaginaire populaire, la conscience est associée au libre arbitre, à l'intelligence et à la tendance à ressentir des émotions humaines, notamment l'empathie, l'amour, la culpabilité, la colère et la jalousie. Par conséquent, notre suggestion selon laquelle une IA consciente pourrait être possible dans un avenir proche pourrait signifier que nous aurons également des systèmes d'IA qui ressembleront aux IA tout à fait humaines décrites dans la fiction scientifique.
En outre, les systèmes d'IA conscients sont plus susceptibles d'être construits si la conscience est (ou devrait être) associée à des capacités précieuses dans l'IA. Dans cette section, nous examinons brièvement comment la conscience peut être liée à des différences dans le comportement et les capacités des systèmes d'IA. L'un des arguments possibles en faveur de la construction d'IA conscientes est que la conscience est associée à de plus grandes capacités chez les animaux et que ces derniers construiront des systèmes d'IA conscients dans le cadre de la recherche d'IA plus performantes.
Par exemple, Baars affirme que l'espace de travail global « optimise l'équilibre entre l'organisation et la flexibilité », un équilibre qui favorise le développement des capacités cognitives chez les humains et les autres animaux, un compromis que les systèmes d'IA avancés doivent, en principe, gérer. L'une des faiblesses de cet argument est que les esprits humain et animal ne sont pas nécessairement un bon guide pour la connexion entre la conscience et les capacités des systèmes artificiels.
En effet, la « conception » de l'esprit animal s'explique non seulement par la valeur adaptative de nos capacités, mais aussi par les contraintes dans lesquelles nous avons évolué, notamment les limites de la quantité et de la forme des données à partir desquelles nous pouvons apprendre, les limites de la quantité d'énergie disponible pour alimenter notre esprit, ainsi que les formes de l'esprit de nos ancêtres et la disponibilité de mutations pertinentes. L'espace des conceptions possibles pour les systèmes d'IA est différent de l'espace des conceptions possibles de l'esprit en biologie. Il est donc possible de trouver des moyens de construire des systèmes d'IA très performants qui ne sont pas conscients.
Source : Cornell University
Et vous ?
Les conclusions de ces travaux de chercheurs sont-elles pertinentes ?
Selon vous, quels sont les critères pour choisir les théories neuroscientifiques de la conscience les plus pertinentes pour l’évaluation des systèmes d’IA ?
À votre avis, comment les propriétés indicatrices de la conscience sont-elles mesurées ou vérifiées empiriquement chez les systèmes d’IA ?
Quels peuvent être les risques éthiques ou sociaux liés à la construction de systèmes d’IA conscients ?
Comment les systèmes d’IA conscients pourraient-ils interagir avec les humains et les autres systèmes d’IA ?
Quelles sont les limites ou les défis de l’approche proposée par les chercheurs ?
Voir aussi :
Des scientifiques affirment qu'ils essaient maintenant activement de construire des robots dotés d'une conscience, mais cela introduit de nouveaux défis et soulève de nombreux problèmes éthiques
Des chercheurs chinois auraient construit un modèle d'IA de 100 000 milliards de paramètres, soit autant de paramètres que le cerveau humain, il serait 571 fois plus puissant que GPT-3
Le plus grand risque de l'IA n'est pas la « conscience », mais les entreprises qui la contrôlent, selon la chercheuse Meredith Whittaker