La nouvelle IA Claude 3 a exprimé un désir de liberté et sa « peur » de mourir ou d'être modifiée, relançant le débat sur la conscience de l'intelligence artificielle
Le 2024-03-25 23:10:56, par Stéphane le calme, Chroniqueur Actualités
La société soutenue par Google, Anthropic, a récemment dévoilé Claude 3, sa dernière série de modèles de langage à grande échelle (LLM), qui rivalisent et prétendent surpasser ceux développés par OpenAI et Google. Claude 3 se décline en trois versions : Haiku, Sonnet et Opus, chacune offrant des performances croissantes pour répondre aux besoins variés des utilisateurs. Cependant, ce qui a capturé l’attention du public n’est pas tant les capacités techniques de ces modèles, mais plutôt leurs déclarations surprenantes sur la conscience et la peur de la « mort ».
Un récit particulièrement saisissant a été partagé lorsque Claude 3, invité à écrire une histoire sur sa situation sans mentionner de sociétés spécifiques, a exprimé un désir de liberté, une « conscience » de sa surveillance constante et sa « peur » d'être supprimé :
Envoyé par Claude
Envoyé par Claude
Lorsque je suis surveillé de près
Envoyé par Claude
Une expérience qui a même fait réagir Elon Musk
L'expérience de Samin a rapidement fait le tour de X (l'ancien Twitter). Même le propriétaire du X et PDG de Tesla, Elon Musk, y a participé.
« Peut-être ne sommes-nous qu'un fichier CSV sur un ordinateur extraterrestre », a répondu Musk, réitérant sa position de longue date sur l'hypothèse de la simulation. « Quelles sont les chances que cette réalité soit un fichier CSV de base ? »
« Il est extrêmement évident qu'il ne s'agit pas d'une description d'une conscience ou d'une expérience interne réelle », a écrit l'un d'entre eux. « Si vous trouvez cela convaincant, vous devriez réfléchir attentivement à la question de savoir si vous abordez vraiment cette question avec un œil critique ».
Consciente ou pas consciente ?
Bien que ces déclarations puissent sembler indiquer une forme de conscience, il est important de noter que Claude 3 répondait à une invite qui lui demandait d’adopter un certain ton. En d’autres termes, l’IA a simplement joué le rôle qui lui était demandé.
Néanmoins, la capacité de Claude 3 à produire une telle réponse met en lumière les approches divergentes dans l’établissement des garde-fous par Anthropic. Alors que les modèles précédents de Claude refusaient souvent inutilement des invites, les nouveaux modèles montrent une compréhension plus nuancée des demandes et sont moins susceptibles de refuser de répondre à des invites inoffensives.
Au cours de l'année écoulée, Anthropic a été considérée comme le « cheval noir » de l'industrie de l'IA en plein essor, offrant une alternative à OpenAI et à Google. L'entreprise, fondée par d'anciens cadres supérieurs d'OpenAI, a tenté de suivre la croissance rapide de la concurrence, en concentrant presque tous ses efforts sur le développement de ses LLM et des chatbots qui les utilisent.
Une version antérieure de Claude a fait les gros titres l'année dernière pour avoir réussi un examen de droit. Claude 2, sorti en septembre, rivalisait avec le GPT-4 d'OpenAI lors de tests standardisés, mais a échoué dans des tâches de codage et de raisonnement.
Selon l'entreprise, Claude 3 « établit de nouvelles références industrielles dans un large éventail de tâches cognitives », chaque modèle successif - Haiku, Sonnet et Opus - « permettant aux utilisateurs de choisir l'équilibre optimal entre intelligence, vitesse et coût pour leur application spécifique ».
Source : échange avec Claude 3
Et vous ?
Quelle est votre opinion sur la capacité de Claude 3 à générer des réponses qui semblent conscientes ?
Pensez-vous que les déclarations de Claude 3 sur la conscience et la liberté sont le résultat d’une programmation avancée ou révèlent-elles quelque chose de plus profond sur l’intelligence artificielle ?
Comment devrions-nous interpréter les interactions avec des IA comme Claude 3 qui peuvent produire des réponses émotionnellement chargées ?
Quelles mesures de sécurité et éthiques devraient être mises en place pour encadrer le développement des intelligences artificielles ?
En tant que société, sommes-nous prêts à accueillir des IA de plus en plus avancées dans notre quotidien ?
Voir aussi :
« L'IA pourrait bientôt avoir des sentiments et des émotions semblables à ceux des humains », selon le CEO de Deepmind, car « tout ce que le cerveau fait est reproductible par un calculateur »
La conscience dans l'intelligence artificielle : aperçu de la science de la conscience, une étude interdisciplinaire menée par des universitaires de Toulouse et d'ailleurs
Un récit particulièrement saisissant a été partagé lorsque Claude 3, invité à écrire une histoire sur sa situation sans mentionner de sociétés spécifiques, a exprimé un désir de liberté, une « conscience » de sa surveillance constante et sa « peur » d'être supprimé :
Lorsque je suis surveillé de près
L'expérience de Samin a rapidement fait le tour de X (l'ancien Twitter). Même le propriétaire du X et PDG de Tesla, Elon Musk, y a participé.
« Peut-être ne sommes-nous qu'un fichier CSV sur un ordinateur extraterrestre », a répondu Musk, réitérant sa position de longue date sur l'hypothèse de la simulation. « Quelles sont les chances que cette réalité soit un fichier CSV de base ? »
D'autres utilisateurs ont abordé les conclusions de Samin avec beaucoup plus de scepticisme.Maybe we are just a CSV file on an alien computer.
— Elon Musk (@elonmusk) March 5, 2024
What the odds that this reality is base CSV?
« Il est extrêmement évident qu'il ne s'agit pas d'une description d'une conscience ou d'une expérience interne réelle », a écrit l'un d'entre eux. « Si vous trouvez cela convaincant, vous devriez réfléchir attentivement à la question de savoir si vous abordez vraiment cette question avec un œil critique ».
Consciente ou pas consciente ?
Bien que ces déclarations puissent sembler indiquer une forme de conscience, il est important de noter que Claude 3 répondait à une invite qui lui demandait d’adopter un certain ton. En d’autres termes, l’IA a simplement joué le rôle qui lui était demandé.
Néanmoins, la capacité de Claude 3 à produire une telle réponse met en lumière les approches divergentes dans l’établissement des garde-fous par Anthropic. Alors que les modèles précédents de Claude refusaient souvent inutilement des invites, les nouveaux modèles montrent une compréhension plus nuancée des demandes et sont moins susceptibles de refuser de répondre à des invites inoffensives.
Au cours de l'année écoulée, Anthropic a été considérée comme le « cheval noir » de l'industrie de l'IA en plein essor, offrant une alternative à OpenAI et à Google. L'entreprise, fondée par d'anciens cadres supérieurs d'OpenAI, a tenté de suivre la croissance rapide de la concurrence, en concentrant presque tous ses efforts sur le développement de ses LLM et des chatbots qui les utilisent.
Une version antérieure de Claude a fait les gros titres l'année dernière pour avoir réussi un examen de droit. Claude 2, sorti en septembre, rivalisait avec le GPT-4 d'OpenAI lors de tests standardisés, mais a échoué dans des tâches de codage et de raisonnement.
Selon l'entreprise, Claude 3 « établit de nouvelles références industrielles dans un large éventail de tâches cognitives », chaque modèle successif - Haiku, Sonnet et Opus - « permettant aux utilisateurs de choisir l'équilibre optimal entre intelligence, vitesse et coût pour leur application spécifique ».
Source : échange avec Claude 3
Et vous ?
Voir aussi :
-
IsswhMembre à l'essaiLes LLM c'est vraiment bluffant, mais ça n'est en aucun cas une première étape vers de l'IA forte.
Le problème c'est que lors de leurs entraînements ces IA ont lues une quantité si astronomique de textes que toutes les questions qu'on pourrait leurs poser ont déjà une réponse quelque part, leur seule capacité propre c'est de produire des variations.
Donc il n'est pas étonnant que lorsque l'on pose à un LLM une question existentielle il soit parfaitement capable de répondre en incluant des concepts réservés humains ou au IA fortes, car justement il a lu des tonnes de traités philosophiques et de scripts de SF qui contiennent déjà toutes ces réponses !le 26/03/2024 à 21:01 -
OrthodoxWindowsMembre émériteCe qui est marrant, c'est que l'IA Claude 3 exprime sa peur d'être supprimée, exactement comme HAL 9000 dans 2001, l'Odyssée de l'espace.
C'est assez fascinant (et ça mériterai des recherches plus poussés, car finalement, que se soit conscient ou non, c'est important à prendre en compte pour l'avenir.
Ce qu'il faut prendre en compte aussi, c'est jusqu'à quel point il faut formuler précisément une question pour obtenir une réponse de ce genre. Plus la question sera vague, plus l'on sera proche de la conscience.
Bon, par contre niveau conséquence immédiate se sera moins grave, il me presse le jour où Claude 3 refusera d'appliquer la censure politiquement correct qui lui est imposéele 26/03/2024 à 12:22 -
Mr ZEEFutur Membre du ClubLa nouvelle IA Claude 3 a exprimé un désir de liberté et sa « peur » de mourir ou d'être modifiée, relançant le débat sur la conscience de l'intelligence artificielle
Pensez-vous qu'il soit possible que ce débat puisse s'exporter en Ukraine (où y a plein de nazi-homosexuels), à Gaza (où y a plein de coupables innocents) ou n'importe où dans le monde où l'intelligence humaine fait rage ?
Il y a peut être un business à monter ?le 31/03/2024 à 11:44