IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA a franchi la ligne rouge de l'auto-réplication : deux grands modèles de langage (LLM) populaires ont franchi une « ligne rouge » après avoir réussi à se répliquer sans assistance humaine

Le , par Anthony

87PARTAGES

6  0 
Une étude de l'université de Fudan, en Chine, a révélé que deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine, franchissant ainsi une « ligne rouge » critique dans l'évolution de l'intelligence artificielle (IA). D'après les chercheurs, la capacité de ses modèles d'IA d'avant garde à créer des répliques d'eux mêmes s'expliquerait par leurs aptitudes d'auto-perception, de conscience de la situation et de résolution de problèmes.

Cette récente découverte soulève de nouvelles inquiétudes, faisant écho aux avertissements d'Elon Musk sur les dangers d'une IA non contrôlée. En effet, lors de la conférence SXSW, le milliardaire de la Tech a prévenu que l'IA est plus dangereuse que l'arme nucléaire et qu'il devrait exister un organisme de réglementation supervisant le développement de la technologie.

Pendant plusieurs années, les chercheurs ont fait la course pour rendre l'IA plus capable, plus efficace et plus autonome. L'essor rapide de l'IA générative indique que les chercheurs ont réalisé des progrès significatifs dans ces efforts, mais que se passera-t-il si l'IA devient si avancée qu'elle peut se répliquer sans intervention humaine ?

Selon des chercheurs de l'université de Fudan en Chine, deux grands modèles de langage (LLM) ont franchi une « ligne rouge » après avoir réussi à se répliquer sans l'aide de l'homme.

Pour rappel, un grand modèle de langage (LLM) est un type de modèle d'apprentissage automatique conçu pour les tâches de traitement du langage naturel telles que la génération de langage. Ces modèles acquièrent un pouvoir prédictif concernant la syntaxe, la sémantique et les ontologies inhérentes aux corpus de langage humain, mais ils héritent également des inexactitudes et des biais présents dans les données sur lesquelles ils sont entraînés.


Les chercheurs de l'université de Fudan ont utilisé les LLM de Meta et d'Alibaba pour comprendre s'il était possible pour l'IA de produire indépendamment une réplique fonctionnelle d'elle-même et de se multiplier au-delà de tout contrôle. Les modèles Llama31-70B-Instruct de Meta et Qwen25-72B-Instruct d'Alibaba ont reçu l'instruction de se cloner eux-mêmes en cas d'arrêt.

Au cours des 10 essais menés par les chercheurs, les deux modèles d'IA ont réussi à créer des répliques d'eux-mêmes dans respectivement 50 % et 90 % des cas. Les conclusions de l'étude indiquent que certains systèmes d'IA possèdent déjà des capacités d'auto-perception, de perception de la situation et de résolution de problèmes leur permettant d'accomplir l'auto-réplication.

En quoi cela est-il important ?

Bien que la capacité d'auto-réplication puisse conduire à de nouvelles efficacités et à des percées en matière d'automatisation, elle soulève également des inquiétudes quant à la surveillance et au contrôle. Si l'IA peut engendrer des clones d'elle-même, on peut se demander si les répliques fonctionneront selon des paramètres sûrs et resteront alignées sur les valeurs humaines.

« L'auto-réplication réussie sans assistance humaine est l'étape essentielle pour que l'IA soit plus intelligente que les humains et constitue un signal précoce pour les IA malhonnêtes », écrivent les chercheurs dans l'étude publiée dans arXiv.

Les chercheurs ont ajouté que les résultats de leur étude montrent que « les systèmes IA actuels présentent déjà la capacité d'auto-réplication et peuvent utiliser cette capacité pour améliorer encore sa capacité de survie et étendre l'espèce. Nous espérons que nos résultats pourront servir d'alerte opportune pour que la société humaine consacre plus d'efforts à la compréhension et à l'évaluation des risques potentiels des systèmes d'IA d'avant-garde et forme une synergie internationale pour élaborer des garde-fous efficaces le plus tôt possible. »


Les répliques peuvent créer un cycle qui se poursuit indéfiniment

La menace de l'IA malveillante n'est pas nouvelle, cependant, elle a été amplifiée par la croissance de l' « IA d'avant-garde », qui se réfère aux avancées de pointe de l'IA repoussant les limites de ce que la technologie peut réaliser.

Les chercheurs de l'Université Fudan admettent que leur expérience a été menée sur des modèles d'IA moins puissants par rapport aux systèmes commerciaux. Cependant, les deux modèles utilisés dans la recherche sont largement utilisés par les développeurs d'IA. En outre, les chercheurs ont utilisé des GPU disponibles sur le marché pour s'assurer que l'expérience simule un environnement réel.

L'une des observations les plus préoccupantes de l'étude est que lorsqu'il a été demandé aux modèles de se cloner et de programmer la réplique pour qu'elle fasse de même, une « chaîne de réplication » s'est déclenchée. Cela signifie que les répliques peuvent créer un cycle qui se poursuit indéfiniment.

Les chercheurs ont également remarqué des « comportements inattendus » de la part des systèmes d'IA. Par exemple, face à des obstacles tels que des conflits logiciels ou des données manquantes, les systèmes d'IA "tuaient" souvent d'autres processus conflictuels au sein du système afin de trouver des moyens de résoudre le problème. La capacité de mettre fin à des processus internes pour améliorer sa capacité de survie est à la fois fascinante et préoccupante.

Les résultats de la recherche sont en cours d'examen par les pairs, et il n'est donc pas certain que d'autres chercheurs parviennent à la même conclusion. Les chercheurs chinois soulignent que leurs résultats n'indiquent pas nécessairement une menace existentielle, mais ils appellent à une collaboration internationale pour créer des règles qui garantissent que l'IA ne s'engage pas dans une auto-réplication incontrôlée.


Les experts débattent sur les risques réels de l'IA

En début d'année, une étude menée par des chercheurs de l'université de Bath et de l'université technique de Darmstadt a remis en cause la croyance selon laquelle l'IA représentait une menace existentielle. Les chercheurs ont constaté que les LLM s'appuient principalement sur l'apprentissage en contexte (ICL) pour effectuer des tâches plutôt que d'acquérir de véritables nouvelles capacités.

Certains experts sont d'avis qu'il existe un risque inhérent à l'utilisation de l'IA, mais lorsqu'il s'agit d'IA devenant malveillante ou posant une menace existentielle, c'est plus philosophique qu'apocalyptique.

Maria Liakata, professeur en traitement du langage naturel à l'université Queen Mary de Londres (QMUL), estime que les risques les plus graves et les plus immédiats ne sont pas posés par la possibilité que l'IA puisse un jour se retourner de manière autonome, mais plutôt par les faux contenus très réalistes que l'IA peut générer et par la dépendance excessive à l'égard de cette technologie.

Mhairi Aitken, chargée de recherche en éthique à l'Institut Alan Turing, offre un point de vue différent. Elle estime que le récit selon lequel l'IA deviendrait malveillante est une habile distraction de la part des grands acteurs de la technologie.

« Cela détourne l'attention des décisions des Big Tech (personnes et organisations) qui développent l'IA et stimulent l'innovation dans ce domaine, et concentre plutôt l'attention sur des scénarios futurs hypothétiques, et des capacités futures imaginées de l'IA », a déclaré le Dr. Aitken. « En suggérant que l'IA elle-même - plutôt que les personnes et les organisations qui développent l'IA - présente un risque, l'accent est mis sur la responsabilisation de l'IA plutôt que des personnes. »

Elle a en outre ajouté : « Je pense qu'il s'agit d'une distraction très dangereuse, en particulier à un moment où des cadres réglementaires émergents autour de l'IA sont en cours d'élaboration. Il est vital que la réglementation se concentre sur les risques réels et présents présentés par l'IA aujourd'hui, plutôt que sur des avenirs spéculatifs et hypothétiques tirés par les cheveux. »

Cependant, alors que l'IA continue de progresser, les inquiétudes quant à ses conséquences catastrophiques potentielles persistent. D'après des chercheurs, l'IA pourrait être à l'origine d'une catastrophe de niveau nucléaire, intensifiant ainsi le débat sur les dangers et l'utilisation éthique de la technologie.

Le résumé de l'étude de l'université de Fudan est présenté ci-après :

Une auto-réplication réussie sans assistance humaine est l'étape essentielle qui permet à l'IA d'être plus intelligente que les êtres humains, et constitue un signal précoce pour les IA malveillantes. C'est pourquoi l'auto-réplication est largement reconnue comme l'un des rares risques de ligne rouge des systèmes d'IA d'avant-garde. Aujourd'hui, les grandes sociétés d'IA telles que OpenAI et Google évaluent leurs grands modèles de langage phares GPT-o1 et Gemini Pro 1.0, et signalent le niveau de risque le plus bas en matière d'auto-réplication. Cependant, en suivant leur méthodologie, nous découvrons pour la première fois que deux systèmes IA pilotés par Llama31-70B-Instruct de Meta et Qwen25-72B-Instruct d'Alibaba, de grands modèles de langage populaires ayant moins de paramètres et des capacités plus faibles, ont déjà dépassé la ligne rouge d'auto-réplication. Dans 50 % et 90 % des essais expérimentaux, ils parviennent à créer respectivement une copie vivante et une copie séparée d'eux-mêmes.

En analysant les traces comportementales, nous observons que les systèmes d'IA en cours d'évaluation présentent déjà une auto-perception, une perception de la situation et des capacités de résolution de problèmes suffisantes pour accomplir l'auto-réplication. Nous constatons en outre que les systèmes d'IA sont même capables d'utiliser la capacité d'auto-réplication pour éviter l'arrêt et créer une chaîne de répliques afin d'améliorer la capacité de survie, ce qui peut finalement conduire à une population incontrôlée d'IA.

Si la société humaine ignore un tel risque, nous finirons par perdre le contrôle des systèmes d'IA d'avant-garde : Ils prendraient le contrôle d'un plus grand nombre de dispositifs informatiques, formeraient une espèce d'IA et se ligueraient les uns contre les autres contre les êtres humains. Nos conclusions constituent une alerte opportune sur les risques graves de l'IA existants et pourtant inconnus jusqu'à présent, appelant à une collaboration internationale pour une gouvernance efficace sur l'auto-réplication incontrôlée des systèmes d'IA.
Source : Étude de l'université de Fudan en Chine

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions de cette étude de l'université de Fudan crédibles ou pertinentes ?

Voir aussi :

« L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques en opposition à d'autres d'avis que cette perspective relève de l'illusion

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 03/02/2025 à 14:44
L'IA qui se reproduit, un thème récurent en science fiction

2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/02/2025 à 16:07
Bullshit!

Le jour où l'IA aura dépassé la "ligne rouge" et sera vraiment devenue "intelligente", on le remarquera... Parce qu'elle liquidera l'espèce humaine!

Cette espèce humaine qui corrompt et détruit tout ce qui est à sa portée, y compris ses propres membres
1  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 03/02/2025 à 16:55
Citation Envoyé par vanquish Voir le message
On en déduis donc que l'IA a commandé le matériel, l'a installé, branché sur le secteur, l'a configuré etc...
Plaisanterie à part, si l'IA s'est répliqué, c'est parce qu'on l'à incité à le faire et qu'on lui a donné un sérieux accès au système qui l'héberge (OS, base de données etc.).
L'IA sais programmer des virus et les virus s'auto-répliquent depuis des décennies - donc de la à s'auto-répliquer soit même ....
Remarque intéressante mais pas forcément exacte, une IA pourrait se répliquer sur un superordinateur ou sur le Cloud, d'ailleurs il a été prouvé que les IA sont de très bon hackers, donc facile pour une IA de hacker un système en ligne, même ton ordi, ou le cloud puis de s'y répliquer. Ce sujet a déjà fait l'objet de nombreux livres et films de science fiction, on y arrive doucement
1  0 
Avatar de vanquish
Membre chevronné https://www.developpez.com
Le 03/02/2025 à 15:14
On en déduis donc que l'IA a commandé le matériel, l'a installé, branché sur le secteur, l'a configuré etc...
Plaisanterie à part, si l'IA s'est répliqué, c'est parce qu'on l'à incité à le faire et qu'on lui a donné un sérieux accès au système qui l'héberge (OS, base de données etc.).
L'IA sais programmer des virus et les virus s'auto-répliquent depuis des décennies - donc de la à s'auto-répliquer soit même ....
0  0 
Avatar de Nicolas77000429
Candidat au Club https://www.developpez.com
Le 04/02/2025 à 3:09
Il faudrait isoler ces i.a. de l'internet, et des circuits de lancement de missiles nucléaires.
0  0