IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google admet ne pas savoir pourquoi son IA apprend des choses inattendues : « nous ne comprenons pas non plus parfaitement le fonctionnement de l'esprit humain »

Le , par Mathis Lucas

10PARTAGES

6  0 
L'IA de Google fournit parfois des informations douteuses ou erronées avec des conséquences potentiellement graves. Gemini a déjà conseillé à un utilisateur de mettre de la colle sur sa pizza pour faire adhérer le fromage à la pâte et à un autre de manger trois cailloux par jour. Dans ces cas, il s'est avéré que l'IA de Google traite le site Web satirique « The Onion » comme une véritable source. Aujourd'hui, Google affirme qu'il ne sait pas pourquoi son IA apprend des choses inattendues ou se comporte d'une manière ou d'une autre. Le PDG Sundar Pichai a ajouté que l'IA de Google a accompli des tâches pour lesquelles elle n'a pas été programmée.

L'IA générative s'appuie sur les grands modèles de langage (LLM) pour répondre aux questions des utilisateurs et accomplir les tâches. Quant aux grands modèles de langage, ils sont entraînés sur d'immenses volumes de données glanées sur Internet. Ces données comprennent des livres, des articles de presse, des pages Web, des dépôts de code source et des conversations en ligne. Leur entraînement utilise des techniques d'apprentissage non supervisé.

Pourtant, les grands modèles de langage restent d'énormes boîtes noires. Leur fonctionnement interne demeure largement incompris, même par leurs concepteurs. Dans le cadre de leur entraînement, les modèles d'IA apprennent à prédire le mot suivant dans une séquence en analysant d'immenses volumes de texte. Cependant, une fois ces modèles entraînés, il est extrêmement difficile de déterminer comment ils parviennent à une réponse spécifique.

Leurs décisions résultent de calculs internes opaques : on observe les entrées et les sorties, mais le processus intermédiaire reste obscur. Chez Google, par exemple, les dirigeants ont reconnu et expliqué qu'il est normal de ne pas comprendre tous les processus par lesquels un modèle arrive à un résultat.

Une explication pour laquelle ils ont utilisé un exemple, puisque l'IA de l'entreprise s'est adapté après avoir été interrogé dans la langue du Bangladesh « qu'il n'était pas entraîné à connaître ». Un journaliste de CBS a interviewé le PDG de Google Sundar Pichai, sur ce sujet. « Vous ne comprenez pas complètement comment cela fonctionne, et pourtant vous l'avez mis à la disposition de la société ? », a demandé le journaliste avec un air très inquiet.

Sundar Pichai a déclaré: « ce n'est pas grave, je ne pense pas non plus que nous comprenions parfaitement le fonctionnement de l'esprit humain ». Même son de cloche chez OpenAI et d'autres entreprises de premier plan qui développent l'IA générative. Anthropic, une startup dans laquelle Google investit, a, quant à lui, mené une étude pour essayer de comprendre pourquoi les grands modèles de langage apprennent des choses inattendues.

Les découvertes d'Anthropic sur le fonctionnement de son IA Claude

Selon les chercheurs d'Anthropic, connaître « le mode de pensée » des modèles comme Claude nous permettrait de mieux comprendre leurs capacités et nous aiderait à nous assurer qu'ils font ce que nous voulons qu'ils fassent. Anthropic a analysé dix comportements différents dans Claude et a obtenu des résultats intéressants. L'un d'entre eux est l'utilisation de différentes langues : « Claude a-t-il une partie qui parle français et une autre qui parle chinois ? ».


Ils ont déjà obtenu une réponse à la question, car ils ont constaté que Claude utilise des composants indépendants de toute langue pour répondre à une question ou résoudre un problème, puis choisissait une langue spécifique lorsqu'il répondait. Ils ont demandé à Claude « quel est le contraire de petit ? » en anglais, en français et en chinois. Ils ont constaté que Claude utilise d'abord les composants indépendamment de la langue pour donner une réponse.

Il s'agit d'une déduction qu'il a faite avant de répondre dans une langue particulière. Cela suggère que l'IA utilise des éléments dans une langue, puis les apprend et les applique dans d'autres. Cette méthode a également été utilisée pour résoudre des problèmes mathématiques simples et il a été constaté que Claude développe ses propres stratégies et qu'elle est donc différente de celles que le modèle avait observées dans ses données d'apprentissage.

L'étude cherche à révéler le fonctionnement interne des IA : « ces résultats ne sont pas seulement intéressants d'un point de vue scientifique, mais représentent également un pas important vers notre objectif de comprendre les systèmes d'IA et de s'assurer qu'ils sont fiables », explique l'entreprise.

Autres découvertes surprenantes de l'équipe d'Anthropic sur Claude

Le rapport de l'étude a été publié le mois dernier. Les chercheurs y ont relaté les différentes observations qu'ils ont faites. Dans un cas où ils ont utilisé Claude pour écrire des poèmes, ils ont constaté que l'IA elle-même se projette toujours dans l'avenir et choisit le mot à la fin de la ligne suivante, sans se contenter d'improviser : « nous avons cherché à démontrer que le modèle n'était pas prévoyant, et nous avons découvert qu'il l'était », ont-ils conclu.

L'équipe a donné un autre exemple : « dans une réponse à un exemple de jailbreak, nous avons constaté que le modèle a reconnu qu'on lui avait demandé des informations dangereuses bien avant qu'il ne soit capable d'orienter la conversation ». Les chercheurs d'Anthropic ont expliqué :

Citation Envoyé par Anthropic


Il faut actuellement de nombreuses heures d'efforts humains pour comprendre les circuits que nous voyons, même dans des indications ne comportant que des dizaines de mots. Pour atteindre les milliers de mots qui soutiennent les chaînes de pensée complexes utilisées par les modèles modernes, nous devrons améliorer à la fois la méthode et (peut-être avec l'aide de l'IA) la façon dont nous donnons un sens à ce que nous voyons avec cette méthode.

Parce que nous en savons si peu sur les modèles de langage, toute nouvelle information constitue un grand pas en avant. « Une compréhension approfondie du fonctionnement de ces modèles sous le capot nous permettrait de concevoir et d'entraîner des modèles bien meilleurs et plus robustes », selon Eden Biran, qui étudie les grands modèles de langage à l'université de Tel-Aviv. Anthropic s'est appuyé sur une méthode appelée « traçage des circuits ».

Anthropic définit le traçage des circuits (Circuit tracing) comme une technique permettant de découvrir les mécanismes qui sous-tendent les comportements des grands modèles de langage. « Trouver des circuits dans un grand modèle de pointe tel que Claude est une prouesse technique non triviale. Cela montre que les circuits peuvent être mis à l'échelle et qu'ils pourraient constituer un bon moyen d'interpréter les modèles de langage », a déclaré Eden Biran.

Il existe encore de nombreuses zones d'ombre à éclaircir

L'équipe d'Anthropic s'est dite surprise par « certains contournements contre-intuitifs » que les grands modèles de langage semblent utiliser pour compléter des phrases, résoudre des problèmes mathématiques simples, supprimer des hallucinations, et bien d'autres choses encore. Cependant, Joshua Batson, chercheur d'Anthropic, affirme qu'il y a encore de sérieuses limites. Selon lui, l'étude du fonctionnement interne des modèles n'en est qu'à ses débuts.

« Il est faux de croire que nous avons trouvé toutes les composantes du modèle ou que nous avons une vue d'ensemble. Certaines choses sont nettes, mais d'autres ne le sont pas encore ; une distorsion du microscope », dit-il. Et il faut plusieurs heures à un chercheur humain pour retracer les réponses à des questions, même très courtes. De plus, les grands peuvent faire plusieurs choses différentes, et Anthropic n'en a étudié que 10 jusqu'à présent.

Joshua Batson précise également que cette approche ne permet pas de répondre à certaines grandes questions. Le traçage des circuits peut être utilisé pour observer les structures à l'intérieur d'un grand modèle de langage, mais il ne vous dira pas comment ou pourquoi ces structures se sont formées au cours de l'apprentissage du modèle. « C'est une question profonde que nous n'abordons pas du tout dans ce travail », a déclaré le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 15/04/2025 à 18:49
Non un bug n'a rien à voir avec l'incompréhension des ingénieurs de google.
Un bug, on sait pourquoi il apparaît et on peut en théorie le prévoir contrairement à ce que tu dis. Ça peut être compliqué mais c'est toujours faisable. Pourquoi ? Parce qu'un programme a toujours le même fonctionnement. C'est la base du fonctionnement d'un processeur. Sans ça on ne pourrait ni avoir de logiciels stables, ni faire de débugage.

Ce que les créateurs de LLM ne comprennent pas est d'une toute autre nature. Ils ont réussi l'exploit, à partir d'une machine dont le comportement est fixe et prévisible, de créer des outils dont le comportement est statistique ce qui implique une part d'aléatoire, leur défit étant que les statistiques tendent vers ce que qu'attend la personne qui a généré le prompt, donc de réussir au mieux à s’adapter à n'importe quel contexte. Et pour arriver à cet objectif, ils utilisent des quantités de données tellement énormes et des algo tellement complexes qu'ils sont incapables de dire si l'élément X a eu une influence sur la donnée produite Y. Donc pour eux, pas de débugage possible.

Je ne connais que de vagues concepts sur le fonctionnement des IA, si je raconte n'importe quoi n'hésitez pas à me corriger.

Un journaliste de CBS a interviewé le PDG de Google Sundar Pichai, sur ce sujet. « Vous ne comprenez pas complètement comment cela fonctionne, et pourtant vous l'avez mis à la disposition de la société ? », a demandé le journaliste avec un air très inquiet.

Sundar Pichai a déclaré: « ce n'est pas grave, je ne pense pas non plus que nous comprenions parfaitement le fonctionnement de l'esprit humain ».
Le petit sophisme qui nous ferait presque penser inconsciemment qu'ils sont en train de reconstruire un cerveau avec des processeurs, il est mignon ce p'tit.
3  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 16/04/2025 à 11:33
Ce problème d'incompréhension n'est pas le propre de Google!

Le 100% des experts en IA le savent depuis toujours: Un système IA prend de manière inattendue et non-prévisible des décisions totalement illogiques, on a même inventé un terme pour nommé ces erreurs: Les hallucinations de l'IA!

Mais toutes les GAFAM se sont empressées de cacher ce problème sous le tapis: C'était trop tentant de se faire un maximum de fric avec l'IA même si c'est une bombe à retardement... Imaginez ce qui se passera le jour où une IA gérant une centrale nucléaire prendra les mauvaises décisions...
3  0 
Avatar de Aurelien.Regat-Barrel
Expert éminent sénior https://www.developpez.com
Le 17/04/2025 à 18:22
Citation Envoyé par _toma_ Voir le message
Non un bug n'a rien à voir avec l'incompréhension des ingénieurs de google.
Un bug, on sait pourquoi il apparaît et on peut en théorie le prévoir contrairement à ce que tu dis. Ça peut être compliqué mais c'est toujours faisable. Pourquoi ? Parce qu'un programme a toujours le même fonctionnement. C'est la base du fonctionnement d'un processeur. Sans ça on ne pourrait ni avoir de logiciels stables, ni faire de débugage.

Ce que les créateurs de LLM ne comprennent pas est d'une toute autre nature. Ils ont réussi l'exploit, à partir d'une machine dont le comportement est fixe et prévisible, de créer des outils dont le comportement est statistique ce qui implique une part d'aléatoire
Faut pas mélanger système déterministe et prédictibilité. Dès les débuts théoriques de l'informatique - avant même la création des premiers ordinateurs - il a été démontré que le problème de l'arrêt est indécidable.

La démonstration de l'absence de bugs est loin d'être toujours faisable. Cela impose même de passer par un formalisme bien défini (méthodes formelles) qui n'est pas compatible avec les langages classiqu. Et avant de coder il y a toute la difficulté de formuler des spécifications de façon précise et non ambiguë. C'est toujours un sujet de recherche aujourd'hui.
2  0 
Avatar de la.lune
Membre chevronné https://www.developpez.com
Le 16/04/2025 à 15:30
Citation Envoyé par _toma_ Voir le message
Non un bug n'a rien à voir avec l'incompréhension des ingénieurs de google.
Un bug, on sait pourquoi il apparaît et on peut en théorie le prévoir contrairement à ce que tu dis.
Déjà ce que je fais comme comparaison n’est pas une similarité intégrale des technologies mais une comparaison entre le début de toute nouvelle technologie qui réalise un succès puis après on essaye de trouver les solutions aux problèmes.

La deuxième chose il y a une similarité du point philosophique car c’est autour du programme informatique avant on définissait intégralement tout ce que le programme va faire , et tout ce qu’il peut recevoir comme instructions (entrées) pour rendre un service au demandeur et maintenant on apprend la machine à pouvoir recevoir n’importe quelle instruction sans lui fixer les possibilités et on lui apprend à pouvoir répondre sans connaître préalablement l’instruction tout ça pour rendre un service au demandeur. Mais ça reste une machine sans conscience ni morale ethnique
0  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 19/04/2025 à 13:29
Citation Envoyé par Anselme45 Voir le message
Ce problème d'incompréhension n'est pas le propre de Google!Mais toutes les GAFAM se sont empressées de cacher ce problème sous le tapis: C'était trop tentant de se faire un maximum de fric avec l'IA même si c'est une bombe à retardement... Imaginez ce qui se passera le jour où une IA gérant une centrale nucléaire prendra les mauvaises décisions...
Oui enfin, si cela arrive, ce sera plus de la faute de personne assez irresponsable pour utiliser l'IA dans des conditions inadaptés.
C'est comme si l'on utilisaient un TGV pour une ligne de tram, il y aura vite des accidents grave. Pourtant, on ne va pas rendre responsable Alstom... Idem pour un camion qui circule sur une route trop étroite ou dangereuse.

Le seul cas où je suis d'accord, c'est si une entreprise incite consciemment une entreprise à utiliser une IA pour une utilisation inadapté. Là on peu dire qu'il y a une complicité.
0  0 
Avatar de la.lune
Membre chevronné https://www.developpez.com
Le 13/04/2025 à 22:04
Je ne trouve rien d’étonnant car c’est le début les gens fête le succès des grands modèles de langage IA mais les problèmes et les difficultés vont pousser les gens à vouloir maîtriser ces grands modèles.

C’est comme au debut de la programmation après la création des compilateurs. Les gens à cette époque voyaient que c’était le grand succès d’écrire du code dans language de programmation simple à comprendre et qu’un autre programme (compilateur) puisse traduire ça en langage machine(PROGRAMME final). Donc : code -> programme -> PROGRAMME

Je vous invite à imaginer cette époque qui aurait directement pensé au déboggueur ou un IDE? Personne. Un simple éditeur de texte et des lignes de commandes pour compiler. Imaginez le nombre d’erreurs sur ces codes? Et pourtant le compilateur à cet époque était un grand succès. C’est après la découverte de récurrentes failles de code qu’on a pensé à d’autres programmes pour maîtriser LE PROGRAMME. On a créé les déboggueurs , les outils de Teste unitaire, les IDE , la coloration des éditeurs de texte, les outils d’intégration continue, d’analyse du qualité de code … tout ça des programmes écrits pour maîtriser LE PROGRAMME. La chaîne est longue car ça commence par : programme->code->programme-> programme->code teste->programme-> LE PROGRAMME … avec possibilité d’ajouter encore des programmes autours.

Mais jusqu’à présent personne ne peut prétendre écrire du code sans bogue que dans des rare cas d’utilisation de méthodes formelles. On sait tous que même si ça marche des années le bogue peut apparaître dans le futur et personne ne peut le prévoir. Si c’est le cas pour ce qu’on maîtrise instruction par instruction avec tous les outils connu, il peut y avoir des failles et que peut on dire d’une chose qu’on ne sait même pas qui lui a appris mais il apprend de partout et on veut qu’il réagisse sans qu’on lui dise exactement comment mais on lui laisse agir tout seul??!.

Donc maintenant il va falloir commencer à mettre en place ce que j’appelle les plus grands modèles de langage IA capables de maîtriser les grands modèles de langage IA et c’est ainsi va le monde, ce sont les problèmes qui enfantent les solutions. Ne pas maîtriser ce que font exactement les grands modèles de langage IA c’est normal jusqu’à jour où il y aura d’autres modèles matures et plus forts capables de les maîtriser. Et non pas les humains car les capacités dépassent les capacités de l’humain.
1  2