IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le modèle de raisonnement d'OpenAI « pense » souvent en chinois : Personne ne peut expliquer pourquoi

Le , par Jade Emy

9PARTAGES

5  0 
Des utilisateurs ont observé que le modèle o1 d'OpenAI "pense" souvent en chinois lors de son processus de raisonnement. Certaines théories affirment que c'est dû aux ensembles de données d'entrainement du modèle, notamment, aux services d'étiquetage de données. D'autres hypothèses déclarent que les modèles de raisonnement peuvent utiliser les langues les plus efficaces pour atteindre un objectif.

OpenAI est une organisation américaine de recherche en intelligence artificielle (IA) fondée en décembre 2015 et dont le siège se trouve à San Francisco, en Californie. En tant qu'organisation leader dans le boom actuel de l'IA, OpenAI est connue pour la famille GPT de grands modèles de langage, la série DALL-E de modèles texte-image et un modèle texte-vidéo appelé Sora. Sa publication de ChatGPT en novembre 2022 a été reconnue comme ayant catalysé l'intérêt généralisé pour l'IA générative.

Le modèle phare d'OpenAI disponible pour l'instant est le modèle de raisonnement o1. Cependant, les personnes qui utilisent ChatGPT ont identifié une vulnérabilité. Peu après la publication par OpenAI de o1, un comportement particulier a été observé. Apparemment, lorsqu'une question est posée en anglais, le modèle se met parfois à "penser" dans une langue autre que l'anglais, comme le chinois ou le persan.

Un utilisateur a déclaré : « [O1] s'est mis à penser en chinois de manière aléatoire à mi-parcours ». En outre, un utilisateur complètement différent sur X a également déclaré : "Pourquoi [o1] s'est-il mis à penser en chinois de manière aléatoire ?"

D'après les observations, lorsqu'on lui présente un problème à résoudre, o1 entame son processus de "pensée", qui implique une séquence d'étapes de raisonnement conduisant à une réponse. La réponse finale de o1 serait en anglais si la requête était rédigée dans cette langue. Toutefois, le modèle effectuerait certaines procédures dans une autre langue avant de formuler sa conclusion.


Il est à noter qu'OpenAI n'a pas fourni d'explication au comportement particulier de o1, et ne l'a même pas reconnu. Quelle pourrait donc en être la cause ? Voici les théories de quelques professionnels de l'IA.

Clément Delangue, PDG de Hugging Face, a indiqué sur X que les modèles de raisonnement comme o1 sont formés sur des ensembles de données contenant un grand nombre de lettres chinoises. En outre, selon Ted Xiao, chercheur chez Google DeepMind, des organisations comme OpenAI utilisent des services tiers d'étiquetage de données chinoises, et la transition vers le chinois est un exemple de "l'influence linguistique chinoise sur le raisonnement".

Ted Xiao a déclaré : "Les laboratoires AGI comme OpenAI et Anthropic utilisent des services d'étiquetage de données 3P pour les données de raisonnement de niveau doctoral en sciences, mathématiques et codage ; pour des raisons de disponibilité et de coût de la main-d'œuvre experte, beaucoup de ces fournisseurs de données sont basés en Chine".

Apparemment, au cours du processus de formation, les étiquettes, également appelées identificateurs ou annotations, aident les modèles à comprendre et à interpréter les données. Par exemple, les étiquettes utilisées pour former un modèle de reconnaissance d'images peuvent consister en des légendes qui se réfèrent à chaque personne, lieu ou objet représenté dans une image ou en des marques qui entourent les objets.

En outre, la recherche a démontré que les classifications biaisées peuvent donner lieu à des modèles biaisés. Par exemple, l'annotateur moyen est plus enclin à étiqueter les phrases en anglais vernaculaire afro-américain (AAVE). Il s'agit de la grammaire informelle utilisée par certains Noirs américains. Par conséquent, les détecteurs de toxicité de l'IA qui ont été formés sur les étiquettes perçoivent l'AAVE comme excessivement toxique.

Cependant, la théorie de l'étiquetage des données chinoises o1 n'est pas acceptée par d'autres experts. Ils soulignent qu'o1 est tout aussi susceptible de passer à l'hindi, au thaï ou à une langue autre que le chinois lorsqu'il tente de formuler une solution. Ces experts estiment plutôt que o1 et d'autres modèles de raisonnement peuvent utiliser les langues les plus efficaces pour atteindre un objectif.

À cet égard, Matthew Guzdial, chercheur en IA, a déclaré : "Le modèle ne sait pas ce qu'est une langue ni que les langues sont différentes." En effet, les jetons, tout comme l'étiquetage, sont susceptibles d'imposer des biais. En particulier, plusieurs traducteurs mot à mot supposent qu'un espace dans une phrase indique un nouveau mot. Ceci sans tenir compte du fait que toutes les langues n'utilisent pas d'espace pour séparer les mots.

Cependant, Luca Soldaini, chercheur à l'institut à but non lucratif Allen Institute for AI, a souligné qu'il était impossible de le déterminer avec certitude. Il a déclaré : "Ce type d'observation sur un système d'IA déployé est impossible à étayer en raison de la nature opaque de ces modèles [...] C'est l'un des nombreux exemples qui soulignent l'importance de la transparence dans la construction des systèmes d'IA".

Les problèmes d'OpenAI

L'année 2024 a été une véritable montagne russe pour OpenAI. L'entreprise et son PDG, Sam Altman, ont commencé l'année en étant poursuivis en justice par Elon Musk. Selon lui, l'entreprise s'est détournée de son objectif non lucratif initial pour privilégier les profits au détriment de l'intérêt général.

L'année dernière, huit journaux américains, dont le New York Daily News, le Chicago Tribune et le Denver Post, ont poursuivi OpenAI et Microsoft. Ils ont accusé l'entreprise d'utiliser des millions de publications protégées par le droit d'auteur pour entraîner des robots de conversation sans autorisation ni paiement. Ils affirment que cette technique viole leurs droits de propriété intellectuelle.

Par ailleurs, Mira Murati, directrice de la technologie d'OpenAI, a annoncé son départ. Il s'agit d'un moment clé car ses compétences technologiques étaient essentielles au développement de l'entreprise.

En outre, OpenAI a rencontré plusieurs difficultés avec ChatGPT, telles que des pannes occasionnelles, des problèmes qui ont entraîné des réponses inexactes ou absurdes de la part du chatbot, et des préoccupations concernant la vie privée des utilisateurs. Dans certains cas, l'IA a également généré des contenus biaisés ou offensants.

Mais le plus grand problème d'OpenAI serait sur le plan financier. Des rapports révèlent que l'éditeur de ChatGPT prévoyait une perte d'environ 5 milliards de dollars pour un chiffre d'affaires de 3,7 milliards de dollars en 2024. La société a généré 300 millions de dollars de revenus en septembre 2024, soit une hausse de 1 700 % depuis le début de l'année 2023, et s'attend à réaliser un chiffre d'affaires de 11,6 milliards de dollars pour l'année 2025. Ce sont ces problèmes financiers qui ont poussé OpenAI à une transition en organisation à but lucratrif.

Et vous ?

Pensez-vous que ces rapports sur o1 sont crédibles ou pertinents ?
Quel est votre avis sur le sujet ?

Voir aussi :

Apprendre à raisonner avec le nouveau LLM OpenAI o1 formé avec l'apprentissage par renforcement pour effectuer des raisonnements complexes, car o1 réfléchit avant de répondre

OpenAI va sevrer les « pays indésirables » comme la Chine de ses services à partir du 9 juillet, une décision de nature à conforter la quête d'indépendance technologique de la Chine vis-à-vis des USA

Les LLM sont-ils capables de raisonnement non-verbal ? La chaîne de pensée continue (Coconut) permettrait d'explorer le potentiel du raisonnement LLM dans un espace latent continu

Une erreur dans cette actualité ? Signalez-nous-la !