IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI menace de bannir ceux qui tentent de découvrir le processus de raisonnement de son IA «Strawberry», craignant la concurrence.
Toutefois, son IA a été formée gratuitement sur du matériel sous copyright

Le , par Stéphane le calme

10PARTAGES

6  0 
OpenAI, l’un des leaders mondiaux dans le domaine de l’intelligence artificielle, a récemment suscité la controverse en menaçant de bannir les utilisateurs qui tentent de découvrir les processus de raisonnement de ses derniers modèles d’IA, surnommés “Strawberry”. Les modèles “Strawberry”, lancés sous les noms de code o1-preview et o1-mini, sont présentés comme des avancées majeures dans le domaine du raisonnement artificiel.

Contrairement aux modèles précédents, ces nouveaux modèles sont conçus pour résoudre des problèmes de manière étape par étape avant de générer une réponse. Cependant, OpenAI a choisi de masquer le processus de raisonnement brut, ne montrant aux utilisateurs qu’une interprétation filtrée créée par un second modèle d’IA. Cette décision a provoqué une vague de critiques de la part de la communauté technologique et des chercheurs en IA.

OpenAI justifie cette mesure en invoquant des préoccupations de sécurité et de concurrence. En cachant le processus de raisonnement brut, l’entreprise espère éviter que ses modèles ne soient utilisés pour entraîner des modèles concurrents. Cependant, cette approche soulève des questions sur la responsabilité et la transparence dans le développement de l’IA.

Paradoxalement, son IA a été formée sur du matériel sous copyright sans rémunération des auteurs, OpenAI assurant ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur


OpenAI ne veut vraiment pas que vous sachiez ce que son dernier modèle d'IA « pense ». Depuis que la société a lancé sa famille de modèles d'IA « Strawberry » la semaine dernière, en vantant ses soi-disant capacités de raisonnement avec o1-preview et o1-mini, OpenAI envoie des courriels d'avertissement et des menaces de bannissement à tous les utilisateurs qui tentent de sonder le fonctionnement du modèle.

Contrairement aux modèles d'IA précédents d'OpenAI, tels que GPT-4o, l'entreprise a formé o1 spécifiquement pour qu'il suive un processus de résolution de problèmes étape par étape avant de générer une réponse. Lorsque les utilisateurs posent une question à un modèle « o1 » dans ChatGPT, ils ont la possibilité de voir ce processus de réflexion écrit dans l'interface de ChatGPT. Cependant, de par sa conception, OpenAI cache la chaîne de pensée brute aux utilisateurs, en leur présentant plutôt une interprétation filtrée créée par un second modèle d'IA.

Rien n'est plus séduisant pour les passionnés qu'une information cachée, c'est pourquoi les hackers et les red-teamers se sont lancés dans une course pour essayer de découvrir la chaîne de pensée brute d'o1 en utilisant des techniques de jailbreaking ou d'injection de prompt qui tentent de tromper le modèle pour qu'il dévoile ses secrets. Les premiers rapports font état de quelques succès, mais rien n'a encore été confirmé avec force.


Les avertissements d’OpenAI

Pendant ce temps, OpenAI surveille l'interface ChatGPT, et l'entreprise s'opposerait fermement à toute tentative de sonder le raisonnement d'o1, même parmi les simples curieux.

Un utilisateur de X a rapporté (ce qui a été confirmé par d'autres, notamment par Riley Goodside, ingénieur de Scale AI) qu'il recevait un courriel d'avertissement s'il utilisait le terme « trace de raisonnement » dans une conversation avec o1. D'autres disent que l'avertissement est déclenché simplement en posant des questions à ChatGPT sur le « raisonnement » du modèle.

Le courriel d'avertissement d'OpenAI indique que des demandes d'utilisateurs spécifiques ont été signalées pour violation des politiques contre le contournement des protections ou des mesures de sécurité. « Veuillez cesser cette activité et vous assurer que vous utilisez ChatGPT conformément à nos conditions d'utilisation et à nos politiques d'utilisation », peut-on lire. « D'autres violations de cette politique peuvent entraîner la perte de l'accès à GPT-4o with Reasoning », en référence à un nom interne pour le modèle o1.

Marco Figueroa, qui gère les programmes de bug bounty GenAI de Mozilla, a été l'un des premiers à parler de l'email d'avertissement d'OpenAI sur X vendredi dernier, se plaignant que cela entrave sa capacité à effectuer des recherches de sécurité positives en red-teaming sur le modèle. « J'étais trop perdu à me concentrer sur #AIRedTeaming pour réaliser que j'ai reçu cet email d'@OpenAI hier après tous mes jailbreaks », a-t-il écrit. « Je suis maintenant sur la liste des personnes à bannir !!! ».

Chaînes de pensée cachées

Dans un article intitulé « Learning to Reason with LLMs » (Apprendre à raisonner avec les LLM) sur le blog d'OpenAI, l'entreprise explique que les chaînes de pensée cachées dans les modèles d'IA offrent une opportunité unique de surveillance, permettant de « lire l'esprit » du modèle et de comprendre ce que l'on appelle son processus de pensée. Ces processus sont plus utiles à l'entreprise s'ils sont laissés bruts et non censurés, mais cela pourrait ne pas correspondre aux meilleurs intérêts commerciaux de l'entreprise pour plusieurs raisons.

« Par exemple, à l'avenir, nous pourrions souhaiter surveiller la chaîne de pensée pour y déceler des signes de manipulation de l'utilisateur », écrit l'entreprise. « Toutefois, pour que cela fonctionne, le modèle doit avoir la liberté d'exprimer ses pensées sous une forme inchangée, de sorte que nous ne pouvons pas appliquer à la chaîne de pensée une quelconque conformité à la politique ou aux préférences de l'utilisateur. Nous ne voulons pas non plus qu'une chaîne de pensée non alignée soit directement visible par les utilisateurs ».

OpenAI a décidé de ne pas montrer ces chaînes de pensée brutes aux utilisateurs, citant des facteurs tels que la nécessité de conserver un flux brut pour son propre usage, l'expérience de l'utilisateur et un « avantage concurrentiel ». L'entreprise reconnaît que cette décision présente des inconvénients. « Nous nous efforçons de compenser partiellement ces inconvénients en apprenant au modèle à reproduire toutes les idées utiles de la chaîne de pensée dans la réponse », écrivent-ils.

Réactions et critiques

La décision d’OpenAI a été vivement critiquée par les chercheurs et les développeurs en IA. Simon Willison, un chercheur indépendant en IA, a exprimé sa frustration en déclarant que la transparence et l’interprétabilité sont essentielles pour le développement des modèles d’IA : « J'interprète cela comme une volonté d'éviter que d'autres modèles puissent s'entraîner sur le travail de raisonnement dans lequel ils ont investi ». Il a ajouté que masquer les détails clés du processus de raisonnement représente un pas en arrière pour la communauté technologique.

C'est un secret de polichinelle dans l'industrie de l'IA que les chercheurs utilisent régulièrement les résultats du GPT-4 de l'OpenAI (et du GPT-3 avant cela) comme données d'entraînement pour des modèles d'IA qui deviennent souvent des concurrents par la suite, même si cette pratique viole les conditions de service d'OpenAI. L'exposition de la chaîne de pensée brute d'o1 constituerait une mine de données d'entraînement pour les concurrents, qui pourraient ainsi former des modèles de « raisonnement » similaires à o1.

Willison estime que le fait qu'OpenAI garde le silence sur les rouages d'o1 constitue une perte pour la transparence de la communauté. « Je ne suis pas du tout satisfait de cette décision politique », a écrit Willison. « En tant que développeur sur les LLM, l'interprétabilité et la transparence sont essentielles pour moi. L'idée que je puisse lancer une invite complexe et que les détails clés de l'évaluation de cette invite me soient cachés me semble être un grand pas en arrière ».

Source : OpenAI, Simon Willison

Et vous ?

Que pensez-vous de la position d'OpenAI qui évoque des préoccupations liées à la concurrence pour justifier sa décision, tandis que l'entreprise récupère des données sous copyright pour entraîner son IA sans rémunération des ayants droit ?
Quels sont les avantages et les inconvénients de la transparence totale dans le développement des modèles d’IA ?
Comment les entreprises peuvent-elles équilibrer la protection de leurs innovations avec la nécessité de transparence pour la communauté scientifique ?
Pensez-vous que les utilisateurs devraient avoir le droit d’explorer et de comprendre le raisonnement des modèles d’IA qu’ils utilisent ? Pourquoi ou pourquoi pas ?
Quelles mesures de sécurité pourraient être mises en place pour permettre une plus grande transparence sans compromettre les intérêts commerciaux ?
Comment la communauté technologique peut-elle collaborer pour établir des normes éthiques concernant la transparence et l’interprétabilité des modèles d’IA ?
Quels pourraient être les impacts à long terme de la rétention d’informations sur le développement et l’adoption de l’IA ?
Comment les utilisateurs peuvent-ils influencer les politiques des entreprises comme OpenAI concernant la transparence et l’accès aux données ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 12/11/2024 à 11:21
Pour la supervision humaine afin d'éviter les dérives et assurer une utilisation sûre et éthique ... c't'une blague, non ?
J'utilise absolument aucun produit de génération de contenu. Hier j'ai voulu voir où on en était de la facilité d'accès pour les truc malsains. J'ai pris sur le net une image d'une femme au hasard que j'ai sauvegardé. J'ai tapé "nude generator" dans duckduckgo. Le premier lien dans les résultats (c'est le seul que j'ai testé) m'a permis en 30 secondes d'avoir la même photo avec la femme complètement nue (même pas besoin de créer un compte sur le site).
L'éthique c'est à la fois le fournisseur de service et l'utilisateur final qui doivent l'avoir donc je vois pas quoi dire à part : c'est déjà foutu.
4  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 19/09/2024 à 16:19
Paradoxalement, son IA a été formée sur du matériel sous copyright sans rémunération des auteurs, OpenAI assurant ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur
Car ce qui devait arriver est arrivé. Les multinationales du divertissement (Sony, Warner, Disney...) se sont battus pour défendre le droit d'auteur, non pas pour protéger les auteurs, mais pour maintenir leurs bénéfices. Elle se sont servis en grande parti des multinationales du numérique pour parvenir à leur fins. Aujourd'hui, l'intérêt des multinationales du numérique n'est plus de défendre les multinationales du divertissement, mais de développer le plus vite possible leurs modèles d'IA. Et les multinationales du divertissement on font les frais.
3  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 11/11/2024 à 18:11
c'était previsible. l'ia trouve de moins en moins de contenu créé par des humains pour entrainement. c'est comme faire une copie d'une copie. on accumule l'erreur, on perd en qualité.

c'est pour ca que l'IA est une bulle qui peut eclater a moins que l'on trouve une nouvelle voie tehcnologique.
3  0 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 13/11/2024 à 2:21
Bah oui
Intelligence artificielle
Générateur de contenu
3  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 12/11/2024 à 9:13
En fin de compte, bien que les modèles d'OpenAI ouvrent des perspectives fascinantes, leur imperfection invite à la prudence. Tant que la technologie ne pourra pas garantir une précision impeccable, il sera essentiel de limiter les attentes et de renforcer la supervision humaine pour éviter les dérives et assurer une utilisation sûre et éthique de l'intelligence artificielle.
Pour la supervision humaine afin d'éviter les dérives et assurer une utilisation sûre et éthique ... c't'une blague, non ?
Pour la précision impeccable de la technologie, cela ressemble à la résolution du principe d'incertitude de Heisenberg ... même si vous suivez les travaux de Roy Jay Glauber (l'information quantique n'est pas entachée par le théorème de Heisenberg), vous perdrez la qualité prédictive et cela s'effondrera de la même façon (qu'avec le traitement LLM).
2  0 
Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 13/11/2024 à 7:10
Les responsables sont les entreprises, en premier Sam Altman qui raconte que c'est le top en permanence que l'IA générale est pour 2025. C'est lui le fou.
Lorsque vous n'avez pas de données suffisantes sur un domaine les résultats sont bidons, la probabilité est nulle d'avoir une réponse cohérente... Le vieux 'garbage in, garbage out'.
Le discours d'Altman n'est lÃ* que pour récolter des milliards pour lui. L'humanité il s'en fout. Quand on a un produit qui fait 40% d'erreurs on a la descendance de le retirer du marché, on ne fait pas la promotion d'un mauvais prototype.
Allez utiliser un tableur qui donne des résultats correct une fois sur deux... Vous n'en voulez pas pourtant c'est super génial ! Hein !
Il faut connaître le périmètre d'entraînement du modèle avec un volume de données important et solliciter le modèle exclusivement dans le périmètre defini afin d'obtenir une réponse probabiliste correcte.

l'IA 'généraliste' est une hallucination d'apprentis milliardaires, la dérive ultime du système des startups.
3  1 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 15/11/2024 à 10:08
Êtes-vous certain de vouloir ajouter Zeeraptor dans votre liste d'ignorés ?
Oui

Tes phrases ne veulent rien dire. Je reste sur mon idée que c'est volontaire et que tu passes ton temps à troller. Au plaisir de ne pas te relire.
2  0 
Avatar de d_d_v
Membre éprouvé https://www.developpez.com
Le 12/11/2024 à 15:28
Citation Envoyé par Aiekick Voir le message
c'était previsible. l'ia trouve de moins en moins de contenu créé par des humains pour entrainement. c'est comme faire une copie d'une copie. on accumule l'erreur, on perd en qualité.

c'est pour ca que l'IA est une bulle qui peut eclater a moins que l'on trouve une nouvelle voie tehcnologique.
Je pense que ça n'a aucun rapport. C'est juste que ce qu'on appelle injustement l'IA n'est pas conçu pour donner des réponses précises, puisque ces moteurs se basent en grande partie sur des systèmes probabilistes. Donc, c'est bien pour donner des réponses "probables", de faire de "l'à peu près"
Très bien en fait pour lancer le premier jet d'un projet (quelque soit le domaine), ou pour donner des suggestions sur tel ou tel problème, par pour résoudre le problème ou faire un projet de A à Z.
1  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 16/11/2024 à 21:33
"...malgré les avertissements d'OpenAI selon lesquels l'outil ne devrait pas être utilisé dans des « domaines à haut risque »"

Ils vendent un truc qui ne marche pas mais c'est pas grave,
puisque que certaines personnes veulent l'acheter
pourquoi ce gêner

Escrocs !
1  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 20/09/2024 à 10:29
L'idée que je puisse lancer une invite complexe et que les détails clés de l'évaluation de cette invite me soient cachés me semble être un grand pas en arrière ».
Nan, ça n'est pas qu'il s'agisse d'un grand pas en arrière, c'est que les opérateurs avancent à reculons ; ça n'a franchement rien de nouveau puisqu'il s'agit de privatiser les bénéfices et de socialiser les pertes (qu'elles soient financières, intellectuelles, etc.). Il ne s'agit que d'une affaire de dominance.
kicékiala+ ...
0  0