IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic annonce que son assistant IA, Claude, restera sans publicité afin de maintenir une expérience utilisateur neutre et utile, un « espace de réflexion » exempt de toute interruption commerciale

Le , par Jade Emy

0PARTAGES

6  0 
Anthropic a annoncé une politique importante qui le distinguera définitivement de la concurrence : son chatbot Claude restera sans publicité. L'entreprise écrit : « Nous voulons que Claude agisse sans ambiguïté dans l'intérêt de nos utilisateurs. Nous avons donc fait un choix : Claude restera sans publicité. Nos utilisateurs ne verront pas de liens « sponsorisés » à côté de leurs conversations avec Claude ; les réponses de Claude ne seront pas influencées par les annonceurs et n'incluront pas de placements de produits tiers que nos utilisateurs n'ont pas demandés. »

Ce début d'année 2026, OpenAI a annoncé qu'elle va commencer à introduire des publicités dans ChatGPT pour les utilisateurs américains bénéficiant de l'abonnement gratuit et de son nouvel abonnement moins cher à 8 dollars, ChatGPT Go. Les publicités devraient apparaître sous forme de produits ou services sponsorisés clairement identifiés sous les conversations, et OpenAI affirme qu'elles n'auront aucune incidence sur les réponses du chatbot. Sam Altman, PDG d'OpenAI, a déclaré : « Il est clair pour nous que beaucoup de gens veulent utiliser l'IA sans payer, nous espérons donc qu'un modèle commercial comme celui-ci pourra fonctionner ».

Malgré cette décision d'OpenAI, Anthropic a annoncé une politique importante qui le distinguera définitivement de la concurrence : son chatbot Claude restera sans publicité. Anthropic est une entreprise américaine d'intelligence artificielle (IA) fondée en 2021 par d'anciens membres d'OpenAI. Elle développe Claude, une famille de grands modèles de langage. Claude est aussi le nom de l'agent conversationnel (chatbot) utilisant ce modèle pour dialoguer avec les utilisateurs. Claude peut analyser des images et différents types de fichiers, et faire des recherches sur internet. Claude est particulièrement connu pour ses performances en programmation informatique, et est intégré dans Claude Code, un agent autonome en ligne de commande.

Dans un article de blog intitulé « Claude is a space to think » (Claude est un espace de réflexion), l'entreprise écrit : « Nous voulons que Claude agisse sans ambiguïté dans l'intérêt de nos utilisateurs. Nous avons donc fait un choix : Claude restera sans publicité. Nos utilisateurs ne verront pas de liens « sponsorisés » à côté de leurs conversations avec Claude ; les réponses de Claude ne seront pas influencées par les annonceurs et n'incluront pas de placements de produits tiers que nos utilisateurs n'ont pas demandés. »


Les services IA fleurissent partout. Presque tous les logiciels ont intégré des fonctionnalités IA dans leurs applications, et bientôt, la plupart des téléphones offriront un accès rapide à un chat IA. À mesure que les chatbots IA se multiplient, les utilisateurs commenceront à rechercher des fonctionnalités distinctives qui pourraient valoir la peine d'être payées. Claude détient une part très modeste du marché des chatbots grand public. Mais OpenAI, xAI et Gemini de Google intégreront bientôt des publicités dans leurs réponses. Compte tenu de la nature sensible de l'utilisation actuelle de l'IA, il pourrait être important de garantir que ces conversations ne seront pas exploitées à des fins publicitaires.

Pour souligner son nouvel engagement, Anthropic a créé une série de nouvelles publicités qui montrent à quel point les conversations IA avec des publicités peuvent devenir effrayantes et dérangeantes. L'une de ces publicités sera diffusée pendant le Super Bowl, selon un rapport. Anthropic ne se concentre pas autant sur les abonnements grand public, car son succès fulgurant auprès des entreprises qui paient pour les API Claude alimente la croissance rapide de l'entreprise.

Le marché a été positivement surpris par les dernières superpuissances ajoutées par Anthropic à son outil d'IA agentique Claude Cowork. Les nouvelles fonctionnalités des plug-ins comprennent l'aide aux tâches juridiques, financières, marketing et de gestion des produits. L'arrivée de ces nouveaux outils a amené les investisseurs à s'interroger sur les modèles économiques de l'ensemble des entreprises technologiques, entraînant une baisse du marché.

Il y a une semaine, Anthropic a apporté des modifications importantes à la « constitution » de Claude, c'est-à-dire l'ensemble des règles, valeurs et priorités qui guident ses réponses. L'un des principes fondamentaux est que Claude doit être utile. Anthropic affirme que ces instructions sont en contradiction avec les incitations créées dans un produit financé par la publicité : « L'histoire des produits financés par la publicité suggère que les incitations publicitaires, une fois introduites, ont tendance à se développer au fil du temps à mesure qu'elles s'intègrent dans les objectifs de revenus et le développement des produits, brouillant des frontières qui étaient autrefois plus claires. Nous avons choisi de ne pas introduire cette dynamique dans Claude. »

Miranda Bogen est directrice du laboratoire de gouvernance de l'IA au Centre pour la démocratie et la technologie, une organisation à but non lucratif spécialisée dans les politiques technologiques. Bogen avertit que les publicités peuvent avoir un impact énorme sur les plateformes technologiques, avec des conséquences importantes. « L'annonce d'Anthropic selon laquelle elle n'intégrera pas de publicités dans Claude tient compte du fait que la publicité peut créer des incitations profondément perverses, même lorsque les plateformes affirment le contraire », a-t-elle déclaré. « Les choix que font aujourd'hui les entreprises d'IA avancées quant à la manière dont elles vont couvrir les coûts faramineux qu'elles engagent pour construire des systèmes d'IA vont inévitablement façonner les systèmes eux-mêmes. Cela pourrait avoir un impact énorme sur notre monde pendant des décennies. »

Pourtant, les publicités semblent représenter un modèle commercial capable de supporter la bulle de l'IA actuelle. En effet, depuis plusieurs mois, un même mot revient avec insistance dans les cercles financiers, technologiques et politiques : bulle. La bulle de l’intelligence artificielle, nourrie par des investissements colossaux, des promesses parfois floues et une course mondiale à la puissance de calcul, semble se rapprocher d’un point de rupture. Entre signaux boursiers inquiétants, doutes croissants sur la rentabilité réelle des projets et comparaisons de plus en plus assumées avec l’explosion de la bulle Internet, le secteur de l’IA entre dans une phase critique où l’euphorie laisse place à l’examen. La chute de 400 milliards de dollars de la valeur de Microsoft serait un avant-goût du krach à venir.


Voici l'annonce d'Anthropic :

Claude est un espace de réflexion

Il existe de nombreux endroits propices à la publicité. Une conversation avec Claude n'en fait pas partie.

La publicité stimule la concurrence, aide les gens à découvrir de nouveaux produits et permet d'offrir gratuitement des services tels que le courrier électronique et les réseaux sociaux. Nous avons mené nos propres campagnes publicitaires et nos modèles d'IA ont, à leur tour, aidé bon nombre de nos clients dans le secteur de la publicité.

Mais inclure des publicités dans les conversations avec Claude serait incompatible avec ce que nous voulons que Claude soit : un assistant véritablement utile pour le travail et la réflexion approfondie.

Nous voulons que Claude agisse sans ambiguïté dans l'intérêt de nos utilisateurs. Nous avons donc fait un choix : Claude restera sans publicité. Nos utilisateurs ne verront pas de liens « sponsorisés » à côté de leurs conversations avec Claude ; les réponses de Claude ne seront pas non plus influencées par les annonceurs ni ne comprendront de placements de produits tiers que nos utilisateurs n'ont pas demandés.

La nature des conversations avec l'IA

Lorsque les gens utilisent les moteurs de recherche ou les réseaux sociaux, ils s'attendent à trouver un mélange de contenu organique et sponsorisé. Filtrer le signal du bruit fait partie de l'interaction.

Les conversations avec les assistants IA sont très différentes. Le format est ouvert ; les utilisateurs partagent souvent le contexte et en révèlent plus qu'ils ne le feraient dans une requête de recherche. Cette ouverture fait partie de ce qui rend les conversations avec l'IA précieuses, mais c'est aussi ce qui les rend susceptibles d'être influencées d'une manière que d'autres produits numériques ne sont pas.

Notre analyse des conversations avec Claude (réalisée de manière à préserver la confidentialité et l'anonymat de toutes les données) montre qu'une partie appréciable d'entre elles porte sur des sujets sensibles ou profondément personnels, le genre de conversations que vous pourriez avoir avec un conseiller de confiance. De nombreuses autres utilisations impliquent des tâches complexes d'ingénierie logicielle, un travail approfondi ou la réflexion sur des problèmes difficiles. L'apparition de publicités dans ces contextes serait incongrue et, dans de nombreux cas, inappropriée.

Nous avons encore beaucoup à apprendre sur l'impact des modèles d'IA sur les personnes qui les utilisent. Les premières recherches suggèrent à la fois des avantages, comme le fait que les gens trouvent un soutien auquel ils n'auraient pas accès ailleurs, et des risques, notamment la possibilité que les modèles renforcent des croyances néfastes chez les utilisateurs vulnérables. L'introduction d'incitations publicitaires à ce stade ajouterait un niveau de complexité supplémentaire. Notre compréhension de la manière dont les modèles traduisent les objectifs que nous leur fixons en comportements spécifiques est encore en cours d'élaboration ; un système basé sur la publicité pourrait donc avoir des résultats imprévisibles.

Structures incitatives

Être véritablement utile est l'un des principes fondamentaux de la Constitution de Claude, le document qui décrit notre vision du caractère de Claude et guide la manière dont nous formons le modèle. Un modèle commercial basé sur la publicité introduirait des incitations qui pourraient aller à l'encontre de ce principe.

Prenons un exemple concret. Un utilisateur mentionne qu'il a des troubles du sommeil. Un assistant sans incitations publicitaires explorerait les différentes causes potentielles (stress, environnement, habitudes, etc.) en fonction de ce qui pourrait être le plus pertinent pour l'utilisateur. Un assistant financé par la publicité a une considération supplémentaire : déterminer si la conversation offre une opportunité de réaliser une transaction. Ces objectifs peuvent souvent coïncider, mais pas toujours. Et, contrairement à une liste de résultats de recherche, les publicités qui influencent les réponses d'un modèle peuvent rendre difficile de déterminer si une recommandation donnée est motivée par des raisons commerciales ou non. Les utilisateurs ne devraient pas avoir à se demander si une IA les aide véritablement ou si elle oriente subtilement la conversation vers quelque chose de monnayable.

Même les publicités qui n'influencent pas directement les réponses d'un modèle d'IA et qui apparaissent séparément dans la fenêtre de chat compromettraient ce que nous voulons que Claude soit : un espace clair pour réfléchir et travailler. De telles publicités inciteraient également à optimiser l'engagement, c'est-à-dire le temps que les utilisateurs passent sur Claude et la fréquence à laquelle ils reviennent. Ces indicateurs ne correspondent pas nécessairement à une aide véritable. L'interaction IA la plus utile peut être brève ou résoudre la demande de l'utilisateur sans susciter de conversation supplémentaire.

Nous reconnaissons que toutes les implémentations publicitaires ne se valent pas. Des approches plus transparentes ou opt-in, où les utilisateurs choisissent explicitement de voir du contenu...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !