IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les entreprises d'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur mais ces chercheurs ont essayé
Démontrant que former des modèles d'IA puissants sans enfreindre la loi, c'est possible

Le , par Stéphane le calme

49PARTAGES

8  0 
Les entreprises spécialisées dans l'IA affirment qu'elles ne peuvent pas respecter les droits d'auteur mais ces chercheurs ont essayé,
leur expérience inédite démontre que former des modèles d’IA puissants sans enfreindre la loi, c’est possible

Au cœur d’un débat brûlant entre innovation technologique et respect des droits de propriété intellectuelle, nombre d’entreprises d’intelligence artificielle (IA) avancent que « le respect du droit d’auteur est impossible » dans leurs processus de formation. Pourtant, une équipe de chercheurs a relevé le défi... et semble avoir prouvé le contraire.

Contexte

Un collectif de plus de vingt chercheurs, piloté par l’association à but non lucratif EleutherAI (MIT, CMU, University of Toronto), a constitué un jeu de données de 8 To exclusivement issu de contenus sous licence ouverte ou appartenant au domaine public. À partir de ce corpus, ils ont entraîné Comma v0.1, un modèle de 7 milliards de paramètres, dont les performances sont comparables à celles de LLaMA 2‑7B de Meta, un modèle formé sur des données potentiellement protégées.

Contrairement aux gigantesques jeux de données non filtrés utilisés par les grandes entreprises d’IA, cette initiative a misé sur un protocole stringent :
  • Collecte uniquement sous licences libres ou domaine public ;
  • Annotation manuelle de chaque donnée pour valider les licences, indispensable face aux défis d’automatisation.

Le résultat ? Un modèle performant, mais dont la constitution reste coûteuse – tant en temps qu’en ressources.

Ce projet intervient dans un contexte législatif agité :
  • Aux États-Unis et au Royaume-Uni, des recours judiciaires et des propositions de lois (comme le Generative AI Copyright Disclosure Act) visent à encadrer l’usage des œuvres protégées.
  • En Europe, la réglementation exige désormais la transparence des jeux de données : les entreprises doivent publier un résumé détaillé des contenus utilisés, les titulaires pouvant s’y opposer (opt‑out).

OpenAI déclare la course à l'IA « terminée » s'il n'est pas possible d'entraîner les LLM sur des œuvres protégées

Ces dernières années, les capacités des chatbots d'IA, comme ChatGPT d'OpenAI, se sont considérablement améliorées ; ils s'appuient sur de grands modèles de langage (LLM) pour produire du contenu pour les utilisateurs. Mais le processus de formation est largement controversé, certains éditeurs accusant OpenAI d'utiliser des œuvres protégées par le droit d'auteur sans autorisation, et un certain nombre d'affaires juridiques sont en cours.

Défendant ses pratiques commerciales dans un procès, OpenAI a déclaré : « les modèles apprennent, comme nous le faisons tous, de ce qui a été fait auparavant. La défense de l'usage équitable existe précisément pour cette raison : encourager et permettre le développement de nouvelles idées qui s'appuient sur des idées antérieures ». Cette défense d'OpenAI est conforme aux précédentes déclarations de l'entreprise sur la formation de ses modèles.

En janvier 2024, OpenAI affirmait : « étant donné que le droit d'auteur couvre aujourd'hui pratiquement toutes les formes d'expression humaine, il serait impossible d’entraîner les meilleurs modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur ». OpenAI reconnaît donc ouvertement qu'il utilise des contenus protégés par le droit d'auteur pour créer ses modèles d'IA. L'entreprise n'a toutefois pas encore été condamnée.

Même son de cloche pour Nick Clegg, un homme politique britannique. Il a été vice-premier ministre du Royaume-Uni entre 2010 et 2015, puis responsable des affaires internationales et de la communication de Meta (anciennement Facebook) d'octobre 2018 à janvier 2025. Fervent défenseur des efforts de Meta en matière d'IA, il est revenu sur le débat sur la protection des droits d'auteur lors du festival de Charleston, dans l'East Sussex, un comté du sud-est de l'Angleterre.

Nick Clegg estime que le fait d'obliger les entreprises d'IA à demander l'autorisation avant d'utiliser des contenus protégés par des droits d'auteur pour former des modèles d'IA détruirait le secteur. Nick Clegg a déclaré que la communauté créative devrait avoir le droit de refuser que son travail soit utilisé pour former des modèles d'IA. Mais il a affirmé qu'il n'était pas possible de demander le consentement des créateurs avant d'ingérer leur travail.

Citation Envoyé par Nick Clegg
Je pense que la communauté créative veut aller plus loin. De nombreuses voix s'élèvent pour dire que l'on ne peut s'entraîner sur mon contenu que si l'on demande d'abord l'autorisation. Et je dois dire que cela me semble quelque peu invraisemblable, car ces systèmes s'entraînent sur de grandes quantités de données.

Je ne vois pas comment on peut demander à tout le monde d'abord. Je ne vois pas comment cela pourrait fonctionner. Et d'ailleurs, si vous le faisiez en Grande-Bretagne et que personne d'autre ne le faisait, vous tueriez du jour au lendemain l'industrie de l'intelligence artificielle dans ce pays.

Un projet inédit

Un groupe de chercheurs en intelligence artificielle a découvert qu'il était possible de créer un énorme ensemble de données de huit téraoctets en utilisant uniquement des textes sous licence libre ou appartenant au domaine public. Ils ont testé la qualité de l'ensemble de données en l'utilisant pour former un modèle de langage de 7 milliards de paramètres, qui a obtenu d'aussi bons résultats que des efforts comparables de l'industrie, tels que Llama 2-7B, que Meta a publié en 2023.

L'article détaillant leurs efforts révèle également que le processus a été laborieux, ardu et impossible à automatiser complètement.

Citation Envoyé par Résumé de la recherche
Les grands modèles de langage (LLM) sont généralement formés sur d'énormes quantités de textes sans licence, une pratique qui a fait l'objet d'un examen minutieux en raison d'une éventuelle violation de la propriété intellectuelle et de préoccupations d'ordre éthique. L'entraînement des LLM sur des textes sous licence libre constitue un premier pas vers la résolution de ces problèmes, mais les efforts antérieurs de collecte de données ont abouti à des ensembles de données trop petits ou de qualité insuffisante pour produire des LLM performants.

Pour combler cette lacune, nous collectons, conservons et publions le Common Pile v0.1, une collection de huit téraoctets de textes sous licence libre conçue pour la formation préalable des LLM. Le Common Pile comprend du contenu provenant de 30 sources couvrant divers domaines, notamment des documents de recherche, des codes, des livres, des encyclopédies, du matériel éducatif, des transcriptions audio, etc.

Nous validons nos efforts en entraînant deux LLM de 7 milliards de paramètres sur du texte provenant de la pile commune : Comma v0.1-1T et Comma v0.1-2T, entraînés respectivement sur 1 et 2 trillions de tokens. Les deux modèles atteignent des performances compétitives par rapport aux LLM formés sur des textes sans licence avec des budgets de calcul similaires, tels que Llama 1 et 2 7B. En plus de publier le Common Pile v0.1 lui-même, nous publions également le code utilisé dans sa création ainsi que
le mélange d'entraînement et les points de contrôle pour les modèles Comma v0.1.
Le groupe a construit un modèle d'IA qui est nettement plus petit que les derniers modèles proposés par ChatGPT d'OpenAI ou Gemini de Google, mais ses résultats semblent représenter l'effort le plus important, le plus transparent et le plus rigoureux à ce jour pour démontrer une méthode différente de construction d'outils d'IA populaires.


Cela pourrait avoir des conséquences sur le débat politique qui entoure l'IA et le droit d'auteur

Le document lui-même ne prend pas position sur la question de savoir si l'utilisation de textes pour entraîner l'intelligence artificielle constitue un usage loyal.

Ce débat a été ravivé ces dernières semaines par une action en justice très médiatisée et par des changements spectaculaires dans la législation sur le droit d'auteur et son application, tant aux États-Unis qu'au Royaume-Uni.

Mercredi, Reddit a annoncé qu'elle poursuivait Anthropic, alléguant que cette dernière avait accédé à des données du forum de discussion des médias sociaux sans accord de licence, selon le Wall Street Journal. Le même jour, la Chambre des communes du Royaume-Uni a fait des concessions sur un projet de loi controversé qui permettrait aux entreprises d'IA de s'entraîner sur du matériel protégé par des droits d'auteur.

Ces mesures font suite au licenciement par le président Donald Trump, le mois dernier, de la directrice du Bureau américain du droit d'auteur, Shira Perlmutter. Son éviction a attiré l'attention sur le récent rapport de l'office sur l'IA, qui mettait en doute l'application du fair use aux œuvres protégées par le droit d'auteur dans le cadre de l'IA générative.

Les entreprises d'IA et leurs investisseurs, quant à eux, affirment depuis longtemps qu'il n'est pas possible de trouver une meilleure solution

En avril 2023, Sy Damle, un avocat représentant la société de capital-risque Andreessen Horowitz, a déclaré au Bureau américain du droit d'auteur : « La seule façon pratique pour ces outils d'exister est qu'ils puissent être formés sur des quantités massives de données sans avoir à concéder de licence pour ces données ». Plus tard dans l'année, dans des commentaires adressés au gouvernement britannique, OpenAI a déclaré : « qu'il serait impossible d'entraîner les principaux modèles d'IA d'aujourd'hui sans utiliser des documents protégés par le droit d'auteur. »

Et en janvier 2024, le témoin expert d'Anthropic dans un procès sur le droit d'auteur a affirmé que « l'hypothétique marché concurrentiel des licences couvrant les données pour former des LLM de pointe serait impraticable », comme le montrent les documents du tribunal.

Alors que les documents d'orientation sur l'IA évoquent souvent la nécessité d'ouvrir davantage les données et que les experts débattent de la question de savoir si les grands modèles de langage devraient être formés à partir de données sous licence provenant d'éditeurs, peu d'efforts sont déployés pour mettre la théorie en pratique, a déclaré le coauteur de l'article, Aviya Skowron, responsable des politiques à l'institut de recherche à but non lucratif Eleuther AI.

« J'aimerais également que ces personnes soient curieuses de savoir ce que cette tâche implique réellement », a déclaré Skowron.


Il s'avère que cette tâche implique beaucoup d'humains

En effet, les données ne sont pas formatées de manière à être lisibles par la machine, ce qui pose des problèmes techniques, mais aussi juridiques, puisqu'il faut déterminer quelle licence s'applique à quel site web, une perspective décourageante alors que le secteur est truffé de données dont la licence n'est pas respectée.

« Il ne s'agit pas d'une chose où l'on peut simplement augmenter les ressources dont on dispose », comme l'accès à davantage de puces informatiques et à un scraper web sophistiqué, a déclaré Stella Biderman, directrice exécutive d'Eleuther AI. « Nous utilisons des outils automatisés, mais toutes nos données sont annotées manuellement à la fin de la journée et vérifiées par des personnes. Et c'est vraiment très difficile ».

Néanmoins, le groupe a réussi à mettre au jour de nouveaux ensembles de données qui peuvent être utilisés de manière éthique. Il s'agit notamment d'un ensemble de 130 000 livres en langue anglaise de la Bibliothèque du Congrès, soit près du double de la taille de l'ensemble de données sur les livres populaires du Projet Gutenberg.

L'initiative du groupe s'appuie également sur des efforts récents visant à développer des ensembles de données plus éthiques, mais toujours utiles, tels que FineWeb de Hugging Face, le référentiel open-source pour l'apprentissage automatique.

Eleuther AI a été à l'origine d'un effort analogue en matière de logiciels libres en 2020, en créant un ensemble de données souvent cité appelé « Pile ». Un site qui hébergeait l'ensemble de données a dû le retirer en 2023 à la suite d'une demande au titre du Digital Millennium Copyright Act émanant du groupe danois de lutte contre le piratage Rights Alliance, qui a ciblé le fait que le Pile contenait Books3, un ensemble de données de livres pour lequel Meta fait l'objet d'une action en justice.

Le nouvel ensemble de données s'appelle Common Pile v0.1, et le modèle s'appelle Comma v0.1 - une référence délibérée à la conviction du groupe qu'il sera en mesure de trouver davantage de textes sous licence ouverte ou dans le domaine public, qui pourront ensuite être utilisés pour former des modèles plus importants.

Source : résultats de l'étude

Et vous ?

La performance des modèles IA justifie-t-elle vraiment de s'affranchir du droit d’auteur ?

Faut-il imposer un système de « opt-in » (autorisation préalable) plutôt que « opt-out » (retrait sur demande) pour l'utilisation des contenus protégés ?

Accepteriez-vous que votre travail serve à former une IA si vous receviez une rémunération ou un crédit explicite ?

Le modèle actuel vous semble-t-il plutôt basé sur la spoliation ou l’innovation collaborative ?

Le droit d’auteur tel qu’il est conçu aujourd’hui est-il adapté à l’ère de l’intelligence artificielle ?

Qui doit porter la responsabilité juridique en cas d’abus : le développeur, l’entreprise, ou l’utilisateur ?
Vous avez lu gratuitement 734 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 09/07/2025 à 2:21
C'est ironique de voir qu'un article (Je parle de l'article scientifique) qui alerte sur les conclusions simplistes des modèles de langage finisse lui-même par en tirer une.
Il ne distingue pas entre une étude générée par un modèle de langage et une étude écrite par un humain, mais reformulée par un modèle pour corriger les fautes ou clarifier l'expression
Proposer un outil pour mesurer l'utilisation d'un modèle de langage dans un texte est une bonne idée, mais il est regrettable de négliger l'essentiel, à savoir différencier le fond de la forme.
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 23/06/2025 à 0:11
Citation Envoyé par Bruno Voir le message
Ce phénomène illustre le paradoxe de l'IA dans la recherche : outil potentiel d'avancées majeures, elle devient aussi un vecteur de désinformation lorsqu'elle est détournée par des logiques productivistes. La situation appelle une réponse collective de la communauté scientifique pour préserver les fondements mêmes de la connaissance, alors que les frontières entre recherche authentique et "science-fiction" deviennent de plus en plus floues.
Cela va au delà :
  • dans la science via une perte de rigueur scientifique
  • dans le développement logiciel via une perte de qualité de code
  • dans l'art via une perte de qualité artistique : tout fini par se ressembler
  • dans les articles d'actualité via une perte de fond : répétition à en vomir des même choses, on a peut-être 20% de l'article qui apporte une nouvelle info, le reste venant des autres articles ayant été écrits dans les dernières 48h
  • etc.


La communauté scientifique n'a pas plus de solution à apporter que les développeurs, les artistes, les journalistes, etc. n'ont de solution à apporter à leur métier. Il s'agit d'un problème fondamental, où l'on fait face à une facilité déconcertante à produire du contenu de manière massive, mais où on a encore du mal à faire la différence entre les contextes qui profitent réellement d'une production massive, car ayant peu d'intérêt pour la qualité, face aux contextes qui visent au contraire une qualité de contenu, et qui ne peut donc se réduire à une génération massive. Quand on applique une génération massive dans un contexte nécessitant de la rigueur, on fait forcément fausse route, même si au début ça fait "Wow !".

Wikipédia est pour moi un des meilleurs exemples en la matière : avec son existence il est devenu très facile de générer du contenu encyclopédique accessible à tous. En effet ça ne coûte rien d'éditer un article et d'envoyer son changement, et du coup ils ont fait face à une vague de changements, bourrées de changements de piètre qualité voire malveillants. La réponse ? Une modération de plus en plus rigoureuse, rendant l'intérêt "productiviste" des changements malveillants moins rentable, donc moins présent, et l'acceptation de contenu de piètre qualité plus rare, donc une augmentation générale de la qualité. Avec ses soucis aussi, il ne faut pas être bisounours.
https://www.lefigaro.fr/blogs/techno...roissance.html
https://hyperbate.fr/dernier/?p=5554

Mais là où Wikipédia se différencie des scientifiques, des développeurs, des artistes, ou des journalistes, c'est qu'un contributeur de Wikipédia n'en vit pas. Il s'agit d'une communauté marchant globalement dans le même sens, et le peu de temps consacré par chacun à son évolution fait avancer le tout. Alors que pour les scientifiques, développeurs, artistes, ou journalistes, ce type de fonctionnement relève plutôt de l'exception : ces gens là touchent de l'argent pour faire leur métier, et ont donc des comptes à rendre, muent par les même règles productivistes que prônent nos sociétés.

L'exception existe : les scientifiques indépendants, les développeurs open source, les artistes bénévoles, les rédacteurs de blogs. Des gens qui produisent sans contrepartie, car c'est ce qui les passionne, c'est leur art qui s'exprime, et donc leur créativité et la qualité de leurs oeuvres qui prennent le pas. Ce genre de personne qui ne manque pas une occasion de s'améliorer un peu à chaque fois, plutôt que de produire pour produire, parce que c'est la production qui fait tomber le chèque à la fin du mois, pas la qualité.

Évidemment je reste simpliste : il y a des contributeurs bénévoles financièrement, mais qui en tirent autre chose par ailleurs. Comme il y a des professionnels qui font leur boulot par passion et font évoluer leur métier. Mais quels sont les profils que promeuvent nos sociétés ? Il ne faut pas s'étonner que les profils vertueux restent marginaux quand l'image que les gens se font du succès est corrélée à la quantité de pognon, et que ledit pognon est corrélé à la quantité de dessous de table plutôt qu'un salaire honnête.

Tant que la société n'évoluera pas pour donner plus de valeur à la qualité plutôt qu'à une masse de piètre qualité, on restera dans un cercle vicieux :
  • les scientifiques continueront de produire des articles pour augmenter leur H-index
  • les dévs continueront de pisser du code pour fermer des tickets (pas résoudre les problèmes, qu'ils ne comprennent pas plus que le logiciel qu'ils modifient, juste fermer les tickets)
  • les artistes continueront de se recopier les uns les autres
  • les articles d'actualité continueront de grappiller notre attention moribonde plutôt que de nous apprendre des choses utiles ou stimulantes
  • etc.


Et au final, tous se feront remplacer par l'IA.

Bref, la situation ne se résoudra pas par une "réponse collective de la communauté scientifique pour préserver les fondements mêmes de la connaissance". Ils n'ont pas ce pouvoir, tout au plus peuvent ils jouer les réactionnaires via des actions isolées, réjouissantes mais pas pérennes. Ils sont dans la main des éditeurs de revues qui, eux, ont du pognon à se faire. Depuis quelques années, on a des vagues d'indépendances contre Microsoft de la part d'entités publiques qui passent à Linux. Il faut espérer que ça dure et que la science soit la prochaine.

Citation Envoyé par Bruno Voir le message
L'évaluation par les pairs, souvent présentée comme rempart absolu, montre ses limites face à ce tsunami.
Cela n'a jamais été un rempart absolu. Il s'agit d'un nettoyage à l'entrée : un filtrage grossier pour éviter les bévues évidentes.

Le rempart absolu, c'est la répétition : une vérité scientifique s'établit dans le temps, à force d'observations répétées dans des situations diverses, filtrées via des méta-analyses résumant les points clés des multiples observations, permettant ainsi de tirer des conclusions plus générales jusqu'à ce que de nouvelles études les remettent en cause. Ainsi, il n'est pas très difficile de passer au travers de 1 revue par les pairs. Mais arriver à toutes les passer jusqu'à s'établir comme vérité scientifique, c'est statistiquement infaisable.

Même si un article scientifique sur l'IA vient de DeepMind, il faut le prendre avec la même prudence qu'un article d'un parfait inconnu. Ce n'est pas pour rien que certaines revues ont établit une relecture à l'aveugle. A contrario, si on migre vers une science open source à la Wikipédia, c'est publication immédiate et non anonyme, mais commentaires ouverts au public, donc backlash quasi garanti en cas d'entourloupe. C'est pas pour rien que les dévs nettoient leurs projets avant de les mettre open source (quand ils ont le courage de le faire). C'est ce qu'on voit avec l'IA : tout se fait en open source, ouvert au public, et l'effet "wow" commence à perdre de sa superbe : on voit désormais tous les jours des articles sortir sur les limites réelles, les promesses non tenues, les retour en arrière après remplacement par l'IA, etc.

Citation Envoyé par Bruno Voir le message
Parallèlement, il devient urgent d'éduquer le public (et les journalistes) à une lecture critique des études scientifiques - non pas dans leur jargon technique, mais dans leurs faiblesses méthodologiques possibles. Car comme le note un commentaire, le vrai problème n'est pas que ces articles existent, mais qu'ils soient pris pour argent comptant par des publics non avertis.
C'est effectivement fondamental : dans le monde du développement aujourd'hui, on ne dit pas qu'une application marche parce que "ça semble tourner", mais parce qu'on a une batterie de tests qui représentent nos exigences et qui passent. De la même manière, on ne dit pas qu'une étude démontre quoi que ce soit parce que "ça fait sens" - déjà parce qu'une étude ne démontre jamais, elle ne fait qu'apporter des évidences dans un sens - mais parce qu'elle applique une méthode qui lui permet d'éviter les écueils connus et documentés en sciences depuis longtemps. Un journaliste présentant une recherche scientifique devrait être à la hauteur d'un pair participant à la revue dudit article (qui je le rappelle n'est qu'un premier filtrage, un reviewer n'a pas forcément le niveau de rigueur qu'on pourrait croire, certains professeurs délégant la tâche à leurs étudiants doctorants).

L'article apporte en tout cas la seule conclusion à apporter :
Citation Envoyé par Bruno Voir le message
En définitive, cette crise pose une question fondamentale : voulons-nous une science qui produit du savoir ou une science qui produit des publications ? L'IA, comme souvent, ne fait qu'amplifier et rendre visible un choix de société qui nous appartient.
2  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 23/06/2025 à 8:51
Citation Envoyé par Gluups Voir le message
Quelles sanctions pour une décision illisible ?
ils seront virés pour ce genre de faute.... pour etre recaser à un poste plus prestigieux encore
(Agnès Buzyn, Amélie de Montchalin, Jean Castex, Brigitte Bourguignon, Emmanuelle Wargon la femme qui dit que la maison individuel c'était plus possible (pour vous le peuple, pas pour elle qui a une grosse villa à la campagne))
le meilleur d'entre tous: Thierry Breton bien sur. Orange, Atos et maintenant l'Europe ! J'avais parié après la dissolution ministre de l'économie en France mais je me suis planté.

Meme chose coté PDG évidement. Tavares après avoir coulé stellantis je vous rassure passe des jours heureux dans ces vignes du Portugal bon lui a pris sa retraite bien mérités.
1  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 13/08/2025 à 18:51
Citation Envoyé par Anthony Voir le message
Le cas de l'éditeur de revues académiques Wiley illustre l'ampleur du problème. Dans un geste décisif, Wiley a fermé 19 revues et retiré plus de 11 000 articles suspects, dont beaucoup avaient été produits à l'aide de l'IA. Ces révélations ont mis au jour un marché noir florissant de la fausse science, de la recherche corrompue et de l’auteur fictif. Pour les universités et la communauté scientifique au sens large, cette affaire souligne la nécessité urgente de renforcer l'éthique et la transparence de la recherche avant que la confiance du public ne s'érode davantage.
Et malgré l'apparente "massivité" de l'action de Wiley, cela reste une goutte d'eau sur l'état général, et ne résout en rien la problématique elle-même. On nettoie juste la poussière ici en sachant pertinemment qu'elle sera remplacée par une nouvelle couche dès la semaine prochaine. C'est ça qui est frustrant. Il faut mettre en place des solutions pérennes, mais les pratiques actuelles sont tellement ancrées avec des attentes économiques fortes, que ce n'est pas près de bouger significativement sans changement de paradigme. Il faut casser l'existant : remplacer les métriques utilisées actuellement pour valoriser la recherche et déconstruire les process pour remplacer les parties corrompues. Et ça doit venir des chercheurs pour démontrer l'indépendance de la recherche. Si ça vient par le législateur, d'une part ça ne sera pas pareil d'un pays à l'autre, d'autre part ça montrera que les chercheurs, soit-disant le summum de la connaissance humaine, doivent être tenus par la main comme le reste de la société.
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2025 à 7:31
Citation Envoyé par Patrick Ruiz Voir le message
Une tendance qui surprend quand on sait que les IA restent des algorithmes sans sentiment et qui hallucinent
Comme pas mal de psy mais c'est moins cher
PS : existe vraiment des "thérapeutes IA"? N'est ce pas juste ce que certains projettent sur les ChatGPT & Co.
ChatGPT peut imiter l'empathie, mais il ne la ressent pas. Il peut sembler mesuré, voire réfléchi, mais il n'a pas d'intuition, d'instinct ou d'expérience vécue.
Les psy payent des études longues pour être empathique, mesuré, avoir de l'instinct et de l'intuition?
En vrai c'est peut être mieux qui se baser sur Freud... Mais quelle devient la différence entre son meilleur pote et son psy (réponse le pote facture pas 70€/h).
L'IA générative peut halluciner, ce qui signifie qu'elle peut inventer des choses complètement fausses ou trompeuses.
Que penser des psy prétendent faire revenir des souvenirs enfouis - qui sont parfois des non-souvenirs suggérés.

Fun fact : j'ai vu le psy de ma mère vers mes 10 ans pour régler des problèmes avec l'autorité. Conclusion : Il aidait certainement ma mère mais je l'ai trouvé - à 10 ans - nul à chier. Me posant des questions banales pour me faire dire des évidences.
Scoop : à 10 ans on est pas fini, pourtant on est capable de répondre à un psy et de comprendre là où il veut nous amener.
Et vous payez 70€/h pour ça?
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 23/06/2025 à 6:52
Effectivement, et au bout de quelques décennies que nos décideurs semblent fournir de la décision produite par intelligence artificielle, allons-nous être obligés de tout lire ?

Quelles sanctions pour une décision illisible ?
0  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 04/09/2025 à 17:43
... mais cela reflète tellement notre époque

Faire des "études" et sortir des "articles" bâclés ou carrément faux ou fait à 80% par une IA. Quelle reconnaissance peut trouver dans cela un "scientifique" ou un "chercheur" en pratiquant de la sorte ? Comment fait-il pour soutenir son image le matin devant son miroir ? Vivement que cette "bulle" IA explose, car c'est un véritable poison.

Pourquoi l'être humain a-t-il en lui ce penchant pour transformer les idées les plus géniales qu'il met en pratique en la retournant contre lui même. Cela reste pour moi un mystère. Tant d'inventions ont été détournées de leur but premier, et toujours dans le mauvais sens.

Et concernant l'IA, comment un être humain un rien rationnel peut-il trouver une "bonne idée" de consulter un "psy-IA".

Quelle tristesse... Foutue époque...

Enfin, on n'y changera rien...

BàV et Peace & Love.
1  1 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 04/09/2025 à 17:44
Citation Envoyé par Patrick Ruiz Voir le message
Dans une déclaration, Bob Morgan, représentant de l'État de l'Illinois, a déclaré : « Nous avons déjà entendu des histoires horribles dans lesquelles l'intelligence artificielle se fait passer pour un thérapeute agréé. Des personnes en situation de crise se sont tournées sans le savoir vers l'IA pour obtenir de l'aide et ont été poussées vers des comportements dangereux, voire mortels. » La loi prévoit des sanctions sévères afin d'éviter de tels résultats, les entreprises ou les particuliers s'exposant à une amende de 10 000 dollars par infraction.
Là il y a effectivement un problème.
Si l'utilisateur croit parler à un médecin et qu'il parle en réalité à une IA, c'est pas bien.

En revanche si l'utilisateur sait que c'est une IA, et qu'a chaque session l'IA lui dit "Vous devriez aller voir un vrai médecin au lieu de me parler" là ça irait".
C'est mieux que de ne consulter personne et ça peut motiver à aller voir une vraie psy. Ça peut servir d'introduction.

Si une IA se fait passer pour un psychanalyste, là c'est pas très grave, parce que les psychanalystes sont des charlatans, donc ça ne peut pas tellement être pire.
Le truc c'est qu'en principe on paie un psychanalyste en liquide, dans la tradition, et que ça va être difficile de donner du liquide à un algorithme.
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 04/09/2025 à 19:15
Citation Envoyé par OuftiBoy Voir le message
Faire des "études" et sortir des "articles" bâclés ou carrément faux ou fait à 80% par une IA. Quelle reconnaissance peut trouver dans cela un "scientifique" ou un "chercheur" en pratiquant de la sorte ? Comment fait-il pour soutenir son image le matin devant son miroir ?
le salaire doit compenser cette peine (enfin j'espere !).

Citation Envoyé par OuftiBoy Voir le message
Vivement que cette "bulle" IA explose, car c'est un véritable poison.
un truc utilisé par plus de 80% des métiers du tertiaires et qui en redemande encore plus (j'en fait partie), ça va éclater mais pas dans le sens ou tu penses.
d'ici 10ans une bonne partie des salariés vont se faire éclater et se faire remplacer par l'ia (statistiquement j'en ferai surement partie malgré mes efforts pour l'éviter).

D'ici la faut soit etre dans la bonne équipe qui va rester et investir un max pour s'assurer de sa liberté financière.
au pire j'ai tort, vous aurez juste un bon portefeuille et une belle amélioration de votre carrière donc vous perdez pas grand chose. Voir même atteint le fire et vous mettre en retraite à 40ans.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 05/09/2025 à 8:19
Citation Envoyé par totozor Voir le message
Mais quelle devient la différence entre son meilleur pote et son psy (réponse le pote facture pas 70€/h).
  • Il y a des choses que tu peux dire à ta psy que tu ne peux pas dire à ton meilleur ami, exemple : :
    Une fille a régulièrement des relations sexuelles avec le mari de sa meilleure amie (elle peut le dire à sa psy mais pas à sa meilleure amie, enfin elle peut, mais ça va démarrer une conversation chiante, donc autant éviter).
  • J'imagine qu'une psy va te poser plus de question sur ton enfance et tes parents que ton meilleur ami.
  • Une psychiatre peut prescrire des médicaments (pas une psychologue, pas une psychanalyste).


Et ce serait bizarre de demander à un ami "pose moi des questions sur ma vie pendant 1h".

Citation Envoyé par totozor Voir le message
Que penser des psy prétendent faire revenir des souvenirs enfouis
Si la psy te donne du LSD, c'est legit. Sinon c'est n'importe quoi…
Pour que ce soit sérieux il faut des psychotropes.

Des psychotropes en clinique?
Des scientifiques suisses ont suggéré mercredi d'associer la consommation de psychotropes, comme le LSD, la kétamine ou les champignons hallucinogènes, et la psychothérapie afin de soigner des personnes souffrant de dépression, de troubles compulsifs ou de douleurs chroniques.
(...)
« Les psychotropes peuvent offrir aux patients de nouvelles perspectives, notamment quand les souvenirs enfouis remontent à la surface. Ils peuvent alors travailler à partir de cette expérience. »
Une citation deFranz Vollenweider, psychiatre et chercheur à l'hôpital psychiatrique universitaire de Zurich
=====
Si tu crois parler à un médecin et que tu parles à une IA ça craint.
Si tu sais que tu parles à un algorithme et qu'il te dit qu'il n'est pas qualifié, ça va.
0  0