IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT d'OpenAI dans le collimateur de la FTC : l'agence veut déterminer si l'IA met en danger la réputation et les données des utilisateurs

Le , par Stéphane le calme

9PARTAGES

6  0 
OpenAI, la start-up de San Francisco qui a développé ChatGPT, un bot conversationnel basé sur l’intelligence artificielle, fait l’objet d’une enquête de la Federal Trade Commission (FTC), l’agence américaine de protection des consommateurs. La FTC veut savoir si ChatGPT met en danger la réputation et les données des utilisateurs, et s’il génère des informations fausses, trompeuses ou diffamatoires.

ChatGPT est un bot conversationnel qui utilise un modèle de langage artificiel pour produire des réponses à partir de n’importe quelle entrée textuelle. Il peut converser sur différents sujets, générer du contenu créatif comme des poèmes, des histoires ou des chansons, et même imiter le style d’écriture de personnalités célèbres. ChatGPT est accessible au public via une interface web ou une API.

Les analystes ont qualifié le ChatGPT d'OpenAI d'application grand public à la croissance la plus rapide de l'histoire, et son succès précoce a déclenché une course aux armements parmi les entreprises de la Silicon Valley pour déployer des chatbots concurrents. Le directeur général de la société, Sam Altman, est devenu une figure influente dans le débat sur la réglementation de l'IA, témoignant à Capitol Hill, dînant avec des législateurs et rencontrant le président Biden et le vice-président Harris.

Mais maintenant, l'entreprise fait face à un nouveau défi : la FTC a fait parvenir à OpenAI une demande d’information de 20 pages, dans laquelle elle lui enjoint de fournir des documents relatifs au développement et à l’entraînement de ses modèles de langage, à la collecte et à la protection des données personnelles utilisées par la plateforme, à la vérification et à la correction des informations produites par ChatGPT, et aux risques potentiels pour les consommateurs, notamment en termes de préjudice réputationnel.


La FTC s’intéresse notamment aux cas « d'hallucinations », un terme qui désigne les situations où l’IA génère des informations fausses ou inventées. Par exemple, ChatGPT peut affirmer que le président des États-Unis est un extraterrestre, ou que le pape a été accusé de meurtre. Ces informations peuvent être nuisibles pour les personnes concernées, mais aussi pour les utilisateurs qui les prennent pour vraies.

Des réclamations à cet effet ont été faites le mois dernier dans le cadre d'un procès civil privé lorsqu'un animateur de radio de l'État de Géorgie a poursuivi OpenAI alléguant que ChatGPT l'avait diffamé et avait porté atteinte à sa réputation en associant faussement son nom à un problème criminel.

En avril, un maire australien a menacé d'intenter une action en diffamation contre OpenAI après que ChatGPT l'aurait prétendument accusé d'être impliqué dans un scandale de corruption étrangère. Les avocats de l'homme auraient donné à OpenAI 28 jours pour corriger son modèle d'IA. Depuis lors, il n'y a pas eu d'autre mot de litige.

La FTC veut également savoir comment OpenAI teste, ajuste et manipule ses algorithmes, notamment pour produire des réponses différentes ou pour répondre aux risques, et dans différentes langues. Elle demande aussi à OpenAI de lui fournir la liste des plaintes qu’elle a reçues du public, des procès auxquels elle est impliquée, et des détails sur la fuite de données qu’elle a révélée en mars 2023 et qui avait exposé temporairement les historiques de chat et les données de paiement des utilisateurs.

La lettre demande également de nombreux documents de l'entreprise, y compris des contrats avec des partenaires depuis 2017, et des communications internes sur le potentiel des modèles d'IA à "produire des déclarations inexactes sur les individus" et à "révéler des informations personnelles".

Quelles sont les conséquences possibles de l’enquête ?

L’enquête de la FTC est la première manifestation concrète d’une régulation gouvernementale de l’IA aux États-Unis, alors que les législateurs du Congrès peinent à se mettre à la page sur une industrie en pleine évolution et à élaborer une législation adaptée au secteur. Les efforts américains sont largement en retard par rapport à d’autres acteurs mondiaux. Par exemple, l’Union européenne est en passe de finaliser une législation pionnière qui interdit l’utilisation de l’IA pour la police prédictive et qui applique des restrictions aux scénarios d’utilisation à haut risque3.

L’enquête de la FTC pourrait aussi compliquer la relation entre OpenAI et les décideurs politiques, dont beaucoup ont été impressionnés par la technologie et le PDG de la start-up, Sam Altman. Elle pourrait aussi attirer davantage l’attention sur le rôle d’OpenAI dans le débat sur la menace que l’IA générative peut représenter pour l’emploi, la sécurité nationale et la démocratie.

OpenAI dispose d’un délai de 30 jours pour répondre aux demandes de l’agence. Si elle ne se conforme pas ou si elle fournit des informations incomplètes ou inexactes, elle s’expose à des sanctions civiles ou pénales.

Les réactions à l’enquête

L’enquête de la FTC a suscité des réactions contrastées dans le monde de l’IA. Certains ont salué l’initiative de l’agence, estimant qu’elle était nécessaire pour encadrer le développement et l’utilisation de l’IA générative, qui peut avoir des impacts sociaux et éthiques importants. D’autres ont critiqué l’enquête, la jugeant trop intrusive, disproportionnée ou mal ciblée.

Parmi les partisans de l’enquête, on trouve des experts en éthique de l’IA, des défenseurs des droits des consommateurs, et des concurrents d’OpenAI. Ils estiment que ChatGPT pose des risques réels pour les utilisateurs, qui peuvent être trompés, manipulés ou exposés par le bot. Ils appellent à plus de transparence et de responsabilité de la part d’OpenAI, qui selon eux profite d’un statut privilégié dans le secteur de l’IA sans rendre de comptes à la société.

Parmi les opposants à l’enquête, on trouve des partisans de l’innovation, des défenseurs de la liberté d’expression, et des alliés d’OpenAI. Ils estiment que ChatGPT est une avancée technologique majeure, qui offre des opportunités créatives et éducatives aux utilisateurs. Ils craignent que l’enquête de la FTC ne freine le progrès de l’IA, ne limite la diversité des voix et des idées, et ne nuise à la compétitivité des États-Unis face à d’autres puissances.

Par le billet de son PDG, OpenAI a déclaré qu’elle coopérerait avec la FTC et qu’elle respecterait les lois en vigueur. Elle a aussi affirmé qu’elle s’efforçait de rendre ChatGPT plus fiable, plus sûr et plus éthique. Elle a rappelé qu’elle avait mis en place des mécanismes de contrôle et de modération pour prévenir les abus et les erreurs du bot. Elle a enfin souligné qu’elle avait pour mission de créer une IA bénéfique pour l’humanité.

Il est très décevant de voir la demande de la FTC commencer par une fuite, ce qui n'aide pas à instaurer la confiance. Cela dit, il est extrêmement important pour nous que notre technologie soit sûre et pro-consommateur, et nous sommes convaincus que nous respectons la loi. Bien sûr, nous travaillerons avec la FTC.

Nous avons construit GPT-4 en s'appuyant sur des années de recherche sur la sécurité et avons passé plus de 6 mois après avoir terminé la formation initiale pour le rendre plus sûr et plus aligné avant de le publier. Nous protégeons la vie privée des utilisateurs et concevons nos systèmes pour en savoir plus sur le monde, et non sur les particuliers.

Nous sommes transparents sur les limites de notre technologie, en particulier lorsque nous ne parvenons pas à le faire. et notre structure de bénéfices plafonnés signifie que nous ne sommes pas incités à réaliser des rendements illimités.
Des procès qui se multiplient

Paul Tremblay et Mona Awad, affirment que la société a utilisé leurs œuvres sans autorisation pour entraîner son système d’intelligence artificielle générative ChatGPT. La plainte des auteurs affirme que les livres sont un « ingrédient clé » car ils offrent les « meilleurs exemples d’écriture longue de haute qualité ». La plainte estime qu’OpenAI a incorporé dans ses données d’entraînement plus de 300 000 livres, dont certains provenant de « bibliothèques fantômes » illégales qui proposent des livres protégés par le droit d’auteur sans autorisation.

Awad est connue pour ses romans comme « 13 Ways of Looking at a Fat Girl » et « Bunny ». Tremblay est l’auteur de romans comme « The Cabin at the End of the World », qui a été adapté dans le film de Night Shyamalan « Knock at the Cabin » sorti en février. Tremblay et Awad affirment que ChatGPT peut générer des résumés « très précis » de leurs livres, ce qui indique qu’ils figurent dans sa base de données.

Mais ils ne sont pas les seuls.


La comédienne et auteure Sarah Silverman, ainsi que les auteurs Christopher Golden et Richard Kadrey, poursuivent OpenAI et Meta chacun devant un tribunal de district américain pour double plainte pour violation du droit d'auteur.

Selon les plaintes déposées vendredi devant le tribunal fédéral de San Francisco, Meta et OpenAI ont obtenu les œuvres des plaignants à partir de sites illégaux de « bibliothèques fantômes », qui proposent des livres numérisés sans respecter les droits d’auteur. Les plaignants affirment que leurs œuvres ont été utilisées comme matériel d’entraînement pour les modèles d’IA, sans qu’ils n’en aient été informés ni rémunérés.

Les plaignants citent comme preuve le fait que les modèles d’IA sont capables de résumer leurs livres lorsqu’ils sont sollicités. Par exemple, ChatGPT peut fournir un résumé du livre The Bedwetter de Sarah Silverman, publié en 2010, qui raconte son enfance marquée par l’énurésie. De même, LLaMA peut résumer les livres Ararat de Christopher Golden et Sandman Slim de Richard Kadrey, qui sont des romans fantastiques.

Les auteurs disent qu'ils « n'ont pas consenti à l'utilisation de leurs livres protégés par le droit d'auteur comme matériel de formation » pour les modèles d'IA des entreprises. Leurs plaintes contiennent chacune six chefs d'accusation de divers types de violations du droit d'auteur, de négligence, d'enrichissement sans cause et de concurrence déloyale. Les auteurs demandent des dommages-intérêts légaux, la restitution des bénéfices, etc.

Les avocats Joseph Saveri et Matthew Butterick, qui représentent les trois auteurs, écrivent sur leur site Web LLMlitigation qu'ils ont entendu parler « d'écrivains, d'auteurs et d'éditeurs qui s'inquiètent de la capacité étonnante de [ChatGPT] à générer du texte similaire à celui trouvé dans les matériaux textuels protégés par les droits d'auteur, y compris des milliers de livres ».

Source : FTC

Et vous ?

Que pensez-vous de l’enquête de la FTC sur OpenAI et ChatGPT?
Avez-vous déjà utilisé ChatGPT ou un autre bot conversationnel basé sur l’IA? Quelle a été votre expérience?
Quels sont les avantages et les inconvénients de l’IA générative pour la société?
Quelles sont les mesures que vous aimeriez voir prises pour réguler l’IA et protéger les consommateurs?
Quels sont les domaines d’application de l’IA qui vous intéressent ou vous inquiètent le plus?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message
Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message
L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message
Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de petitours
Membre émérite https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2024 à 15:52
Moi si je dis, il faut bien que cambriole 25 maisons par ans, sinon je ne sais pas partir en vacances, je suis certains que ça finira mal pour moi. Mais lui, le Altman, la nouvelle coqueluche du moment, il peut se permettre de dire qu'il ne peut gagner des millions qu'en volant le travail des autres, et ça passe crème.
7  0 
Avatar de edrobal
Membre averti https://www.developpez.com
Le 26/11/2024 à 11:49
Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
7  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 13/02/2024 à 13:01
Citation Envoyé par Ryu2000 Voir le message
Ça ne sert à rien que trop d'étudiants apprennent à se servir de l'IA, puisqu'avec l'IA il faudra moins d'humains pour réaliser autant de travail.
Au bout d'un moment ceux qui bossent dans l'IA ne trouveront plus de boulot.

Si ça se trouve le bon plan c'est de partir totalement à l'opposé.
L'avenir c'est peut-être l'artisanat sans machine, entièrement fait à la main.
On ne sait pas, il y aura peut-être des riches près à mettre beaucoup d'argent dans des produits humains.

C'est clair que beaucoup de gens vont perdre leur boulot à cause de l'IA.
Et ils vont galérer à se reconvertir.

Ce n'est pas dans la conception des IA ou dans la maintenance des robots qu'il y aura beaucoup de boulot.
Parce qu'il y a besoin de peu d'humains pour faire beaucoup.
Je me pose quand même la question, toute cette augmentation de productivité, qui va pouvoir en acheter les fruits, si on se retrouve avec des gens sans travail, qui va acheter ce que produit l'IA ?
6  0 
Avatar de smobydick
Membre averti https://www.developpez.com
Le 16/02/2024 à 7:57
Il y a tellement d'experts qui disent tout et son contraire qu'il y en aura bien un qui finira par avoir raison.
6  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 21/02/2024 à 17:43
Une explication la plus probable, c'est que un modèle ca coute de la tune a faire tourner, open ai a surement crée un modèle dégradé mais qui consomme beaucoup moins pour arriver à tenir financièrement.

si demain google search utilisait un système comme openai, google serait surement en faillite, les couts sont multiplié par 10 je crois par rapport au algos de recherche classique au dernnier articles que j'avais lu (ca date de plus d'1ans cela dit, les couts ont surrement baissé)
mais même un facteur x2 c'est trop cher, ca signifierais que google devrait mettre 2 fois plus de pub ou augmenter le prix du référencement par 2.
6  0