IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT : Hive Moderation se lance à son tour dans la détection de texte généré par IA
Mais le public est sceptique concernant l'efficacité de tous ces outils

Le , par Stéphane le calme

0PARTAGES

8  0 
Les grands modèles de langage ont gagné en popularité depuis le lancement commercial de GPT-3 d'OpenAI en 2020. Aujourd'hui, de nombreux acteurs du secteur ont construit leurs propres systèmes rivaux, donnant le coup d'envoi à une nouvelle vague de startups développant des IA génératives. Ces modèles fonctionnent comme des chatbots à usage général. Les utilisateurs tapent des instructions, et ils répondent par des passages de texte cohérents et convaincants.

Depuis la sortie de ChatGPT, plusieurs cas d'utilisations controversées ont été signalé. C'est le cas par exemple dans le domaine scolaire où des étudiants s'en sont servi pour faire leurs devoirs, tandis que les enseignants commencent seulement à considérer leur impact et leur rôle dans l'éducation.

Les avis sont partagés. Certains pensent que la technologie peut affiner les compétences rédactionnelles, tandis que d'autres la considèrent comme un outil de tricherie.

À en croire des témoignages de professeurs d'université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n'a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman.

« Je l'ai signalé sur Facebook, et mes amis [professeurs] ont dit : "ouais ! J'en ai attrapé un aussi" », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d'écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l'horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu'ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l'une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont "signalé" l'utilisation de l'IA dans la réponse "rudimentaire" de l'étudiant. Hick explique que cela peut être détecté par un œil avisé.

« C'est un style propre. Mais il est reconnaissable. Je dirais qu'il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n'était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu'un comment écrire des essais, c'est ce que vous lui diriez avant qu'il crée son style », a-t-il ajouté. Malgré sa connaissance de l'éthique du droit d'auteur, Hick a déclaré qu'il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat. Mais les outils traditionnels de vérification de plagiat ne sont pas efficaces dans la mesure où le texte est original.

Être capable de distinguer l'écriture produite par un humain ou une machine changera la façon dont ils peuvent être utilisés dans le milieu universitaire. Les écoles seraient en mesure d'appliquer plus efficacement l'interdiction des essais générés par l'IA, ou peut-être seraient-elles plus disposées à accepter des articles si elles pouvaient voir comment ces outils peuvent aider leurs élèves.

Des sources ont rapporté au cours des dernières semaines que des écoles de Californie, de New York, de Virginie et de l'Alabama ont banni l'utilisation des outils d'IA tels que ChatGPT et ont bloqué l'accès des étudiants sur les réseaux publics. Les départements de l'éducation ne savent pas exactement quelles politiques devraient être introduites pour réglementer l'utilisation des systèmes d'IA de génération de texte. En outre, toutes les règles seraient de toute façon difficiles à appliquer.

Hive Moderation se lance dans la détection de texte généré par IA

C'est dans ce contexte qu'on commencé à être proposées des solutions visant à détecter si du texte est générée par IA. L'une d'elle est proposée par Hive Moderation. Hive Moderation est un outil qui permet la modération automatique de contenus. Cette solution vise à protéger votre plateforme des contenus visuels, audio et texte inappropriés. L’outil dispose d’une suite de modération de contenu.

Les principales fonctionnalités de Hive Moderation sont les suivantes :
  • Modération de contenus visuels : l’outil prend en charge tous types de contenu visuel (images, vidéos, GIF, Webp) et dispose de 25 sous-filtres, dans 5 types de contenus distincts (NSFW, violence, drogue, incitation à la haine, images animées).
  • Modération de contenus audio : la solution applique une transcription et modération des contenus audio en temps réel. Elle dispose de filtres précis qui permettent de détecter des contenus audio à caractère sexuel, liés à la violence, au harcèlement, aux discours de haine ou encore au spam.
  • Modération de contenus textuels : Hive Moderation dispose d’une compréhension humaine du contenu textuel. L’outil est en mesure de prendre en charge une chaîne de caractères (jusqu’à 1024 caractères), en français, anglais, espagnol, allemand. Il peut également analyser le texte dans les images (memes, GIF, captures d’écran).
  • Tableau de bord : vous accédez à un tableau de bord qui vous permet de configurer des actions de modération personnalisées. Vous pouvez ainsi définir des règles pour agir automatiquement sur le contenu non approuvé et les utilisateurs qui ne respectent pas les conditions de votre plateforme. Vous identifiez et supprimez les spams, les messages signalés et les noms d’utilisateurs en fonction de leur historique de publication.

À cette liste vient s'ajouter la détection de texte généré par IA. Hive Moderation décrit un fonctionnement est relativement simple. Vous prenez le texte supposé généré automatiquement que vous fournissez en entrée à l'outil, le modèle d'Hive Moderation décompose l'entrée en sections plus petites et analyse chacune pour déterminer si elle est générée par l'IA ou écrite par l'homme : « Nos résultats sont complets, y compris les prédictions et les scores de confiance pour le texte dans son ensemble et chaque segment plus petit qu'il contient ».


Cet outil, note Hive Moderation, peut-être utilisé à plusieurs fins :
  • détecter le plagiat : les programmes éducatifs peuvent facilement identifier quand les étudiants utilisent l'IA pour tricher sur les devoirs
  • promulguer des interdictions à l'échelle du site : les plateformes numériques peuvent filtrer le contenu textuel au fur et à mesure qu'il est publié pour faire respecter les interdictions sur les médias générés par l'IA
  • créer de nouveaux filtres : Les plateformes sociales peuvent identifier et étiqueter le texte généré par l'IA, permettant aux utilisateurs de choisir de le filtrer de leurs flux



D'autres outils qui aident à détecter le texte généré par l'IA

Détecteur de sortie GPT-2

OpenAI impressionne Internet avec ses efforts pour reproduire l'intelligence humaine et les capacités artistiques depuis 2015. Mais en novembre dernier, la société est finalement devenue méga-virale avec la sortie du générateur de texte AI ChatGPT. Les utilisateurs de l'outil bêta ont publié des exemples de réponses textuelles générées par l'IA à des invites qui semblaient si légitimes qu'elles ont semé la peur dans le cœur des enseignants et ont même fait craindre à Google que l'outil ne tue son activité de recherche.

Si les ingénieurs d'OpenAI sont capables de créer un bot qui peut écrire aussi bien ou mieux que l'humain moyen, il va de soi qu'ils peuvent également créer un bot qui est meilleur que l'humain moyen pour détecter si le texte a été généré par IA.

La démo en ligne du modèle de détecteur de sortie GPT-2 vous permet de coller du texte dans une boîte et de voir immédiatement la probabilité que le texte ait été écrit par l'IA. Selon les recherches d'OpenAI, l'outil a un taux de détection relativement élevé, mais « doit être associé à des approches basées sur les métadonnées, au jugement humain et à l'éducation du public pour être plus efficace ».

GLTR (Giant Language model Test Room)

Lorsque OpenAI a publié GPT-2 en 2019, les gens du MIT-IBM Watson AI Lab et du Harvard Natural Language Processing Group ont uni leurs forces pour créer un algorithme qui tente de détecter si le texte a été écrit par un bot.

Un texte généré par ordinateur peut sembler avoir été écrit par un humain, mais un écrivain humain est plus susceptible de sélectionner des mots imprévisibles. En utilisant la méthode « il en faut un pour en connaître un », si l'algorithme GLTR peut prédire le mot suivant dans une phrase, alors il supposera que cette phrase a été écrite par un bot.

GPTZero

Durant la période des fêtes de fin d'années, Edward Tian était occupé à créer GPTZero, une application qui peut aider à déterminer si le texte a été écrit par un humain ou un bot. En tant qu'universitaire à Princeton, Tian comprend comment les professeurs d'université pourraient avoir un intérêt direct à détecter un « AIgiarism », ou un plagiat assisté par IA.

Tian dit que son outil mesure le caractère aléatoire des phrases ("perplexité") plus le caractère aléatoire global ("burstiness") pour calculer la probabilité que le texte ait été écrit par ChatGPT. Depuis qu'il a tweeté à propos de GPTZero le 2 janvier, Tian dit qu'il a déjà été approché par des sociétés à capital risque souhaitant investir et qu'il développera bientôt des versions mises à jour.


Le service antiplagiat Turnitin

Turnitin a récemment mis en ligne une démo de sa technologie. Dedans, Turnitin a montré le nombre de phrases dans certains échantillons de dissertations qui ont été écrites par une IA (24 sur 24 dans un cas) et a mis en évidence le texte dans différentes nuances pour indiquer les parties écrites par l'IA et les parties partiellement écrites par l'IA. Annie Chechitelli, directrice des produits chez Turnitin, a déclaré que l'entreprise construit discrètement son logiciel de détection depuis des années, notamment depuis la sortie de GPT-3 en 2020. GPT-3 est un grand modèle de langage développé par OpenAI, avec environ 175 milliards de paramètres.

L'outil est toujours en développement, mais Turnitin espère lancer son logiciel au cours du premier semestre de cette année. « Il s'agira d'une détection assez basique au début, puis nous lancerons des versions rapides ultérieures qui créeront un flux de travail plus exploitable pour les enseignants », a déclaré Chechitelli. Le plan est de rendre le prototype gratuit pour ses clients existants à mesure que la société recueille des données et des commentaires des utilisateurs. La ruée pour donner aux éducateurs la capacité d'identifier les textes écrits par des humains et des ordinateurs s'est intensifiée avec le lancement de ChatGPT fin novembre 2022.

« Au début, nous voulons vraiment aider le secteur et aider les éducateurs à prendre leurs marques et à se sentir plus confiants. Et obtenir le plus d'utilisation possible dès le début ; c'est important pour faire un outil réussi. Plus tard, nous déterminerons comment nous allons le produire », a-t-elle ajouté. Bien que le texte généré par l'IA soit convaincant, il existe des signes révélateurs de l'œuvre d'une IA : elle est souvent fade et sans originalité ; des outils comme ChatGPT régurgitent des idées et des points de vue existants et n'ont pas de voix distincte. Les humains peuvent repérer les textes générés par l'IA, mais cela devient de plus en plus difficile.

Toutefois, les machines sont bien meilleures pour cela. Eric Wang, vice-président de l'IA chez Turnitin, note que les ordinateurs peuvent détecter des modèles évidents dans les textes produits par l'IA. « Même si nous avons l'impression que cela ressemble à de l'œuvre d'un humain, [les machines écrivent en utilisant] un mécanisme fondamentalement différent. Elles choisissent le mot le plus probable à l'endroit le plus probable, et c'est une façon très différente de construire le langage par rapport à vous et moi », a-t-il déclaré à The Register. L'outil de Turnitin semble baser son fonctionnement sur la façon dont les humains lisent et écrivent les textes.

Wang explique : « nous lisons en faisant des allers-retours avec nos yeux sans même le savoir, ou en papillonnant entre les mots, entre les paragraphes, et parfois entre les pages. Nous avons aussi tendance à écrire avec un état d'esprit futur. Je peux être en train d'écrire, et je pense à quelque chose, un paragraphe, une phrase, un chapitre ; la fin de la rédaction est liée dans mon esprit à la phrase que je suis en train d'écrire, même si les phrases entre maintenant et alors n'ont pas encore été écrites ». D'après Wang, ChatGPT, en revanche, ne dispose pas de ce type de flexibilité et ne peut générer de nouveaux mots qu'à partir de phrases précédentes.

Le détecteur de Turnitin fonctionne en prédisant quels mots l'IA est plus susceptible de générer dans un extrait de texte donné. « C'est très fade sur le plan statistique. Les humains n'ont pas tendance à utiliser systématiquement un mot à forte probabilité dans des endroits à forte probabilité, mais GPT-3 le fait, et notre détecteur s'en aperçoit vraiment », a-t-il déclaré. Wang a déclaré que le détecteur est basé sur la même architecture que GPT-3 et l'a décrit comme une version miniature du modèle. Selon lui, à bien des égards, il s'agit de combattre le feu par le feu. Il y a un composant de détection attaché au lieu d'un composant de génération.

Filigrane (à venir)

En plus d'aborder le problème comme les détecteurs de plagiat l'ont fait dans le passé, OpenAI tente de résoudre le problème en filigranant tout le texte ChatGPT. Selon une récente conférence sur la sécurité de l'IA par le chercheur invité d'OpenAI, Scott Aaronson, les ingénieurs ont déjà construit un prototype fonctionnel qui ajoute un filigrane à tout texte créé par OpenAI.

« Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret autrement imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT », explique Aaronson. L'outil utiliserait ce qu'il appelle une « fonction cryptographique pseudo-aléatoire ». Et seul OpenAI aurait accès à cette clé.

Le public est plutôt sceptique concernant l'efficacité de tels outils

« Ce qui est amusant avec des détecteurs dits précis, c'est qu'ils peuvent être utilisés de manière défavorable pour former le modèle d'origine afin de générer un contenu indétectable », note un internaute. Lui faisant écho, un autre déclare « Fondamentalement, le détecteur est un "banc d'essai" pour le générateur. Le générateur peut créer quelque chose, voir si le détecteur le détecte comme étant créé par l'IA, puis adapter le contenu jusqu'à ce que le détecteur ne soit pas en mesure de faire la différence entre le contenu créé par l'homme et celui créé par l'IA ».

D'autres préfèrent y aller sur une note d'humour : « Tout cela se transforme en un cercle entier d'IA. A la fin l'IA se détruira avant la singularité ».

Et d'autres encore tentent de démontrer l'absurdité du système : « Je viens d'effacer l'invite du système solaire [ndlr. dans la démo, Hive Moderation a écrit un texte sur le système solaire] et j'ai écrit la mienne en énumérant simplement les planètes et ce que sont les systèmes solaires. 96 % de probabilité d'IA. Est-il précis à 99 % pour détecter l'IA tout en sachant que ce n'est pas de l'IA ? »

Source : Hive Moderation

Et vous ?

Partagez-vous les avis de ceux qui pensent que ces outils ne sont pas au point et que, de toutes façons, les IA génératives seraient entraînés à les battre, créant ainsi un « cercle vicieux » ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message
Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message
L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message
Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de thamn
Membre averti https://www.developpez.com
Le 19/02/2023 à 21:59
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
Ah oui bien sur, pour changer de boulot suffit de traverser la rue comme disait l'autre.
Essaye de changer de job sans debaler ton joli diplome qui t'aurais couté un bras au US, et revient nous en causer apres.
13  0 
Avatar de babacool421
Nouveau membre du Club https://www.developpez.com
Le 10/02/2023 à 12:52
Citation Envoyé par Mat.M Voir le message
la méga différence entre Google et ChatGPT c'est que le premier est une entreprise vraiment commerciale qui gagne du cash.
ChatGPT je sais pas ce que c'est, est-ce un outil développé par un collectif d'universitaires ?
Comment ce truc 'est financé ?

Google est dirigé par des informaticiens, Serguei Brin en particulier, est un ingénieur/chercheur brillant qui développe et intervient sur les projets R&D encore aujourd'hui. Serguei est convaincu pour avoir eu la chance de participer à une conférence "intimiste" que l'émergence de l'IA forte est primordiale et une étape importante dans l'évolution de notre civilisation (voir pour sa survie). L'IA forte nous permettrait, selon lui, de faire un nouveau bon technologique et de résoudre plus rapidement des problématiques hors de portée de l'intelligence humaine à ce jour (amélioration importante de la durée de vie, maitrise de la fusion nucléaire ou des réactions matières/anti-matière, maitrise du voyage interstellaire (trou de vers, métrique d’Alcubierre,...),...
N'oublions pas qu'à tout moment un évènement stellaire pourrait détruire notre habitat (comète, sursaut gamma, trou noir errant) et même le réveil des trapps de sibérie pour rendre notre planète inhabitable. Cet évènement arrivera et nous ne pouvons prédire quand. Demain peut-être.

remarque pertinente..sans trop faire du H.S. j'espère que c'est possible pour nos "fleurons" hexagonaux comme Cap ou Atos quand on voit les déboires d'Atos...
Citez moi une innovation technologique impactante à l'échelle de l'humanité (même de l'Europe) développée de Cap ou Atos ? Pour avoir travaillé pour ces entreprises et d'autres ESN, ces sociétés détournent les dispositifs comme le CIR/CII pour améliorer leur marge au lieu de financer de vrais projets R&D et développer des nouvelles technologies. Et même les ratios de ces "faux" budgets R&D sont ridicules comparés aux investissements de Google ou Amazon.
En France, nous sommes très bons en recherche fondamentale ou en recherche appliquées de part notre réseau universitaire et d'école assez performant. Mais, les entreprises françaises qui profitent de ses travaux sont dirigés par des investisseurs, des ignorants en science, incapable de juger par eux même de la pertinence d'une thèse par rapport à une autre. Nous avons probablement entre 10 et 15 ans de retard sur la R&D sur le domaine de l'informatique, l'IA ou la robotique par rapport à Google et Amazon.
12  0 
Avatar de electroremy
Membre expérimenté https://www.developpez.com
Le 02/02/2023 à 11:10
Que penser de toute cette agitation autour de "l'intelligence artificielle" ?

D'abord, sur le principe il n'y a rien de nouveau. Les réseaux de neurones, algorithmes génétiques, la logique floue, les systèmes experts existent depuis des décennies. Au début des années 2000, j'avais moi même utilisé un algorithme génétique qui donnait "presque miraculeusement" rapidement de bons résultats à un problème d'optimisation.

Aujourd'hui, nous avons juste à disposition :

- des ordinateurs beaucoup plus rapides avec beaucoup plus de mémoire

- beaucoup de données exploitables facilement et directement, grâce (ou à cause) de l'usage de l'informatique dans la vie quotidienne et professionnelle.

Les résultats sont impressionnants, notamment grâce à la façon dont ils sont présentés : langage "naturel", synthèse vocale de bonne qualité, avatars en 3D voire vidéos réalistes.

Il faut garder la tête froide : ces dispositifs ne "réfléchissent" et ne "comprennent" pas du tout. Ce sont des boites noires, qui arrivent à sortir rapidement un résultat connu depuis les données dont ils disposent.

Ils sont similaires à une grande encyclopédie : une étagère complète de livres épais qui "connaissent" toutes les définitions, toutes les biographies, tous les faits historiques... pourtant personne ne va trouver une encyclopédie "intelligente".

Cette "intelligence artificielle" peut se planter de façon totalement imprévisible, comme le montrent les expérimentations sur la conduite autonome des voitures dans un milieu ouvert.

De plus, elle ne semblent pas pouvoir inventer des choses réellement nouvelles - attention, la grande quantité de données dont elles disposent peuvent laisser croire le contraire, car les capacités des datacenters actuels dépassent les capacités de mémorisations du commun des mortels. Si une IA vous donne l'impression d'avoir fait quelque chose de nouveau, c'est probablement parce qu'elle a des données sur quelque chose que vous ne connaissez pas, ce qui vous laisse croire que c'est nouveau.

En fait c'est ça la véritable leçon de l'histoire : aujourd'hui, l'humanité a accumulé tellement de connaissances sur tellement de sujets qu'il est impossible pour quelqu'un de tout savoir. Même si vous êtes touche-à-tout, que vous lisez beaucoup de livres et écoutez beaucoup de musique, à la fin de votre vie vous n'aurez vu, entendu et compris qu'une toute petite partie de ce qui a été dit ou écrit...
12  1 
Avatar de electroremy
Membre expérimenté https://www.developpez.com
Le 02/03/2023 à 9:28
Bonjour,

Le problème avec ChatGPT, ou plus généralement à notre époque, c'est qu'on a énormément d'informations à disposition MAIS il y a de bonnes et de fausses informations mélangées.
De plus, un certain nombre de bonnes informations sont parfois méconnues.

C'est vrai dans tous les domaines.

J'ai 42 ans, ingénieur généraliste, passionné de bricolage, j'en apprends encore tous les jours, et notamment des choses que "j'aurais dû savoir avant"

Quelques exemples :

J'ai fait moi-même mon chauffage central il y a 15 ans.
J'ai découvert il y a 2 ou 3 ans qu'un mitigeur thermostatique n'était pas compatible avec une chaudière à production d'eau chaude instantanée
Et qu'il fallait ajuster la température de l'eau chaude au minimum, de façon à ne se doucher qu'avec de l'eau chaude (qui est en fait tiède)
La chaudière (modèle à condensation) fonctionne mieux, avec un meilleur rendement, et il n'y a pas de risque sanitaire car il n'y a pas d'accumulation d'eau chaude, étant donné que la production d'eau chaude est instantanée. C'est uniquement quand de l'eau chaude stagne (cumulus) qu'il faut qu'elle soit suffisamment chaude pour éviter un risque sanitaire.
Cette information, beaucoup de gens, y compris "du métier", ne la connaissent pas ou pire disent qu'elle est fausse.

Autre sujet : le béton.
La meilleure façon de bien couler du béton c'est :
- de mettre la quantité d'eau minimum : quand sur le sac c'est écrit "2,7 à 3 litres d'eau" il faut mettre 2,7 litres d'eau pas plus
- d'ajouter du fluidifiant (produit spécifique)
- de vibrer le béton une fois coulé
Beaucoup de gens l'ignorent, et notamment mettent trop d'eau => le béton est fragile, il y a un risque de malfaçon importante voir un danger si la structure est porteuse...
Même en magasin de bricolage, j'ai vu des vendeurs conseiller de doser l'eau au pifomètre !
Même des "professionnels" ajoutent de l'eau dans la toupie pour travailler plus facilement
Ces gens sont incompétents, ce sont des escrocs qui mettent des vies en danger.

ChatGPT se base sur Internet.
Internet est démocratique.
Mais, comme l'a dit mon prof de physique en 1re année de prépa (cela m'avait choqué à l'époque) :
"Le problème avec la démocratie, c'est quand 10 personnes se trompent et 9 personnes ont juste, et bien on donne raison aux 10 personnes qui se trompent"
Les réseaux sociaux, en permettant à n'importe qui de publier très facilement n'importe quoi, ont amplifié le phénomène.
Avant les réseaux sociaux, créer un site demandait un minimum de travail, et pour avoir des visiteurs il fallait publier des contenus intéressants, ça faisait office de filtre (même si il pouvait y avoir pas mal de conneries quand même mais nettement moins qu'aujourd'hui )
D'autant que les algorithmes des réseaux sociaux sont conçus pour amplifier les contenus émotionnels négatifs.
ChatGPT va juste faire la moyenne de tout.
Certes pour quelqu'un qui n'y connais rien sur un sujet, ChatGPT va probablement apporter une réponse.
Mais par rapport aux experts de chaque domaine, ChatGPT est clairement en dessous.
L'IA aboutit donc à un nivellement par le bas

Ainsi le créationnisme en vient à être enseigné dans certains pays comme théorie aussi valable que la théorie de l'évolution
Et on voit, en 2023, des gens croire que la terre est plate.

Que dire de l'IA ? On devrait plutôt parler de connerie artificielle
11  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de
https://www.developpez.com
Le 30/01/2023 à 23:01
Si je resume, je dois travailler jusqu'a 64 ans mais je serais remplacé par une IA prochainement... Quelle belle époque !
Bon, faut donc que je trouve une méthode pour vivre des aides, tranquille, loin du stress...
11  1 
Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 20/02/2023 à 13:07
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
La vie ne fonctionne pas comme ça, il faut que tu sortes de ton cocon pour t'en rendre compte.
Malheureusement, il y a des personnes qui préfèrent nourrir leur enfant en prenant les boulots qui nuise à la dignité plutôt que de n'avoir aucune rentrée d'argent !
8  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/04/2023 à 9:55
"Hey chatGPT, voilà toutes les donneés confidentielles économiques de mon entreprises, fait moi le rapport financier stp, j'ai la flème".
8  0