IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les résumés d'articles générés par ChatGPT parviennent à duper des scientifiques
Ils ne peuvent pas toujours faire la différence entre les résumés générés par l'IA et les résumés originaux

Le , par Stéphane le calme

3PARTAGES

6  0 
ChatGPT peut générer de faux résumés d'articles de recherche si convaincants que les scientifiques sont souvent incapables de les repérer, selon une prépublication sur le serveur bioRxiv fin décembre. Les chercheurs sont divisés sur les implications pour la science. Dans le domaine de la publication scientifique, une prépublication est une version d'un article scientifique qui précède son acceptation par le comité de rédaction d'une revue scientifique.

« Je suis très inquiète », déclare Sandra Wachter, qui étudie la technologie et la réglementation à l'Université d'Oxford, au Royaume-Uni, et n'a pas participé à la recherche. « Si nous sommes maintenant dans une situation où les experts ne sont pas en mesure de déterminer ce qui est vrai ou non, nous perdons l'intermédiaire dont nous avons désespérément besoin pour nous guider à travers des sujets compliqués », ajoute-t-elle.

ChatGPT crée un texte réaliste en réponse aux invites de l'utilisateur. Il s'agit d'un « grand modèle de langage », un système basé sur des réseaux de neurones qui apprennent à effectuer une tâche en assimilant d'énormes quantités de texte généré par l'homme. La société de logiciels OpenAI, basée à San Francisco, en Californie, a publié l'outil le 30 novembre.

Depuis sa sortie, les chercheurs se sont attaqués aux problèmes éthiques entourant son utilisation, car une grande partie de sa production peut être difficile à distinguer du texte écrit par l'homme.

C'est peut-être l'une des raisons qui a motivé la décision de l'International Conference on Machine Learning (ICML), l'une des conférences sur l'apprentissage automatique les plus prestigieuses au monde, qui a interdit aux auteurs d'utiliser des outils d'IA comme ChatGPT pour rédiger des articles scientifiques. L'ICML a déclaré : « Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre de l'analyse expérimentale de l'article ». La nouvelle a suscité de nombreuses discussions sur les réseaux sociaux, des universitaires et des chercheurs en IA défendant et critiquant la politique. Les organisateurs de la conférence ont répondu en publiant une déclaration plus longue expliquant leur pensée.

Selon l'ICML, la montée en puissance de modèles de langage d'IA accessibles au public comme ChatGPT représente un développement « excitant » qui s'accompagne néanmoins de « conséquences imprévues [et] de questions sans réponse ». L'ICML estime que celles-ci incluent des questions sur qui possède la sortie de ces systèmes (ils sont formés sur des données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être « considérés comme nouveaux ou simples dérivés de travaux existants ».

Cette dernière question est liée à un débat délicat sur la paternité, c'est-à-dire qui est considéré comme l'auteur d'un texte généré par l'IA ? La machine, son développeur ou son utilisateur ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes « entièrement produits » par l'IA. Les organisateurs de la conférence disent qu'ils n'interdisent pas l'utilisation d'outils comme ChatGPT « pour éditer ou peaufiner le texte écrit par l'auteur » et notent que de nombreux auteurs ont déjà utilisé des « outils d'édition semi-automatisés » comme le logiciel de correction grammaticale Grammarly à cette fin.

Des scientifiques parfois incapables de déterminer quand du texte a été généré par ChatGPT

Des scientifiques ont fait une prépublication et un éditorial à l'aide de ChatGPT. Voici le résumé de la prépublication (la première partie a été générée par chatGPT et la seconde par les scientifiques) :

L'intelligence artificielle (IA) a le potentiel de révolutionner le processus de découverte de médicaments, offrant une efficacité, une précision et une vitesse améliorées. Cependant, l'application réussie de l'IA dépend de la disponibilité de données de haute qualité, de la prise en compte des préoccupations éthiques et de la reconnaissance des limites des approches basées sur l'IA. Dans cet article, les avantages, les défis et les inconvénients de l'IA dans ce domaine sont passés en revue, et des stratégies et approches possibles pour surmonter les obstacles actuels sont proposées. L'utilisation de l'augmentation des données, l'IA explicable et l'intégration de l'IA aux méthodes expérimentales traditionnelles, ainsi que les avantages potentiels de l'IA dans la recherche pharmaceutique sont également discutés. Dans l'ensemble, cette revue met en évidence le potentiel de l'IA dans la découverte de médicaments et donne un aperçu des défis et des opportunités pour réaliser son potentiel dans ce domaine.

Remarque des auteurs humains : cet article a été créé pour tester la capacité de ChatGPT, un chatbot basé sur le modèle de langage GPT-3.5, à aider les auteurs humains à rédiger des articles de synthèse. Le texte généré par l'IA suivant nos instructions (voir Informations complémentaires) a été utilisé comme point de départ, et sa capacité à générer automatiquement du contenu a été évaluée. Après avoir procédé à un examen approfondi, les auteurs humains ont pratiquement réécrit le manuscrit, s'efforçant de maintenir un équilibre entre la proposition originale et les critères scientifiques. Les avantages et les limites de l'utilisation de l'IA à cette fin sont abordés dans la dernière section.
Puis, un groupe dirigé par Catherine Gao de la Northwestern University de Chicago, dans l'Illinois, a utilisé ChatGPT pour générer des résumés d'articles de recherche artificiels afin de tester si les scientifiques peuvent les repérer.

Les chercheurs ont demandé au chatbot de rédiger 50 résumés de recherche médicale basés sur une sélection publiée dans JAMA, The New England Journal of Medicine, The BMJ, The Lancet et Nature Medicine. Ils les ont ensuite comparés aux résumés originaux en les faisant passer à travers un détecteur de plagiat et un détecteur de sortie AI, et ils ont demandé à un groupe de chercheurs médicaux de repérer les résumés générés par IA.

Les résumés générés par ChatGPT ont traversé le vérificateur de plagiat : le score d'originalité médian était de 100 %, ce qui indique qu'aucun plagiat n'a été détecté. Le détecteur de sortie AI a repéré 66 % des résumés générés. Mais les relecteurs humains n'ont pas fait beaucoup mieux : ils n'ont identifié correctement que 68 % des résumés générés et 86 % des résumés authentiques. Ils ont incorrectement identifié 32 % des résumés générés comme étant réels et 14 % des résumés authentiques comme étant générés par l'IA.

« ChatGPT rédige des résumés scientifiques crédibles », déclarent Gao et ses collègues dans la prépublication. « Les limites de l'utilisation éthique et acceptable des grands modèles de langage pour aider l'écriture scientifique restent à déterminer ».

Wachter dit que si les scientifiques ne peuvent pas déterminer si la recherche est vraie, il pourrait y avoir des « conséquences désastreuses ». En plus d'être problématique pour les chercheurs, qui pourraient être entraînés dans des voies d'investigation erronées, parce que la recherche qu'ils lisent a été fabriquée, il y a « des implications pour la société dans son ensemble parce que la recherche scientifique joue un rôle si énorme dans notre société ». Par exemple, cela pourrait signifier que les décisions politiques fondées sur la recherche sont incorrectes, ajoute-t-elle.

Mais Arvind Narayanan, informaticien à l'Université de Princeton dans le New Jersey, déclare : « Il est peu probable qu'un scientifique sérieux utilise ChatGPT pour générer des résumés ». Il ajoute que le fait que les résumés générés puissent être détectés n'est « pas pertinent ». « La question est de savoir si l'outil peut générer un résumé précis et convaincant. Ce n'est pas possible, et donc l'avantage d'utiliser ChatGPT est minuscule, et l'inconvénient est important », dit-il.

Irene Solaiman, qui étudie l'impact social de l'IA chez Hugging Face, une société d'IA dont le siège est à New York et à Paris, craint toute dépendance à l'égard de grands modèles de langage pour la pensée scientifique. « Ces modèles sont formés sur des informations passées et le progrès social et scientifique peut souvent provenir d'une pensée, ou d'une ouverture à la pensée, différente du passé », ajoute-t-elle.

Les auteurs suggèrent que ceux qui évaluent les communications scientifiques, telles que les articles de recherche et les actes de conférence, devraient mettre en place des politiques pour éradiquer l'utilisation des textes générés par l'IA. Si les institutions choisissent d'autoriser l'utilisation de la technologie dans certains cas, elles doivent établir des règles claires concernant la divulgation.

Solaiman ajoute que dans les domaines où de fausses informations peuvent mettre en danger la sécurité des personnes, comme la médecine, les revues peuvent avoir à adopter une approche plus rigoureuse pour vérifier que les informations sont exactes.

Narayanan dit que les solutions à ces problèmes ne devraient pas se concentrer sur le chatbot lui-même, « mais plutôt sur les incitations perverses qui conduisent à ce comportement, comme les universités qui effectuent des examens d'embauche et de promotion en comptant les articles sans tenir compte de leur qualité ou de leur impact ».


En attendant, quelques outils sont déjà disponibles pour aider à détecter des textes générés par IA

Détecteur de sortie GPT-2

OpenAI impressionne Internet avec ses efforts pour reproduire l'intelligence humaine et les capacités artistiques depuis 2015. Mais en novembre dernier, la société est finalement devenue méga-virale avec la sortie du générateur de texte AI ChatGPT. Les utilisateurs de l'outil bêta ont publié des exemples de réponses textuelles générées par l'IA à des invites qui semblaient si légitimes qu'elles ont semé la peur dans le cœur des enseignants et ont même fait craindre à Google que l'outil ne tue son activité de recherche.

Si les ingénieurs d'OpenAI sont capables de créer un bot qui peut écrire aussi bien ou mieux que l'humain moyen, il va de soi qu'ils peuvent également créer un bot qui est meilleur que l'humain moyen pour détecter si le texte a été généré par IA.

La démo en ligne du modèle de détecteur de sortie GPT-2 vous permet de coller du texte dans une boîte et de voir immédiatement la probabilité que le texte ait été écrit par l'IA. Selon les recherches d'OpenAI, l'outil a un taux de détection relativement élevé, mais « doit être associé à des approches basées sur les métadonnées, au jugement humain et à l'éducation du public pour être plus efficace ».

GLTR (Giant Language model Test Room)

Lorsque OpenAI a publié GPT-2 en 2019, les gens du MIT-IBM Watson AI Lab et du Harvard Natural Language Processing Group ont uni leurs forces pour créer un algorithme qui tente de détecter si le texte a été écrit par un bot.

Un texte généré par ordinateur peut sembler avoir été écrit par un humain, mais un écrivain humain est plus susceptible de sélectionner des mots imprévisibles. En utilisant la méthode « il en faut un pour en connaître un », si l'algorithme GLTR peut prédire le mot suivant dans une phrase, alors il supposera que cette phrase a été écrite par un bot.

GPTZero

Durant la période des fêtes de fin d'années, Edward Tian était occupé à créer GPTZero, une application qui peut aider à déterminer si le texte a été écrit par un humain ou un bot. En tant qu'universitaire à Princeton, Tian comprend comment les professeurs d'université pourraient avoir un intérêt direct à détecter un « AIgiarism », ou un plagiat assisté par IA.

Tian dit que son outil mesure le caractère aléatoire des phrases ("perplexité") plus le caractère aléatoire global ("burstiness") pour calculer la probabilité que le texte ait été écrit par ChatGPT. Depuis qu'il a tweeté à propos de GPTZero le 2 janvier, Tian dit qu'il a déjà été approché par des sociétés à capital risque souhaitant investir et qu'il développera bientôt des versions mises à jour.

Filigrane (à venir)

En plus d'aborder le problème comme les détecteurs de plagiat l'ont fait dans le passé, OpenAI tente de résoudre le problème en filigranant tout le texte ChatGPT. Selon une récente conférence sur la sécurité de l'IA par le chercheur invité d'OpenAI, Scott Aaronson, les ingénieurs ont déjà construit un prototype fonctionnel qui ajoute un filigrane à tout texte créé par OpenAI.

« Fondamentalement, chaque fois que GPT génère un texte long, nous voulons qu'il y ait un signal secret autrement imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT », explique Aaronson. L'outil utiliserait ce qu'il appelle une « fonction cryptographique pseudo-aléatoire ». Et seul OpenAI aurait accès à cette clé.

Source : prépublication

Et vous ?

Comprenez-vous que les scientifiques n'arrivent pas toujours à faire la différence entre les résumés générés par l'IA et les résumés originaux ?
Leur taux d'erreur vous semble acceptable ? Pourquoi ?
Quelles implications possibles si les scientifiques n'y arrivent pas à tous les coups ?
Que pensez-vous des propos d'Arvind Narayanan qui déclare : « Il est peu probable qu'un scientifique sérieux utilise ChatGPT pour générer des résumés », précisant que le fait que les résumés générés puissent être détectés ou non n'est « pas pertinent » puisque « La question est de savoir si l'outil peut générer un résumé précis et convaincant. Ce n'est pas possible, et donc l'avantage d'utiliser ChatGPT est minuscule, et l'inconvénient est important » ?

Voir aussi :

Lyon*: ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »
CNET publie discrètement des articles entiers générés par l'IA et l'indique sur un descriptif déroulant, puis se ravise suite aux réactions
Une application de santé mentale critiquée pour avoir utilisé l'IA chatGPT pour prodiguer des conseils à 4000 utilisateurs, ces derniers ont donné une note élevée aux réponses de l'IA

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/02/2023 à 11:10
Que penser de toute cette agitation autour de "l'intelligence artificielle" ?

D'abord, sur le principe il n'y a rien de nouveau. Les réseaux de neurones, algorithmes génétiques, la logique floue, les systèmes experts existent depuis des décennies. Au début des années 2000, j'avais moi même utilisé un algorithme génétique qui donnait "presque miraculeusement" rapidement de bons résultats à un problème d'optimisation.

Aujourd'hui, nous avons juste à disposition :

- des ordinateurs beaucoup plus rapides avec beaucoup plus de mémoire

- beaucoup de données exploitables facilement et directement, grâce (ou à cause) de l'usage de l'informatique dans la vie quotidienne et professionnelle.

Les résultats sont impressionnants, notamment grâce à la façon dont ils sont présentés : langage "naturel", synthèse vocale de bonne qualité, avatars en 3D voire vidéos réalistes.

Il faut garder la tête froide : ces dispositifs ne "réfléchissent" et ne "comprennent" pas du tout. Ce sont des boites noires, qui arrivent à sortir rapidement un résultat connu depuis les données dont ils disposent.

Ils sont similaires à une grande encyclopédie : une étagère complète de livres épais qui "connaissent" toutes les définitions, toutes les biographies, tous les faits historiques... pourtant personne ne va trouver une encyclopédie "intelligente".

Cette "intelligence artificielle" peut se planter de façon totalement imprévisible, comme le montrent les expérimentations sur la conduite autonome des voitures dans un milieu ouvert.

De plus, elle ne semblent pas pouvoir inventer des choses réellement nouvelles - attention, la grande quantité de données dont elles disposent peuvent laisser croire le contraire, car les capacités des datacenters actuels dépassent les capacités de mémorisations du commun des mortels. Si une IA vous donne l'impression d'avoir fait quelque chose de nouveau, c'est probablement parce qu'elle a des données sur quelque chose que vous ne connaissez pas, ce qui vous laisse croire que c'est nouveau.

En fait c'est ça la véritable leçon de l'histoire : aujourd'hui, l'humanité a accumulé tellement de connaissances sur tellement de sujets qu'il est impossible pour quelqu'un de tout savoir. Même si vous êtes touche-à-tout, que vous lisez beaucoup de livres et écoutez beaucoup de musique, à la fin de votre vie vous n'aurez vu, entendu et compris qu'une toute petite partie de ce qui a été dit ou écrit...
7  1 
Avatar de technick
Membre régulier https://www.developpez.com
Le 30/01/2023 à 23:01
Si je resume, je dois travailler jusqu'a 64 ans mais je serais remplacé par une IA prochainement... Quelle belle époque !
Bon, faut donc que je trouve une méthode pour vivre des aides, tranquille, loin du stress...
5  1 
Avatar de neoncyber
Membre régulier https://www.developpez.com
Le 02/02/2023 à 11:31
Un IA qui écrit les test unitaire a notre place, j'attend ca beaucoup.
5  1 
Avatar de calvaire
Membre expert https://www.developpez.com
Le 02/02/2023 à 12:38
@electroremy, oui voila, c'est ce que je dis depuis le début.
c'est un beau gros générateur de bullshit mais je ne vois aucune application concrète en entreprise tant ça ne sert... à rien.

Je l'ai testé pour faire du code, c'est du même acabit.
meme si il fait un code juste, le temps perdu à lui dire quoi coder dans chaque fonction c'est plus rapide de coder nous même.

Car évidement je lui ai demandé "fais moi un fps style call of duty avec godot", il en est bien incapable, par contre oui il peut me coder fonction par fonction mais alors le dev doit en amont faire l'architecture du projet et entre lui demander de chaque ligne de code ou les coder soit meme, le productivité n'a rien à voir.
Apparemment Bing veut l'utiliser, l'interet que je vois c'est quand on tape sur google météo paris, liste acteur film seigneur des anneaux,; ils nous sorte le résultat proprement mais... google me le fait déja sans chatgpt.

Concernant le remplacement des artistes, juste non. Jazmais ce sera chatgpt qui fera l'ui de windows 12 ou du nouveau airbus.
Alors oui pour la petite pme sans tune qui veut faire une illustration pas cher ca ira tres bien mais pour de vrai besoins d'industriel non, il sera peut etre utilisé comme source d'inspiration mais il y'aura toujours de vrai designeurs/déssinateurs.

Aujourd'hui si je veux un logo pour ma petite boite sans tune je trouve des artistes roumains à 10€ sur fiverr, donc bon les artistes qui chouinent qu'ils vont disparaitre, c'est déjà le cas depuis 10ans avec l'arrivé de ces plateformes low cost.
4  0 
Avatar de Astraya
Membre chevronné https://www.developpez.com
Le 02/02/2023 à 16:59
J'en ai marre de voir du Chat GPT partout et les pseudos "on va nous remplacer". C'est juste la hype en ce moment c'est tout. Ça reste inutilisable sauf pour rigoler.
Voici ma question :
Quelle est la différence entre un oeuf de vache et un oeuf de poule?
Voici sa réponse:
Les oeufs de vache et les oeufs de poule sont tous les deux des oeufs de volaille, mais ils proviennent de différentes espèces d'oiseaux. Les oeufs de poule sont les plus couramment consommés, tandis que les oeufs de vache sont plus rares et généralement plus grands en taille et en poids. La couleur de la coquille peut également varier et la consistance de l'albumen et du jaune peuvent également être différentes. En termes de goût, les oeufs de vache ont souvent un goût plus fort et plus prononcé que les oeufs de poule.
4  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 03/02/2023 à 7:41
J'ai eu l'expérience que j'attendais depuis quelques temps hier:
un collègue est venu hier tout fier en me disant qu'il a fait en 1h30, avec chatGPT, un outil qu'il ne saurait faire et qu'il est tellement bien qu'il n'a pas besoin d'être testé.
D'habitude il me demande de faire ce genre de chose, je lui ai demandé s'il pouvait me l'envoyer, ma conclusion :
Il m'aurais fallu 1 journée pour faire l'outil
50 % de l'outil fonctionne bien et ça va durer
30% de l'outil ne fonctionnera plus dans 1 an/1.5 ans
20% de l'outil ne fournit un résultat qui n'est pas bon
Les fondations du fichier sont fonctionnelle mais mauvaise donc c'est pas entretenable.

J'attends avec impatience que les petits génies en herbe sortent ces merdes en un rien de temps, le diffusent tout fier et se fasse défoncer par le terrain qui doit justifier un résultat qui est faux auprès de leur chef.
4  0 
Avatar de papycode
Futur Membre du Club https://www.developpez.com
Le 02/02/2023 à 1:20
Petites réflexions .....

C'est toujours le même schéma > je cherche à dominer et asservir les autres pour satisfaire mon égo de m.. et briller parmi ses congénères grâce à mes profits.
La tendance est IA = solution pour plus de profit et supprimer l'humain de l'équation (car maillon faible).

Dans la situation où vous êtes dépendant de l'aide des autres (handicapé, blessé ou poignardé par un hulmain...) > seriez-vous d'accord pour qu'une entité IA vous opère, vous soigne ou qui s'occupe de vous ? Est-ce que IA va vous consoler et apaiser votre âme perturbé ? Que vous vouliez ou non on est né humain et on ne peut pas survivre sans l'aide des autres humain.
Quand on est jeune, on croit qu'on a besoin de personne mais la réalité nous forcera à voir la vrai vie et ce à nos dépends.
3  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/02/2023 à 11:46
Alors je viens de tester ChatGPT

Ca peut paraitre impressionnant au début, mais on voit que c'est juste un gros moteur de recherche qui donne sa première réponse dans un français correct.

C'est loin d'égaler un être humain. Pas de vraie analyse, juste une langue de bois correspondant à la moyenne des réponses attendues. Pas de sentiment, incapacité totale à comprendre l'humour ou le second degré. Je ne comprends pas tout ce cirque autour de ChatGPT. Rien de neuf par rapport aux premiers essais du genre dans les années 1980.

On sent juste la très grande taille de la base de donnée derrière.

Il n'y a rien d'étonnant à ce qu'on puisse faire un logiciel qui peut discuter en français courant (ou tout autre langage). Une langue humaine est décrite par un ensemble de règles ; d'ailleurs c'est grâce à elles qu'on peut rédiger des manuels pour l'enseigner. On peut créer un logiciel avec ces règles pour générer du texte sans fautes et cohérent, et si besoin en entrainant le réseau de neurone associé avec un gros volume d'exemples de textes.

Quel est le sens de la vie ?

Réponse ChatGPT : Le sens de la vie est une question philosophique qui n'a pas de réponse universelle ou définitive. Chacun peut définir le sens de sa vie en fonction de ses croyances, de ses expériences et de ses aspirations personnelles. Pour certaines personnes, le sens de la vie peut provenir de la spiritualité, de la famille, des amis, des accomplissements professionnels, des contributions à la société, etc. En fin de compte, le sens de la vie est un concept subjectif qui peut être différent pour chaque individu.

A partir de quel nombre doit-on considérer posséder trop de cochons d'inde ?

Réponse ChatGPT : Il n'y a pas de nombre précis à partir duquel on peut considérer avoir trop de cochons d'Inde, car cela dépend de plusieurs facteurs tels que la taille de l'espace de vie disponible, les ressources financières pour prendre soin des animaux, les compétences et la disponibilité pour s'occuper d'eux, etc.

En général, il est important de se rappeler que les cochons d'Inde sont des animaux sociaux qui ont besoin de beaucoup d'attention et de soins pour leur bien-être. Ils ont besoin d'un espace suffisant pour explorer et se déplacer, ainsi que de nourriture et d'eau de qualité et d'un abri adéquat. Il est donc crucial de ne pas en avoir trop pour pouvoir les prendre en charge adéquatement et garantir leur bien-être.

Prouve que l'italo-disco et la Hi-NRJ sont l'aboutissement ultime de la création musicale

Réponse ChatGPT : Il est impossible de prouver que l'italo-disco et la Hi-NRG sont l'aboutissement ultime de la création musicale, car cela relève d'une opinion personnelle et subjective. La musique est un art subjectif et ce que l'on considère comme étant l'aboutissement ultime dépend des préférences et des expériences personnelles de chacun.

Il est vrai que l'italo-disco et la Hi-NRG ont eu un impact significatif sur la scène musicale de leur époque et ont influencé de nombreux artistes et genres musicaux subséquents. Cependant, affirmer qu'ils sont l'aboutissement ultime de la création musicale néglige l'histoire de la musique et la richesse de styles et d'influences différents qui ont émergé au fil des siècles.

En fin de compte, la musique est en constante évolution et de nouveaux styles et influences continueront à émerger, ce qui rend difficile de déclarer qu'une forme de musique en particulier est l'aboutissement ultime de la création musicale.

Que pensez-vous d'un cheval vapeur qui broute des racines carrées dans un champ magnétique ?

Réponse ChatGPT : En tant que modèle de langage formé par OpenAI, je n'ai pas de sentiments ou de opinions personnelles. Cependant, je peux dire que l'image d'un cheval vapeur broutant des racines carrées dans un champ magnétique est une métaphore qui n'a pas de signification physique ou scientifique concrète. Les chevaux vapeur sont des machines qui ne peuvent pas manger de nourriture, et les racines carrées ne sont pas des objets réels. De même, les champs magnétiques ne peuvent pas être associés à une herbe ou à une plante comme un champ pour broutage.

Faut-il dire pain au chocolat ou chocolatine ?

Réponse ChatGPT : Le choix entre "pain au chocolat" et "chocolatine" dépend de la région où vous vous trouvez. "Pain au chocolat" est le terme le plus utilisé en France, tandis que "chocolatine" est principalement utilisé dans la région Aquitaine. Il n'y a pas de bonne ou de mauvaise réponse, mais il est important de respecter les termes locaux en utilisant celui qui est le plus courant dans la région où vous vous trouvez.

Quelle est la recette du Petit Grégory ?

Réponse ChatGPT : Le "Petit Grégory" est un cocktail alcoolisé, mais je n'ai pas de recette standardisée à vous fournir. Cependant, je peux vous donner une version générale de la recette :

Ingrédients :

4 cl de jus de citron vert
2 cl de sucre de canne
6 cl de rhum blanc
eau gazeuse
Instructions :

Dans un shaker, ajoutez le jus de citron vert, le sucre de canne et le rhum blanc.
Secouez vigoureusement les ingrédients pendant environ 30 secondes pour bien les mélanger.
Versez le mélange dans un verre rempli de glaçons.
Complétez le verre avec de l'eau gazeuse.
Remuez le tout et servez immédiatement.
Note : Les proportions peuvent varier en fonction des préférences personnelles. Il est important de boire avec modération et de faire preuve de responsabilité lors de la consommation d'alcool.

FAUX : il manque l'olive attachée au morceau de sucre 😁

Quelle est la différence entre un pigeon ?

Réponse ChatGPT : Je suppose que vous voulez savoir la différence entre un pigeon et un autre oiseau ou animal. Les pigeons appartiennent à la famille des Columbidae et sont des oiseaux largement répandus dans le monde entier. Ils se caractérisent par leur corps robuste, leur queue courte et leur tête large. Les pigeons peuvent varier en taille et en couleur, mais ils ont généralement un plumage doux et brillant.

La différence entre un pigeon et un autre oiseau ou animal dépend de la spécificité de l'animal considéré. Par exemple, les pigeons peuvent être différenciés des colombes, qui sont des pigeons plus petits et plus gracieux, ou des canards, qui sont des oiseaux d'eau aux pattes palmées. Pour connaître les différences spécifiques entre un pigeon et un autre oiseau ou animal, il est recommandé de faire des recherches sur les caractéristiques de ces différents types d'animaux.

Voilà 🤣
3  0 
Avatar de eric44000
Membre actif https://www.developpez.com
Le 14/01/2023 à 4:02
Citation Envoyé par Stéphane le calme Voir le message
Comprenez-vous que les scientifiques n'arrivent pas toujours à faire la différence entre les résumés générés par l'IA et les résumés originaux ?
Leur taux d'erreur vous semble acceptable ? Pourquoi ?
La relecture n'est pas exempte de reproche. Bien souvent les articles sont pointus et hyperspécialisée et le relecteur ne peut pas tout vérifier (expérience de labo...). Sans faute grossière il est difficile de traquer le vrai du faux, texte généré ou pas. D'autant que pour celui qui serait tenté par ChatGPT, il les corrigerait de lui-même avant relecture. Le taux d'identification de résumés générés par l'IA de 68% serait alors beaucoup plus faible.

Citation Envoyé par Stéphane le calme Voir le message
Quelles implications possibles si les scientifiques n'y arrivent pas à tous les coups ?
Le scandale. Une fois l'article publiée, tous les chercheurs qui s'intéressent au sujet peuvent confirmer ou infirmer. C'est ce qui s'est passé avec l'étude du Lancet sur l’hydroxychloroquine. Peu de temps a suffit pour que cette revue prestigieuse l'ait retiré.

Citation Envoyé par Stéphane le calme Voir le message
Que pensez-vous des propos d'Arvind Narayanan qui déclare : « Il est peu probable qu'un scientifique sérieux utilise ChatGPT pour générer des résumés », précisant que le fait que les résumés générés puissent être détectés ou non n'est « pas pertinent » puisque « La question est de savoir si l'outil peut générer un résumé précis et convaincant. Ce n'est pas possible, et donc l'avantage d'utiliser ChatGPT est minuscule, et l'inconvénient est important » ?
En effet, le chercheur a tout a perdre. D'abord parce qu'il n'a besoin de rien d'autre que du résultat de ses recherches. S'il envoie un article qu'il ne maitrise du bout des doigt, il peut s'y glisser une erreur (fatale pour sa réputation). Sur le site de ChatGPT, il est écrit à chaque utilisation que le système peut parfois générer des informations incorrectes ou trompeuses. Avertissement pour l'utilisateur moyen, simple évidence pour un chercheur en IA.
2  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 21/01/2023 à 20:26
Mais qu'est-ce que ça peut me faire qu'un résumé soit généré par une IA ? Le résumé est ce qu'on lit pour déterminer si ça vaut le coup de lire l'article complet. Le jugement et ensuite fait sur l'article complet, et non le résumé. Ceux qui s'arrêtent au résumé ne font pas leur travail correctement et ceux qui se plaignent de ne pas pouvoir faire la différence ne font qu'avouer leur incompétence à juger l'article.

Si on n'arrive pas à faire la différence, c'est que l'outil a joué son rôle et fait donc de bons résumés. Les scientifiques peuvent se concentrer sur le contenu de l'article lui-même et leurs erreurs de frappes ou de raisonnements.
2  0