IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA est-elle le nouveau chercheur scientifique ? Ce n'est pas le cas
Selon une étude où l'IA générative ne s'est montrée compétente qu'à certaines étapes de la rédaction d'article de recherche

Le , par Jade Emy

5PARTAGES

4  0 
L'IA est-elle le nouveau chercheur scientifique ? Ce n'est pas le cas, selon une étude où l'IA générative ne s'est montrée compétente qu'à certaines étapes de la rédaction d'article de recherche

L'IA est-elle le nouveau chercheur scientifique ? Ce n'est pas le cas, selon une étude. Des chercheurs de l'université de Floride ont demandé à une IA générative de rédiger un document de recherche. Si elle s'est montrée compétente à certaines étapes, elle a totalement échoué à d'autres. Les chercheurs commentent notamment : "Une crainte omniprésente concernant ces IA est leur capacité à usurper le travail humain. En général, nous avons constaté que ces IA peuvent offrir une certaine assistance, mais leur valeur s'arrête là, en tant qu'assistance."

En septembre 2024, les chercheurs en désinformation ont mis en lumière un phénomène inquiétant : la prolifération d’articles scientifiques falsifiés, générés par des modèles de langage comme GPT, sur Google Scholar. Ces articles, souvent créés à l’aide d’applications d’IA largement disponibles comme ChatGPT, imitent l’écriture scientifique et sont facilement accessibles via des moteurs de recherche académiques.

Dans le cadre d'une étude récente sur les capacités de l'intelligence artificielle (IA) dans la recherche universitaire, des chercheurs de l'université de Floride ont constaté que si l'IA peut être un assistant précieux, elle n'est pas en mesure de remplacer les scientifiques humains dans de nombreux domaines essentiels. La recherche, décrite dans un article intitulé "AI and the advent of the cyborg behavioral scientist" (L'IA et l'avènement du scientifique comportemental cyborg), a testé la capacité des modèles d'IA générative populaires, notamment ChatGPT d'OpenAI, Copilot de Microsoft et Gemini de Google, à gérer les différentes étapes du processus de recherche.

L'équipe a soumis ces systèmes d'IA aux six étapes de la recherche universitaire, à savoir l'idéation, l'analyse documentaire et la conception de la recherche, suivies de la documentation des résultats, de l'extension de la recherche et de la production du manuscrit final, tout en limitant toute intervention humaine de leur part. Ce qu'ils ont découvert, c'est un mélange de capacités et de limites, sans doute une bonne nouvelle pour les chercheurs qui se demandent si l'IA va leur prendre leur travail.

"Une crainte omniprésente concernant ces IA est leur capacité à usurper le travail humain", explique Geoff Tomaino, professeur adjoint de marketing au Warrington College of Business de l'université de Floride. "En général, nous avons constaté que ces IA peuvent offrir une certaine assistance, mais leur valeur s'arrête là, en tant qu'assistance. Ces outils peuvent faire un travail considérable. Cependant, le chercheur occupe toujours une place essentielle dans le processus, agissant comme un directeur et un critique de l'IA, et non comme un partenaire à part entière."


Plus précisément, les chercheurs ont trouvé que l'IA était un outil utile dans le processus d'idéation et la conception de la recherche, y compris les sous-stades de la conception des méthodes et des stimuli. En revanche, aux stades de l'examen de la littérature, de l'analyse des résultats et de la production du manuscrit, l'IA a eu du mal à produire des résultats valables et a nécessité une supervision importante.

Sur la base de ces résultats, l'équipe de l'université de Floride conseille aux chercheurs de rester très sceptiques à l'égard des résultats de l'IA et de les considérer comme des points de départ nécessitant une vérification et un affinement par l'homme. Pour les revues, les chercheurs recommandent vivement d'envisager des politiques qui signalent l'assistance de l'IA dans les documents de recherche et qui interdisent largement l'utilisation de l'IA dans le processus d'évaluation de la recherche.

Alors que leurs travaux visaient principalement à déterminer si l'IA pouvait faire le travail d'un chercheur universitaire, l'équipe qui a mené cette étude encourage les chercheurs à réfléchir à la question de savoir si l'IA devrait jouer leur rôle.

"Nous sommes très fiers du travail que nous accomplissons en tant que chercheurs", a déclaré Tomaino. "Les étapes spécifiques qui nous procurent de la joie (et de l'angoisse) en tant que chercheurs sont probablement aussi variées que la recherche dans laquelle elles sont utilisées. Au fur et à mesure de l'évolution de ces outils d'IA, il appartiendra à chaque chercheur de décider pour quelles étapes du processus de recherche il souhaite devenir un chercheur comportemental cyborg, et pour lesquelles il souhaite rester simplement humain."

Voici la présentation de l'étude :

Les grands modèles de langage ont été incorporés dans un nombre impressionnant de domaines professionnels. Compte tenu de leurs capacités, de nombreux travailleurs intellectuels se demandent naturellement dans quelle mesure ces modèles d'IA seront capables d'usurper leurs propres emplois. En tant que spécialistes des sciences du comportement, nous nous sommes efforcés d'examiner dans quelle mesure une IA peut remplir nos fonctions. Pour ce faire, nous avons utilisé des IA disponibles dans le commerce (par exemple, ChatGPT 4) pour réaliser chaque étape du processus de recherche, qui a abouti à la rédaction d'un manuscrit par l'IA. Nous nous sommes efforcés d'intervenir le moins possible dans la génération d'idées, les tests empiriques, l'analyse et le rapport menés par l'IA. Cela nous a permis d'évaluer les limites des IA dans un contexte de recherche comportementale et de proposer des lignes directrices pour les chercheurs en comportement qui souhaitent utiliser l'IA. Nous avons constaté que les IA étaient efficaces dans certaines parties du processus et totalement inadaptées dans d'autres. Notre recommandation générale est que les chercheurs en sciences du comportement utilisent les IA de manière judicieuse et contrôlent attentivement la qualité et la cohérence des résultats. Nous en tirons également des implications pour les équipes éditoriales, la formation des doctorants et l'écosystème de la recherche au sens large.
Pour rappel, ChatGPT a permis au plus grand nombre d'accéder à l'écriture générée par l'intelligence artificielle (IA), amorçant un changement culturel dans la façon dont les gens travaillent, apprennent et écrivent. Mais pour certains scientifiques, le besoin de distinguer l'écriture humaine de l'IA est à la fois critique et urgent. En 2023, des chercheurs avait présenté une méthode permettant de distinguer le texte généré par ChatGPT des scientifiques universitaires (humains), en s’appuyant sur des méthodes de classification supervisée répandues et accessibles.

Source : AI and the advent of the cyborg behavioral scientist

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

« Les scientifiques doivent utiliser l'IA comme un outil et non comme un oracle », affirment des chercheurs de l'université de Princeton, selon lesquels l'engouement pour l'IA conduit à des recherches erronées

L'éditeur de revues académiques Wiley ferme 19 revues scientifiques et retire plus 11 000 articles douteux dont plusieurs ont été générés par IA. Comment les algorithmes ont contribué à la fraude scientifique

Les chercheurs sont mis en garde contre l'utilisation de l'IA pour l'évaluation par les pairs des articles universitaires, mettant ainsi en péril l'intégrité du processus d'évaluation par les pairs
Vous avez lu gratuitement 2 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 31/03/2025 à 13:29
Bonjour

Publish or Perish
Voilà ce que me disait mon directeur de recherches au Quebec. Autrement dit, c'est le papier qui fait vivre le labo.
Et c'est vrai ailleurs.
Seulement, la partie perverse de ce système est que beaucoup de labo publisent des articles... vides ou complètement faux ! Je vous ramène à dvp.com et à de nolmbreux articles sur le sujet.
Donc, maintenant, certains labos sans foi ni loi vont invoquer l'AI pour faire du papier. Evidemment, le but sera de déléguer à mort ou à vendre du papier alimentaire. Quel niveau de confiance accordera-t-on ?
La Recherche fonctionne sur la revue des pairs, sauront-ils si ce que propose le papier tient debout ? Et puis, la partie expériementale et résultats (mat&meth et results) ? Comment sera-t-elle faite ? C'est l'IA qui manipule les tubes ou nos esprits ?

@++
1  0