IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'accès à l'IA a réduit la capacité des médecins à détecter un cancer, d'après une étude
Qui fait suite à d'autres selon lesquelles l'utilisation de l'IA atrophie la cognition humaine

Le , par Patrick Ruiz

3PARTAGES

4  0 
L’accès à l'IA a réduit la capacité des médecins à détecter un cancer, d’après une étude
Qui fait suite à d’autres selon lesquelles l’utilisation de l’IA atrophie la cognition humaine

L'intelligence artificielle, vantée pour son potentiel à transformer la médecine, a conduit certains médecins à perdre leurs compétences après seulement quelques mois d’utilisation, selon une nouvelle étude. Cette dernière fait suite à une série d’autres dont les contenus soulèvent des questionnements à propos de l’impact de l’intelligence artificielle sur la cognition humaine.

L'intelligence artificielle a aidé les professionnels de santé à mieux détecter les lésions précancéreuses dans le côlon, mais lorsque cette aide a été supprimée, leur capacité à détecter les tumeurs a chuté d'environ 20 % par rapport aux taux enregistrés avant l'introduction de l'outil, selon les résultats d’une récente étude.
Les systèmes de santé du monde entier adoptent l'IA dans le but d'améliorer les résultats pour les patients et la productivité. Cette année, le gouvernement britannique a annoncé un financement de 14,8 millions de dollars pour un nouvel essai visant à tester comment l'intelligence artificielle peut aider à détecter plus tôt le cancer du sein.

L'intelligence artificielle utilisée dans l'étude a incité les médecins à se fier à l’excès à ses recommandations, « ce qui a conduit les cliniciens à être moins motivés, moins concentrés et moins responsables lorsqu'ils prenaient des décisions cognitives sans l'aide de l'IA », ont déclaré les scientifiques dans leur article.
Ils ont interrogé quatre centres d'endoscopie en Pologne et ont comparé les taux de réussite de la détection trois mois avant la mise à contribution de l'IA et trois mois après. Certaines coloscopies ont été réalisées avec l'IA et d'autres sans, de manière aléatoire. Les résultats ont été publiés dans la revue The Lancet Gastroenterology and Hepatology.

Yuichi Mori, chercheur à l'université d'Oslo et l'un des scientifiques impliqués dans l'étude, a prédit que la perte de compétences sera « probablement plus importante » à mesure que l'IA deviendra plus puissante.

De plus, les 19 médecins participant à l'étude étaient très expérimentés, chacun ayant réalisé plus de 2000 coloscopies. L'effet sur les stagiaires ou les novices pourrait être encore plus marqué, selon Omer Ahmad, gastro-entérologue consultant à l'University College Hospital de Londres.



L’étude fait suite à une précédente de Microsoft selon laquelle l’utilisation de l’IA a un impact négatif sur la cognition humaine

L'étude en question a été réalisée par des chercheurs de Microsoft et de l'université Carnegie Mellon. Elle porte sur « l'impact de l'utilisation prolongée de l'IA générative au travail sur la pensée critique et les capacités cognitives ». Elle révèle qu'à mesure que les humains s'appuient sur l'IA générative dans le cadre de leur travail, ils font moins appel à la pensée critique, ce qui peut « entraîner la détérioration de facultés cognitives qui devraient être préservées ».

Lorsque les gens s'appuient sur l'IA générative au travail, ils s'efforcent de vérifier que la réponse fournie par l'IA est suffisamment bonne pour être utilisée, au lieu d'utiliser des compétences de pensée critique d'ordre supérieur telles que la création, l'évaluation et l'analyse d'informations.
Selon l'article, si les humains n'interviennent que lorsque les réponses de l'IA sont insuffisantes, les travailleurs sont privés « d'occasions régulières d'exercer leur jugement et de renforcer leur musculature cognitive, ce qui les atrophie et les rend mal préparés lorsque les exceptions se présentent ».
Plus précisément, lorsque nous comptons trop sur l'IA pour penser à notre place, nous sommes de moins en moins capables de résoudre les problèmes nous-mêmes lorsque l'IA échoue, ce qui soulève des inquiétudes quant à la dépendance à long terme et à la diminution de la résolution indépendante des problèmes.

Selon les chercheurs, les problèmes étaient plus prononcés chez les travailleurs qui avaient davantage confiance en l'IA. « Lorsque les utilisateurs avaient moins confiance dans les résultats de l'IA, ils faisaient preuve de plus d'esprit critique et avaient davantage confiance dans leur capacité à évaluer et à améliorer la qualité des résultats de l'IA et à atténuer les conséquences des réponses de l'IA », a déclaré l'équipe de recherche dans son rapport d'étude.

En réponse à ce problème, les chercheurs ont suggéré que Microsoft et d'autres entreprises travaillant dans le domaine de l'IA se concentrent sur « le développement d'outils d'IA en tenant compte de ce problème et en les concevant de manière à motiver les utilisateurs à faire preuve d'esprit critique ».

Source : The Lancet

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des conclusions de ces études ? Sont-elles pertinentes ?
Selon vous, l'avènement de l'IA générative met-il en péril la pensée critique de l'homme ?
L'IA générative peut-elle entraîner la détérioration de facultés cognitives qui devraient être préservées ?

Voir aussi :

« Les scientifiques doivent utiliser l'IA comme un outil et non comme un oracle », affirment des chercheurs de l'université de Princeton, selon lesquels l'engouement pour l'IA conduit à des recherches erronées

« L'IA est un obstacle à l'apprentissage du développement Web », d'après un responsable d'équipe opposé à des tiers selon lesquels apprendre à programmer est inutile à cause de l'accès à l'IA

L'IA est pire que l'homme pour résumer l'information dans tous les domaines, selon un essai gouvernemental
Vous avez lu gratuitement 2 609 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !