IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA est pire que l'homme pour résumer l'information dans tous les domaines,
Selon un essai gouvernemental

Le , par Bruno

117PARTAGES

8  0 
L'IA est pire que l'homme pour résumer l'information dans tous les domaines,
selon un essai gouvernemental

L'intégration de l'intelligence artificielle (IA) dans les processus de travail soulève des débats complexes, particulièrement lorsqu'il s'agit de tâches qui requièrent une analyse critique et une compréhension nuancée des informations. Un essai gouvernemental australien, mené pour la Securities and Investments Commission (ASIC), a révélé que l'IA, en dépit de ses avancées technologiques, est encore loin de pouvoir remplacer les compétences humaines dans des domaines comme le résumé de documents. Utilisant le modèle Llama2-70B de Meta, l'essai a comparé les performances de l'IA à celles des employés humains de l'ASIC, et les résultats ont montré que l'IA est nettement moins performante sur tous les critères évalués.

Ce constat n'est pas simplement une critique de l'IA, mais soulève des questions fondamentales sur la manière dont cette technologie devrait être déployée dans des environnements professionnels. Plutôt que de réduire la charge de travail, l'IA pourrait en fait l'augmenter en nécessitant des vérifications humaines supplémentaires. Le rapport conclut qu'à ce stade, l'IA doit être utilisée pour compléter, et non remplacer, les tâches humaines, soulignant ainsi la nécessité d'une approche plus nuancée et réfléchie dans l'intégration de l'IA dans les processus de travail.



Le développement rapide de l'intelligence artificielle a conduit à sa supériorité dans diverses tâches par rapport à l'homme, selon une étude de l'université de Californie à Berkeley. Les domaines où l'IA a dépassé l'homme incluent la reconnaissance de l'écriture manuscrite, la reconnaissance vocale, la compréhension d'images, la compréhension de la lecture, la compréhension du langage, l'acquisition du bon sens, les mathématiques de l'école primaire et la génération de codes. L'étude révèle également une accélération du rythme auquel l'IA surpasse l'homme dans de nouvelles tâches.

Cette tendance soulève des questions cruciales pour l'avenir du travail, de la société et de l'humanité. L'automatisation croissante due à la performance accrue de l'IA pourrait entraîner des pertes d'emplois et des changements dans l'organisation du travail. En ce qui concerne la société, l'IA a le potentiel d'améliorer les domaines tels que la médecine, l'éducation et le divertissement, mais elle présente aussi des risques, tels que la propagation de fausses informations et la création d'armes autonomes.

L'essai gouvernemental australien a été conduit par Amazon pour le compte de l'ASIC, afin d'évaluer l'efficacité de l'intelligence artificielle dans la tâche complexe de résumé de documents. Le modèle d'IA utilisé, Llama2-70B de Meta, a été mis à l'épreuve pour résumer des soumissions issues d'une enquête parlementaire sur les sociétés d'audit et de conseil. L'objectif était de voir dans quelle mesure l'IA pouvait identifier et synthétiser les mentions de l'ASIC, les recommandations, les références réglementaires, tout en conservant le contexte et les références pertinentes.

Le processus de l'essai impliquait une évaluation comparative où les résumés générés par l'IA étaient confrontés à ceux produits par des employés de l'ASIC, chacun ayant été soumis à des instructions similaires. Un groupe de réviseurs a ensuite évalué à l'aveugle les résumés en se concentrant sur divers critères : cohérence, précision, référence aux documents et capacité à capter l'essence du contenu original. Les résultats ont été sans équivoque : les résumés humains ont surpassé ceux de l'IA dans tous les aspects évalués, obtenant un score de 81 % contre 47 % pour l'IA.

Les faiblesses de l'IA identifiées par les évaluateurs étaient multiples. Les résumés générés par la machine manquaient souvent de nuances et de contexte, deux éléments essentiels pour comprendre pleinement un document complexe. De plus, l'IA a été trouvée coupable d'inclure des informations incorrectes ou non pertinentes, ce qui pouvait conduire à des erreurs d'interprétation. Ces lacunes ont obligé les humains à intervenir pour vérifier et corriger les résumés, augmentant ainsi la charge de travail au lieu de la réduire.

Le rapport a également souligné que bien que des améliorations futures de l'IA soient possibles, les capacités actuelles de la technologie sont insuffisantes pour des tâches qui nécessitent un jugement critique et une compréhension profonde des subtilités textuelles. Il en ressort que l'IA, dans sa forme actuelle, ne peut rivaliser avec la capacité humaine à analyser et résumer des informations de manière critique.

L'intelligence artificielle peut parfois compliquer le travail au lieu de l'alléger

Le constat que l'intelligence artificielle est encore incapable de remplacer les compétences humaines dans des tâches analytiques comme le résumé de documents n'est pas surprenant, mais il soulève des interrogations essentielles sur la manière dont cette technologie devrait être intégrée dans les processus professionnels. La tendance à automatiser des tâches complexes sans une compréhension claire des limites de l'IA peut conduire à des résultats contre-productifs, comme illustré par cet essai.

Premièrement, la question des nuances et du contexte est centrale dans cette analyse. L'IA, en dépit de ses avancées, reste une technologie basée sur des modèles statistiques qui ne peuvent pas encore saisir les subtilités de la langue humaine de manière aussi précise qu'un être humain. Cette limitation n'est pas seulement technique, mais elle a des implications éthiques. En effet, si l'IA nécessite une supervision humaine accrue, elle risque de transformer ce qui est perçu comme un gain d'efficacité en une source de travail supplémentaire, voire de frustration.

Deuxièmement, l'idée que l'IA devrait être utilisée pour compléter les compétences humaines plutôt que pour les remplacer est un point clé. Il est tentant pour les organisations de chercher à automatiser certaines tâches pour réduire les coûts ou accélérer les processus, mais cette approche peut se révéler myope si elle ne prend pas en compte les compétences uniques que les humains apportent, notamment dans l'interprétation des informations et la prise de décision. Cet essai montre clairement que la tentation de remplacer complètement les humains par des machines dans des tâches analytiques complexes peut être mal avisée.

Enfin, la transparence dans l'utilisation de l'IA est un aspect souvent négligé mais crucial. Le public et les professionnels doivent être pleinement informés de la manière dont l'IA est utilisée, surtout lorsqu'il s'agit de traiter des informations sensibles ou complexes. La confiance dans la technologie est essentielle, et cette confiance ne peut être maintenue que si les utilisateurs savent exactement comment et pourquoi l'IA est déployée. Dans ce contexte, l'appel à la transparence du sénateur Shoebridge est pertinent et souligne l'importance de ne pas se précipiter dans l'intégration de l'IA sans une évaluation rigoureuse de ses implications.

En conclusion, bien que l'intelligence artificielle offre un potentiel indéniable pour transformer les processus de travail, cet essai australien montre que son utilisation doit être abordée avec prudence. Les capacités actuelles de l'IA sont encore limitées, surtout lorsqu'il s'agit de tâches qui nécessitent une analyse nuancée et une compréhension contextuelle. Pour le moment, l'IA devrait être utilisée comme un outil pour augmenter l'efficacité humaine, et non pour la remplacer, afin de garantir que la technologie est utilisée de manière bénéfique et productive.

Source : Australian Securities and Investments Commission

Et vous ?

Les conclusions de l'essai gouvernemental australien sont-elles pertinentes ?

Le rapport a mentionné la nécessité d'une vérification humaine accrue en cas d'utilisation de l'IA pour le résumé de documents. Quels sont les impacts potentiels de cette vérification supplémentaire sur les processus de travail et la productivité globale ?

Comment les organisations peuvent-elles équilibrer l'utilisation de l'IA et des compétences humaines pour éviter les situations où l'IA augmente la charge de travail au lieu de la réduire ?

Voir aussi :

L'IA a surpassé l'homme dans un certain nombre de tâches et la vitesse à laquelle l'homme est surpassé dans de nouvelles tâches augmente, un défi pour notre identité et notre avenir collectif ?

L'IA pourrait surpasser l'homme dans toutes les tâches d'ici 2047, selon une enquête auprès de 2,778 chercheurs

Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025
Vous avez lu gratuitement 1 622 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 7:35
Citation Envoyé par Jade Emy Voir le message
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Bien sur, nous savons tous que le climat c'est comme une voiture, quand il est cassé on le répare, avec des tournevis et du WD40.
Bien sur, nous savons tous, surtout depuis la physique quantique, que la physique est un domaine fini que nous mettons du temps à découvrir parce que nous sommes médiocres.
Quel est votre avis sur le sujet ?
Sam Altman est un clown qui ne sait pas de quoi il parle.
Mais il le dit surement mieux que moi parce qu'il lève des millions d'euros avec ce genre d'intervention.
Sam Altman prévoit que l'IA sera une ressource qui fera l'objet de guerres et deviendra principalement un outil pour les riches.[...]
Bref la même chose qu'aujourd'hui mais en pire
[...]Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
Ah beh tout va bien alors...
Ceci dit non seulement on va réparer le climat et découvrir la physique mais en plus se sera monnaie courante...
11  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 25/09/2024 à 11:13
Mais Sam Altman affirme que des triomphes stupéfiants, comme réparer le climat, établir une colonie spatiale et découvrir toute la physique, finiront par devenir monnaie courante avec l'AGI
MDR, l'IA, dont l'entraînement et l'utilisation des modèles génèrent d'importantes émissions de CO2 et dont les centres de données nécessaires à son fonctionnement consomment d'importantes quantités d'eau pour le refroidissement, serait bon pour le climat !!!
9  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 24/09/2024 à 16:45
Il fume la même chose que Musk, celui-là ?
7  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 22/10/2025 à 11:19
Citation Envoyé par Ryu2000 Voir le message

Il y a énormément d'argent qui est investit dans la recherche et le développement, on ne peut pas savoir quelles avancées technologiques auront lieu.
Le cerveau humaine reste et restera pour les prochaines années un mystère.

Donc dupliquer cela d'une quelconque manière que ce soit semble une fiction...

On simule un tant soit peu intelligence humaine pour les non initiés et pof c'est magique, dans 2 semaines on va se faire remplacé par une IA. Mais quand on scrute un peu en profondeur ... Bon voila quoi
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 18/12/2025 à 11:22
Citation Envoyé par marsupial Voir le message
Ça ne se décide pas à l'échelle d'un pays mais de toute la planète. Ainsi, seuls 11% des jobs sont remplaçables par l'IA actuelle. Encore insuffisant pour justifier une modification du système dans l'immédiat. Donc je répète ma réponse initiale : seule issue, la puce quantique.
Ah bon, il y a 11% de managers?

Okay, je sors. On n'est pas encore vendredi...
5  0 
Avatar de
https://www.developpez.com
Le 25/09/2024 à 8:54
Sam Altman, PDG d'OpenAI, prévoit une superintelligence dans "quelques milliers de jours", qui permettra de réparer le climat, d'établir une colonie spatiale et de découvrir toute la physique
Fuite en avant, solutionnisme technologique, annonces itératives (Coué ?)
Le problème actuellement est dans l'orientation "business as usual" d'LLM par exemple : c'est comme de faire d'un-e hyperingénieur-e généraliste ... un distributeur de prospectus. Question d'usage et de mode de vie : faire croire que de frotter un smartphone va faire apparaître un génie alors qu'i s'agit de géolocaliser, orienter le désir, toussa ...
Hors la question n'est pas de savoir à qui ça profite : la question est de découvrir si un génie va apparaître. Et à l'intérieur de cette question, il y a : quel(s) vœu(x) allons-nous faire ?
Et ça ... c'est une question d'esprit.
4  0 
Avatar de DrHelmut
Membre actif https://www.developpez.com
Le 30/09/2024 à 7:57
Le terme "IA" dans la gen AI est un pur terme marketing (et ça marche) alors qu'on a en vérité un produit qui est un simple exécutant qui ne prend aucune décision.
Pour moi, la révolution est dans la capacité d'analyse sémantique, et il est vrai que ça permet des usages très cool, avec un gain de temps certain.

Mais il faut un prompt. L'outil fait (plutôt très bien) ce qu'on lui demande. Il n'y a pas d'intelligence, de capacité d'initiative, d'autonomie dans ce qu'on nous vend comme étant de l''IA aujourd'hui.
4  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 30/09/2024 à 18:44
Citation Envoyé par OuftiBoy Voir le message
Pour en revenir au prédiction d'Altman, qui profétice qu'on aura cela dans quelques milliers de jours, c'est assez flou comme délai... quelques milliers de jours, c'est au minimum dans (2 milliers de jours), soit 6 ans (quelques induisant un chiffre > 1), soit dans (10 milliers de jour), et donc dans 27 ans, bref, ça ne veut strictement rien dire, c'est parler pour parler, et surtout pour ne rien dire.
Oh, il y en a tout plein, ici et ailleurs, qui écrivent pour écrire-pour-eux parce que les autres ne peuvent pas comprendre ce qui est écrit tellement c'est bourré de tout et n'importe quoi, suivez mon regard...
Par exemple, les bouts de phrases entre parenthèses peuvent en général être enlevés, ce qui pourrait donner c'est au minimum dans, soit 6 ans, soit dans, et donc dans 27 ans, charabia incompréhensible et gaspilleur d'espace disque, comme souvent ici.

Tu as une manière bien personnelle d'écrire et donc (d'essayer) de communiquer mais àmha, avec cette méthode tu vas dans le mur...
Tu devrais la revoir.
4  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 12/11/2024 à 11:57
est il vraiment pertinent de faire un gros modèle ?

j'ai déja eu un cas concret dans le passé (rien a voir avec les llm), plus on faisait un gros réseau de neurone avec de la data (de "qualité" en plus) plus le modèle était mauvais/stagnait (overfitting).
au final nous avons fait plusieurs petit modèle et un classifier en front pour choisir le modèle en fonction des données d'entrées, les résultats était bien meilleurs ainsi.
l'article parle t'il d'ia généraliste comme chatgpt ou d'ia spécialisé par exemple dans le code ou des 2 ?

De toute façon cette technos et fatalement limité par la production humaine, si demain l'ia remplace les devs, alors l'ia ne pourra plus évoluer. C'est grâce à des humains qui écrive des docs, trouve des bugs les corrige ou écrive sur les forum comment les contourner et donne des réponses bénévolement sur stackoverflow que l'ia progresse.

Or l’informatique c'est surement le domaine le moins stable dans le monde, y'a toujours une nouvelle technos, une nouvelle version, des patchs de sécurité a faire...si bien que il faut évoluer et s'adapter, pour un humain, c'est un aspect que l'on peut aimer ou détester, mais ce que l'on apprends à la sortie d'école et déjà obsolète, c'est de l'apprentissage continue.

edit: même dans le cas d'ia orienté code, une fois ratissez les forums style stackoverflow, c'est compliqué d'aller plus loins

par contre, j'imagine dans le futur une fonctionnalité pour les entreprises permettant de donner à l'ia toute la base de code et doc technique de l'entreprise et s'entrainer dessus, ainsi l'ia aurait le contexte de l'entreprise et le coding standard. Ca serait déja une belle amélioration dans la qualité des réponses.
par exemple je lui demande comment me connecter une l'api d'un service interne, elle va me donner le code, comment m'y connecter (demander à Jean Jacque sur teams de me crée un compte machine avec token en lecture, ensuite de tester la connexion avec ce code et enfin la fonctionnalité que vous avez demandez)
4  0 
Avatar de vVDB.fr
Membre régulier https://www.developpez.com
Le 11/12/2024 à 17:33
Triste comme ces personnes peuvent fumer de la moquette !
Ils sont donc arrivé à faire une AI Générale !
Alors plus d'hallucinations, de mensonges, de biais ! Wahoo !!!
Cette AIG est capable d'évaluer la pertinence de ce qu'elle dit avec les sources ? De tester la robustesse des données de sa base d'intelligence ? D'en demander de supplémentaires car elle ne peut répondre a la question posée ? ...
Ah ! Non... Crottes !!!

Les IA des modèles actuels sont des perroquets scolastiques qui proposent le plus probable et normalement (malheureusement) incapables de produire une idée neuve par rapport à sa base d' apprentissage.
La connaissance encyclopédique n'est pas de l'intelligence, c'est juste bluffant.
Si cette iag fait de l'inférence, quelles sont les domaines mathématiques qu'elle aurait déjà épuisé ? Les trucs sympas qu'elle a démontré avec plus de finesse que l'humain ?
Altman sera mort avant que l'humanité le voit. Il est jeune Altman...
4  0