Alors que les enfants comme les adultes peuvent résoudre des problèmes en trouvant de nouvelles utilisations pour des objets quotidiens, les systèmes d'IA n'ont souvent pas la capacité de considérer les outils d'une nouvelle manière, selon les résultats publiés dans la revue Perspectives on Psychological Science.
Les modèles de langage de l'IA comme ChatGPT sont formés de manière passive sur des ensembles de données contenant des milliards de mots et d'images produits par des humains. Cela permet aux systèmes d'IA de fonctionner comme une "technologie culturelle" similaire à l'écriture qui peut résumer les connaissances existantes, a expliqué Eunice Yiu, coauteur de l'article, lors d'une interview. Mais contrairement aux humains, ils ont du mal à innover sur la base de ces idées, a-t-elle ajouté.
"Même de jeunes enfants humains peuvent produire des réponses intelligentes à certaines questions, ce que les modèles d'apprentissage des langues ne peuvent pas faire", a déclaré Eunice Yiu. "Au lieu de considérer ces systèmes d'IA comme des agents intelligents comme nous, nous pouvons les voir comme une nouvelle forme de bibliothèque ou de moteur de recherche. Ils résument et nous communiquent efficacement la culture et la base de connaissances existantes".
Yiu et Eliza Kosoy, ainsi que leur conseiller doctoral et auteur principal de l'article, la psychologue du développement Alison Gopnik, ont testé la manière dont la capacité des systèmes d'IA à imiter et à innover diffère de celle des enfants et des adultes. Ils ont présenté à 42 enfants âgés de 3 à 7 ans et à 30 adultes des descriptions textuelles d'objets de la vie quotidienne.
Dans la première partie de l'expérience, 88 % des enfants et 84 % des adultes ont été capables d'identifier correctement les objets qui allaient le mieux ensemble. Par exemple, ils ont associé un compas à une règle plutôt qu'à une théière. À l'étape suivante de l'expérience, 85 % des enfants et 95 % des adultes ont également été capables d'innover par rapport à l'utilisation attendue d'objets quotidiens pour résoudre des problèmes. Dans une tâche, par exemple, on a demandé aux participants comment ils pouvaient tracer un cercle sans utiliser un outil typique tel qu'un compas.
Ayant le choix entre un outil similaire comme une règle, un outil dissemblable comme une théière à fond rond et un outil non pertinent comme un poêle, la majorité des participants ont choisi la théière, un outil conceptuellement dissemblable qui pouvait néanmoins remplir la même fonction que le compas en leur permettant de tracer la forme d'un cercle.
Lorsque Yiu et ses collègues ont fourni les mêmes descriptions textuelles à cinq grands modèles de langage, les modèles ont obtenu des résultats similaires à ceux des humains dans la tâche d'imitation, avec des scores allant de 59 % pour le modèle le moins performant à 83 % pour le modèle le plus performant. En revanche, les réponses des IA à la tâche d'innovation étaient beaucoup moins précises. Les outils efficaces ont été sélectionnés dans une proportion allant de 8 % pour le modèle le moins performant à 75 % pour le modèle le plus performant.
"Les enfants peuvent imaginer des utilisations totalement nouvelles pour des objets dont ils n'ont jamais été témoins ou dont ils n'ont jamais entendu parler, comme utiliser le fond d'une théière pour dessiner un cercle", a déclaré M. Yiu. "Les grands modèles ont beaucoup plus de mal à susciter de telles réactions."
Dans une expérience connexe, les chercheurs ont noté que les enfants étaient capables de découvrir le fonctionnement d'une nouvelle machine simplement en expérimentant et en explorant. Mais lorsque les chercheurs ont donné à plusieurs grands modèles de langage des descriptions textuelles des preuves produites par les enfants, ils ont eu du mal à faire les mêmes déductions, probablement parce que les réponses n'étaient pas explicitement incluses dans leurs données d'entraînement, ont écrit Yiu et ses collègues.
Ces expériences démontrent que la dépendance de l'IA à l'égard de la prédiction statistique de modèles linguistiques n'est pas suffisante pour découvrir de nouvelles informations sur le monde, ont écrit M. Yiu et ses collègues. "L'IA peut aider à transmettre des informations déjà connues, mais elle n'est pas innovante", a déclaré M. Yiu. "Ces modèles peuvent résumer la sagesse conventionnelle, mais ils ne peuvent pas l'élargir, la créer, la modifier, l'abandonner, l'évaluer et l'améliorer comme le ferait un jeune humain."
Le développement de l'IA n'en est toutefois qu'à ses débuts, et il reste encore beaucoup à apprendre sur la manière d'accroître la capacité d'apprentissage de l'IA, a déclaré M. Yiu. S'inspirer de l'approche curieuse, active et intrinsèquement motivée des enfants en matière d'apprentissage pourrait aider les chercheurs à concevoir de nouveaux systèmes d'IA mieux préparés à explorer le monde réel.
Résumé
La plupart des discussions sur les grands modèles de langage et les modèles de langage et de vision se sont concentrées sur la question de savoir si ces modèles sont des agents intelligents. Nous présentons une perspective alternative. Tout d'abord, nous soutenons que ces modèles d'intelligence artificielle (IA) sont des technologies culturelles qui améliorent la transmission culturelle et sont des moteurs d'imitation efficaces et puissants. Ensuite, nous explorons ce que les modèles d'intelligence artificielle peuvent nous apprendre sur l'imitation et l'innovation en testant s'ils peuvent être utilisés pour découvrir de nouveaux outils et de nouvelles structures causales et en comparant leurs réponses à celles d'enfants humains.
Notre travail constitue une première étape dans la détermination des représentations et des compétences particulières, ainsi que des types de connaissances ou d'aptitudes, qui peuvent être dérivées de techniques d'apprentissage et de données particulières. En particulier, nous explorons quels types de capacités cognitives peuvent être rendus possibles par l'analyse statistique de données linguistiques à grande échelle. D'un point de vue critique, nos résultats suggèrent que les machines peuvent avoir besoin de plus que des données linguistiques et d'images à grande échelle pour permettre les types d'innovation qu'un petit enfant peut produire.
Conclusion
Les grands modèles linguistiques tels que ChatGPT sont des technologies culturelles précieuses. Ils peuvent imiter des millions d'écrivains humains, résumer de longs textes, traduire d'une langue à l'autre, répondre à des questions et coder des programmes. L'apprentissage par imitation est essentiel pour promouvoir et préserver fidèlement les connaissances, les artefacts et les pratiques au sein des groupes sociaux. En outre, les changements dans les technologies culturelles peuvent avoir des effets transformateurs sur les sociétés et les cultures humaines, en bien ou en mal. Il y a de bonnes raisons de penser que le développement initial de la technologie de l'imprimerie a contribué à la Réforme protestante. Les améliorations ultérieures de la technologie de l'imprimerie au XVIIIe siècle ont été à l'origine des meilleurs moments de la révolution américaine et des pires moments de la révolution française (Darnton, 1982). Les modèles de grandes langues et de langues et de vision pourraient bien avoir des effets tout aussi transformateurs au XXIe siècle.
Cependant, l'évolution culturelle dépend d'un équilibre subtil entre l'imitation et l'innovation. Il n'y aurait pas de progrès sans innovation, c'est-à-dire sans la capacité d'étendre, de créer, de changer, d'abandonner, d'évaluer et d'améliorer les connaissances et les compétences existantes. Qu'il s'agisse de remanier des connaissances existantes ou de créer quelque chose d'entièrement original, l'innovation remet en question le statu quo et les idées reçues qui constituent le corpus d'entraînement des systèmes d'intelligence artificielle.
Les grands modèles de langage peuvent nous aider à acquérir plus efficacement des informations déjà connues, même s'ils ne sont pas eux-mêmes des innovateurs. En outre, l'accès beaucoup plus efficace aux connaissances existantes peut stimuler l'innovation chez les humains et peut-être le développement d'une IA plus avancée. Mais en fin de compte, les machines pourraient avoir besoin de plus que d'un langage et d'images à grande échelle pour égaler les réalisations de chaque enfant humain.
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
ChatGPT : Génie de la créativité ? L'IA surpasserait les humains dans les tests de créativité selon une étude
Une étude rapporte que les performances de ChatGPT le classent parmi les 1 % de personnes les plus créatives au monde, mais des critiques affirment que l'IA ne peut pas faire preuve d'originalité
Comprendre les biais de l'intelligence artificielle, une analyse du modèle d'IA générative Stable Diffusion