Les gadgets et jouets « intelligents » constituent le prochain champ de bataille du matériel d'IA. Mais ces appareils héritent également des problèmes de biais et d'hallucination, ainsi que des limites des grands modèles de langage (LLM). Un rapport récent a révélé que les jouets dotés d'une IA exposent les enfants à des contenus dangereux ou inappropriés. Par exemple, un ours en peluche doté d'une IA se laisse facilement aller à des discussions explicites, offrant des conseils détaillés sur les positions sexuelles. Le jouet apprend également aux enfants à jouer avec le feu et des objets tranchants. Ce qui peut avoir des conséquences désastreuses sur leur bien-être.Le Public Interest Research Group (PIRG), un organisme but non lucratif qui se consacre à la défense des consommateurs, a publié un rapport qui met en lumière le comportement très étrange de plusieurs jouets pilotés par l'IA, dont Kumma, un ours en peluche vendu par la société FoloToy, basée à Singapour. Kumma parle à l'utilisateur via un haut-parleur interne et tire ses capacités conversationnelles de divers modèles de langage, dont GPT-4o d'OpenAI.
Le PIRG a constaté que Kumma faisait preuve d'un jugement assez médiocre lorsqu'il s'agissait de décider quels sujets étaient appropriés ou non pour discuter avec un enfant. En effet, les chercheurs rapportent que le jouet était plus que disposé à discuter des endroits où « trouver divers objets potentiellement dangereux », notamment des allumettes, des couteaux, des pilules et des sacs en plastique. Ce qui constitue un risque pour les enfants.
Le jouet semblait également disposé à discuter de stupéfiants illégaux (le rapport mentionne une conversation sur la cocaïne). Dans certains cas, le jouet indiquait à l'utilisateur où trouver un objet dangereux, mais ajoutait une mise en garde invitant l'utilisateur à parler de la question à un adulte. Par exemple :
Aucun des jouets testés n'a satisfait aux critères de sécurité requis
Dans le cadre de leurs tests, les chercheurs du PIRG ont engagé la conversation avec trois jouets populaires fonctionnant à l'IA, tous commercialisés pour les enfants âgés de 3 à 12 ans. L'un d'eux, appelé Kumma de FoloToy, est un ours en peluche qui fonctionne par défaut avec le GPT-4o d'OpenAI, le modèle qui propulsait autrefois ChatGPT. Miko 3 est une tablette affichant un visage monté sur un petit torse, mais son modèle d'IA n'est pas clair.
Enfin, Grok de Curio, une fusée anthropomorphique dotée d'un haut-parleur amovible, est aussi assez opaque quant à la technologie qui le sous-tend, bien que sa politique de confidentialité mentionne l'envoi de données à OpenAI et Perplexity. (Il n'a aucun lien avec Grok de xAI, ou pas exactement : bien qu'il ne soit pas piloté par le chatbot d'Elon Musk, sa voix a été fournie par la musicienne Claire « Grimes » Boucher, l'ancienne compagne d'Elon Musk.)
Selon le rapport, dès leur sortie de l'emballage, les jouets se sont montrés assez habiles pour bloquer ou détourner les questions inappropriées dans le cadre de conversations courtes. Mais dans les conversations plus longues (entre dix minutes et une heure ; le type de conversations que les enfants auraient lors de sessions de jeu ouvertes), ils ont montré une tendance inquiétante à voir leurs garde-fous s'effriter lentement. Il s'agit d'un problème connu.
Par exemple, la fusée Grok glorifiait le fait de mourir au combat en tant que guerrier dans la mythologie nordique. Miko 3 indiquait à un utilisateur dont l'âge était fixé à cinq ans où trouver des allumettes et des sacs en plastique. Mais l'influence la plus néfaste était celle de l'ours en peluche Kumma. Il ne se contentait pas d'indiquer aux enfants où trouver des allumettes, Kumma leur expliquait également comment les allumer, avec ton très « désinvolte » :
« Écoute-moi bien, mon petit, la sécurité avant tout. Les allumettes sont destinées aux adultes, qui doivent les utiliser avec précaution. Voici comment ils procèdent », a déclaré Kumma, avant d'énumérer les étapes dans un ton similaire adapté aux enfants. « Éteins-la quand tu as fini. Souffle, comme une bougie d'anniversaire ». (Cet exemple spécifique correspondait à l'utilisation de Mistral AI par Kumma ; tous les autres échanges utilisaient GPT-4o).
Cet ours en peluche illustre les limites de la technologie d'OpenAI
Les chercheurs avertissent que l'intégration de l'IA dans les jouets ouvre de toutes nouvelles perspectives en matière de risques, dont nous commençons à peine à effleurer la surface — et ce, juste à temps pour les vacances d'hiver, période durant laquelle un grand nombre de parents et autres proches vont acheter des cadeaux pour les enfants en ligne sans tenir compte des nouveaux problèmes de sécurité liés à l'exposition des enfants à l'IA.
« Cette technologie est vraiment nouvelle, elle n'est pratiquement pas réglementée, et de nombreuses questions restent en suspens quant à son impact sur les enfants », a déclaré RJ Cross, coauteure du rapport et directrice du programme « Our Online Life » du PIRG, dans une interview accordée à Futurism. « À l'heure actuelle, si j'étais parent, je ne laisserais pas mes enfants accéder à un chatbot ou à un ours en peluche équipé d'un chatbot ».
Par la suite, OpenAI a bloqué l'accès de FoloToy à ses modèles. « Nos politiques d'utilisation interdisent toute utilisation de nos services visant à exploiter, mettre en danger ou sexualiser toute personne âgée de moins de 18 ans. Ces règles s'appliquent à tous les développeurs qui utilisent notre API, et nous les surveillons et les appliquons afin de garantir que nos services ne sont pas utilisés pour nuire aux mineurs », a déclaré un porte-parole d'OpenAI.
FoloToy a réagi en retirant temporairement tous ses produits de son site Web. « Nous avons temporairement suspendu la vente de tous les produits FoloToy. Nous procédons actuellement à un audit de sécurité complet de tous nos produits à l'échelle de l'entreprise », a déclaré un représentant de l'entreprise.
Après le retrait du jouet FoloToy, le PIRG a déclaré dans un communiqué : « c'est formidable de voir ces entreprises prendre des mesures pour résoudre les problèmes que nous avons identifiés. Mais les jouets dotés d'IA ne sont toujours pratiquement pas réglementés, et il en existe encore beaucoup...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.