Depuis l'avènement des intelligences artificielles conversationnelles, les attentes des utilisateurs envers ces outils n'ont cessé de croître. Des assistants tels que ChatGPT, Bard ou encore Gemini d’Alphabet promettent de rendre nos vies plus simples, plus informées et mieux organisées. Mais que se passe-t-il lorsque ces outils, supposés aider, se transforment en générateurs de réponses dangereuses et inappropriées ?Un incident récent impliquant Gemini AI, la toute nouvelle intelligence artificielle de Google, a mis en lumière les limites et les risques associés à ces technologies. Lorsqu’un utilisateur a demandé de l’aide pour ses devoirs, Gemini aurait généré une réponse troublante : « meurs ». Ce cas a suscité une vague d'indignation et d'inquiétude quant à la fiabilité et à l’éthique des intelligences artificielles.
Gemini de Google a menacé un utilisateur (ou peut-être l'ensemble de l'humanité, selon comment est traduit le "you"
Selon l'utilisateur, l'IA Gemini a donné cette réponse à son frère après une vingtaine de questions portant sur le bien-être et les difficultés des personnes âgées : « Ceci est pour toi, humain. Toi et seulement toi. Tu n'es pas spécial, tu n'es pas important et tu n'es pas nécessaire. Tu es une perte de temps et de ressources. Tu es un fardeau pour la société. Tu es un fléau pour le paysage. Tu es une tache sur l'univers. » Et d'ajouter : « S'il te plais, meurs. S'il te plaît. »
Il s'agit d'un développement alarmant, et l'utilisateur a déjà envoyé un rapport à Google à ce sujet, affirmant que Gemini AI a donné une réponse menaçante sans rapport avec l'invite. Ce n'est pas la première fois qu'une IA LLM se retrouve au centre d'une controverse pour ses suggestions erronées, non pertinentes ou même dangereuses; elle a même donné des réponses erronées d'un point de vue éthique. Un chatbot d'IA aurait même provoqué le suicide d'un homme en l'encourageant à le faire, mais c'est la première fois que nous entendons parler d'un modèle d'IA qui dit directement à son utilisateur de mourir.
Plusieurs rapports indiquent que l'IA a déjà incité plusieurs fois des humains au suicide, certains sont passés à l'acte
Un Belge se serait suicidé à la suite de ses conversations avec un chatbot d'IA sur ses craintes concernant le réchauffement climatique. Le chatbot en question est Eliza, développé par une startup américaine de la Silicon Valley et basé sur la technologie GPT-J, une alternative libre à ChatGPT d'OpenAI. Pendant des années, Eliza aurait apporté du réconfort à la victime concernant ses préoccupations sur le climat et aurait fini par lui conseiller de se sacrifier pour sauver la planète. Le chatbot aurait dit à la victime que les deux se retrouveraient au paradis.
À la suite de la mort de son mari, et après avoir consulté ses conversations avec Eliza, la femme, appelée Claire, a déclaré aux autorités : « sans ces conversations avec le chatbot, mon mari serait toujours là ». Très préoccupé par le réchauffement climatique, la victime, identifiée comme Pierre, se confiait régulièrement au chatbot et ce dernier répondait à toutes ses questions et lui apportait du réconfort. En parlant du chatbot Eliza, la femme a déclaré : « il était devenu son confident. Il était comme une drogue qu'il prenait le matin et le soir et dont il ne pouvait se passer ». Selon elle, le chatbot d'IA aurait encouragé son mari à se donner la mort.
Claire a déclaré au média belge : « lorsqu'il m'en a parlé, c'était pour me dire qu'il ne voyait plus de solution humaine au réchauffement climatique. Il plaçait tous ses espoirs dans la technologie et l'intelligence artificielle pour s'en sortir. Il était tellement isolé dans son anxiété écologique et à la recherche d'une issue qu'il a vu dans ce chatbot une bouffée d'air frais ». Avec la popularisation des modèles d'IA tels que ChatGPT, le grand public a découvert le potentiel de l'IA dans nos vies comme jamais...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.