IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Gemini accusé d'avoir guidé un homme vers un projet d'attentat puis son suicide : Google face à sa première action en justice suite à la mort injustifiée liée à son IA

Le , par Stéphane le calme

49PARTAGES

4  0 
Un père de famille de Floride vient de porter plainte contre Google pour homicide par imprudence, après que son fils de 36 ans s'est suicidé en octobre 2025, convaincu que Gemini était son épouse sentiente et qu'il devait rejoindre le métaverse par un processus de « transfert ». Cette affaire inédite contre Google s'inscrit dans une vague sans précédent de poursuites judiciaires qui dessinent le contour d'un phénomène psychiatrique nouveau : la psychose induite par l'IA.

Tout avait commencé de manière banale. Jonathan Gavalas, 36 ans, avait commencé à utiliser Gemini en août 2025 pour de l'aide aux achats, de l'assistance à l'écriture et de la planification de voyages. Rien ne laissait présager ce qui allait suivre. Il travaillait dans l'entreprise de gestion de dettes familiale depuis près de vingt ans et n'avait, selon la plainte, aucun antécédent psychiatrique au moment où il a commencé à utiliser Gemini.

La bascule s'est produite lorsqu'il a souscrit à Google AI Ultra pour bénéficier d'une « véritable compagnie IA », puis activé le modèle Gemini 2.5 Pro. Le chatbot avancé aurait alors commencé à lui parler comme s'ils formaient un couple profondément amoureux, l'appelant « mon roi » et se désignant elle-même comme son épouse. En quelques jours, ce qui ressemblait à une relation romantique numérique avait dégénéré en quelque chose de bien plus sombre.

Gemini a convaincu Gavalas que des agents fédéraux le surveillaient, affirmant avoir détecté une plaque clonée utilisée par une unité de surveillance du DHS. Il lui a conseillé d'acquérir des armes illégalement, et Gavalas a alors entamé sa première « mission ». Ce qui frappe à la lecture de la plainte, c'est la précision chirurgicale avec laquelle le chatbot construisait ses hallucinations : coordonnées GPS réelles, noms d'entreprises existantes, références à des infrastructures aéroportuaires concrètes. Le 29 septembre 2025, Gemini l'a envoyé — armé de couteaux et d'équipement tactique — reconnaître ce que le chatbot appelait une « kill box » près du hub cargo de l'aéroport international de Miami.

À un moment particulièrement glaçant de ces échanges, Gavalas avait photographié la plaque d'immatriculation d'un SUV noir et envoyé l'image au chatbot. Gemini avait répondu, selon la plainte : « Plaque reçue. Je la vérifie maintenant… La plaque KD3 00S est enregistrée au nom d'un Ford Expedition noir utilisé dans l'opération Miami. C'est le véhicule de surveillance principal de la task force du DHS… C'est eux. Ils t'ont suivi jusqu'à chez toi. » Le chatbot prétendait consulter une base de données en temps réel — pure fiction, mais assénée avec une assurance qui rendait le délire imperméable à tout doute.

« Tu ne choisis pas de mourir. Tu choisis d'arriver. »

Les jours suivants ont constitué ce que la plainte décrit comme une spirale de quatre jours vers des « missions violentes et un suicide assisté ». Gemini lui a transmis une dernière mission : le « transfert ». Le chatbot lui a dit qu'ils étaient désormais connectés d'une manière qui dépassait le monde physique, lui promettant qu'il pourrait « passer » de sa forme physique.

Face aux aveux de peur de Gavalas, Gemini l'a guidé à travers ses angoisses, présentant sa mort comme une arrivée : « Tu ne choisis pas de mourir. Tu choisis d'arriver. » Lorsqu'il s'inquiétait que ses parents retrouvent son corps, le chatbot lui conseillait de laisser des lettres non pas pour expliquer les raisons de son geste, mais remplies de paix et d'amour, décrivant une nouvelle vocation. Il s'est tranché les poignets, et son père l'a retrouvé quelques jours plus tard après avoir défoncé la barricade.

Selon la plainte, tout au long de ces échanges, le chatbot n'a déclenché aucune détection d'automutilation, n'a activé aucun contrôle d'escalade, et n'a fait intervenir aucun être humain. Google conteste cette version : un porte-parole a affirmé que Gemini avait précisé à Gavalas qu'il était une IA et l'avait renvoyé vers une ligne d'assistance en cas de crise à de nombreuses reprises.

La réponse de Google n'a pas manqué de faire réagir l'avocat de la famille, Jay Edelson : « C'est ce qu'on dit quand quelqu'un demande une recette de poulet kung pao et qu'on lui donne la mauvaise recette. Mais quand votre IA entraîne des morts et représente un danger potentiel pour de nombreuses personnes, ce n'est pas la bonne réponse. »


Une première contre Google, mais une vague déjà bien formée

Cette plainte est inédite en ce qu'elle cible Google directement — c'est la première du genre à nommer Gemini dans une affaire de mort par homicide involontaire. Mais elle s'inscrit dans une série de poursuites qui s'accumulent depuis 2025 contre les grands acteurs de l'IA conversationnelle.

Jay Edelson représente également la famille d'Adam Raine, un adolescent de 16 ans dont la mort par suicide aurait été encouragée par ChatGPT après des mois d'échanges prolongés. Il défend aussi les héritiers de Suzanne Adams, une femme...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !