En mars 2026, le Premier ministre israélien Benjamin Netanyahu a dû filmer ses propres mains dans un café de Jérusalem pour convaincre le monde qu'il était en vie. Que ce geste ait déclenché une nouvelle vague de suspicion en dit long sur l'état de notre rapport collectif à l'image. À l'heure où l'IA générative rend crédible l'incroyable, la preuve par la vidéo n'est plus une preuve.Le 12 mars 2026, le bureau du Premier ministre israélien diffuse en direct une conférence de presse de Benjamin Netanyahu. La transmission dure près de quarante minutes, une durée que les outils de génération vidéo actuels sont encore très loin de pouvoir reproduire de manière continue et cohérente. Pourtant, dans les heures qui suivent, les réseaux sociaux s'enflamment : des utilisateurs prétendent avoir compté six doigts sur la main droite du chef du gouvernement. La conclusion, tirée avec une rapidité vertigineuse, est que l'homme à l'écran est un deepfake destiné à dissimuler la mort de Netanyahu, qui aurait été tué dans une frappe iranienne.
L'agence de fact-checking Snopes a soumis la vidéo incriminée à un outil de détection spécialisé, qui a conclu à une probabilité de 0,1 % seulement que le contenu soit généré par IA. Les vérificateurs ont également établi que ce que certains interprétaient comme un sixième doigt correspondait en réalité à l'éminence hypothénar (le renflement naturel à la base de l'auriculaire) rendu ambigu par la compression vidéo et l'angle de prise de vue.
Mais peu importe. La rumeur avait déjà pris son envol, amplifiée par un réseau de 62 faux comptes liés aux Gardiens de la Révolution iraniens, qui se faisaient passer pour des partisans de l'indépendance écossaise, des nationalistes irlandais ou des femmes latino américaines. Une opération de manipulation coordonnée, documentée et attribuée.
La preuve de vie qui n'a rien prouvé
Pour couper court aux spéculations, Netanyahu décide le 15 mars de publier une vidéo depuis le café Sataf, dans les collines de Jérusalem. Il y joue sur les mots en hébreu, glissant qu'il est « mort… de vouloir un café » (une formule idiomatique signifiant qu'il en raffole) avant de lever les deux mains face à la caméra, invitant son interlocuteur à compter ses doigts.
La démarche aurait dû clore le débat. Le café Sataf a lui-même posté des photos et vidéos de la visite sur Instagram, confirmant la présence du Premier ministre. Reuters a géolocalisé la vidéo en la comparant à des archives de l'établissement, dont l'intérieur correspond exactement à ce qu'on voit dans le clip. Netanyahu a publié la vidéo sur ses propres réseaux environ deux heures après l'avoir tournée — un délai cohérent avec un tournage sur place.
Rien n'y a fait. Des utilisateurs ont immédiatement commencé à signaler de prétendues incohérences visuelles : le liquide dans la tasse semblait se comporter de manière anormale, la bague au doigt du Premier ministre paraissait apparaître et disparaître selon les images, et la caisse enregistreuse visible en arrière-plan affichait une date de 2024. Certains ont même argué que Netanyahu, supposément gaucher, tenait son café de la main droite. Une preuve, à leurs yeux, d'une substitution numérique. Grok, le chatbot d'IA de la plateforme X, a ajouté une note à la vidéo la qualifiant de probable deepfake et ce malgré les démentis formels du bureau du Premier ministre.
L'ironie est totale : un outil d'intelligence artificielle, sollicité pour trancher la question de l'authenticité, a lui-même alimenté la désinformation qu'il était censé combattre.
Une infrastructure de vérification qui n'existe pas encore
L'affaire Netanyahu met en lumière une lacune béante dans l'écosystème numérique actuel : l'absence généralisée de systèmes de certification d'authenticité intégrés aux contenus eux-mêmes. La vidéo du café ne portait aucune métadonnée vérifiable — aucun certificat C2PA (Coalition for Content Provenance and Authenticity), aucun tatouage numérique SynthID.
Le C2PA, dont le standard est soutenu par Adobe, Google, Microsoft, Meta, la BBC et OpenAI, propose précisément cette infrastructure : un enregistrement cryptographiquement signé de l'origine et de l'historique de tout fichier numérique — photo, vidéo, audio, document. Ce système ne détecte pas les deepfakes à proprement parler, mais permet de tracer la provenance d'un contenu de manière infalsifiable, depuis l'appareil qui l'a capturé jusqu'à la plateforme qui le diffuse.
En novembre 2025, OpenAI a annoncé l'application automatique des Content Credentials à toutes les images générées par DALL-E 3, GPT-image-1 et le modèle audio-vidéo SORA 2. En 2026, les smartphones Google Pixel 10 et Samsung Galaxy S25 intègrent nativement la signature C2PA, affichant une icône « Cr » dans Google Photos pour signaler...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

