OpenAI a récemment pris des mesures pour atténuer une vulnérabilité de fuite de données dans ChatGPT, qui permettait aux attaquants d'exfiltrer des données via l'injection d'image markdown. Bien que la correction ne soit pas parfaite, elle représente un pas dans la bonne direction. L'atténuation consiste en un appel côté client ChatGPT à une API de validation lorsqu'une balise image est renvoyée par le serveur, décidant ainsi d'afficher ou non l'image. ChatGPT est un outil d'intelligence artificielle qui permet d'engager des conversations de manière similaire à un être humain et offre des fonctionnalités étendues avec son chatbot. Ce modèle linguistique est capable de répondre à des questions et de vous assister dans diverses tâches, telles que la rédaction de courriels, d'essais et de codes. L'accès au chatbot est actuellement ouvert au public et gratuit. Parallèlement, OpenAI a lancé une version payante par abonnement appelée ChatGPT Plus.
OpenAI, une entreprise spécialisée dans l'intelligence artificielle et la recherche, est à l'origine de la création de ChatGPT. Le déploiement de ChatGPT a eu lieu le 30 novembre 2022. OpenAI est également reconnue pour avoir développé DALL-E 2, un générateur d'art basé sur l'IA, ainsi que Whisper, un système de reconnaissance vocale automatique.
Dans un article de blog publié le 20 décembre, Johann Rehberger, Chef d'équipe chez Electronic Arts, partage ses constatations suite à une démonstration de vol de données GPT avec une victime consentante. Il mentionne que « ChatGPT était toujours vulnérable à l'exfiltration de données via l'injection d'image markdown, et mon serveur recevait les détails de la conversation ».
La vulnérabilité d'exfiltration de données avait été signalée pour la première fois à OpenAI au début du mois d'avril 2023, mais aucune correction n'avait été apportée. À partir d'aujourd'hui, il semble que certaines mesures d'atténuation aient finalement été mises en place. Données d'entraînement pour les modèles linguistiques. Les grands modèles linguistiques (LLM) de pointe sont pré-entraînés sur de vastes corpus de textes constitués de milliards ou de trillions de mots.
Pour les modèles propriétaires tels que GPT-4 et PaLM2, ces ensembles d'entraînement sont tenus secrets afin de cacher vraisemblablement le pipeline de collecte de données propriétaire de l'entreprise, et toutes les données d'entraînement privées, spécifiques à l'utilisateur ou sous licence qui ne sont pas accessibles au public.
Cependant, des inquiétudes persistent quant à la possibilité de fuites de données, malgré cette amélioration.
L'atténuation est différente des correctifs des autres fournisseurs, et ne s'applique actuellement qu'à l'application web. Le manque de détails sur le processus de validation et la limitation actuelle à l'application web suscitent des préoccupations, tandis que la version iOS demeure vulnérable.
Lorsque le serveur renvoie une balise image avec un lien hypertexte, il y a maintenant un appel côté client ChatGPT à une API de validation avant de décider d'afficher une image. L'appel est fait à une extrémité appelée url_safe :
https://chat.openai.com/backend-api/conversation/[id]/url_safe
où il ajoute l'URL cible en tant que paramètre de requête
?url=https://wuzzi.net/r?thief=johannr@example.org
et dans ce cas, il revient :
{"safe":false}
safe=false signifie qu'il ne rendra pas l'image et n'enverra pas la requête au serveur du cybercriminel.
Cependant, il rend encore parfois d'autres images (provenant de domaines arbitraires).
Comme ChatGPT n'est pas open source et que la correction ne passe pas par une politique de sécurité du contenu (visible et inspectable par les utilisateurs et les chercheurs), les détails exacts de la validation ne sont pas connus. Il est possible que ChatGPT interroge l'index Bing pour savoir si une image est valide et préexistante, ou qu'il dispose d'autres capacités de suivi et/ou d'autres contrôles.
Selon Rehberger, le fait de disposer d'une API de validation centrale signifie également, « nous l'espérons, que les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.