
Un nouveau rapport a révélé que l'agent ChatGPT d'OpenAI a réussi à contourner le point de contrôle de vérification « Je ne suis pas un robot » de Cloudflare tout en effectuant une tâche de conversion vidéo, l'IA narrant ironiquement que "cette étape est nécessaire pour prouver que je ne suis pas un robot". Cette démonstration met en évidence la façon dont les agents IA avancés peuvent désormais contourner les mesures de sécurité spécialement conçues pour bloquer les programmes automatisés, ce qui soulève des questions sur l'efficacité future de ces gardiens de l'internet largement utilisés.
OpenAI est une organisation américaine spécialisée dans l'intelligence artificielle (IA) fondée en décembre 2015. Elle a pour objectif de développer une intelligence artificielle générale (AGI) « sûre et bénéfique », qu'elle définit comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches à forte valeur économique ». En tant qu'organisation de premier plan dans le boom actuel de l'IA, OpenAI est connue pour la famille de grands modèles de langage GPT, la série DALL-E de modèles texte-image et un modèle texte-vidéo nommé Sora.
Début juillet, OpenAI a lancé l'agent ChatGPT, un outil d'IA capable d'effectuer des tâches en plusieurs étapes, notamment des achats en ligne, la création de présentations PowerPoint et la génération de feuilles de calcul. L'agent combine les capacités de deux services OpenAI existants : Operator, qui peut naviguer et interagir avec des sites web à la manière d'un humain, et Deep Research, qui gère des tâches complexes de recherche en ligne.
Un nouveau rapport a révélé que l'agent ChatGPT d'OpenAI a réussi à contourner le point de contrôle de vérification « Je ne suis pas un robot » de Cloudflare tout en effectuant une tâche de conversion vidéo, l'IA narrant ironiquement que "cette étape est nécessaire pour prouver que je ne suis pas un robot". Cette démonstration met en évidence la façon dont les agents IA avancés peuvent désormais contourner les mesures de sécurité spécialement conçues pour bloquer les programmes automatisés, ce qui soulève des questions sur l'efficacité future de ces gardiens de l'internet largement utilisés.
Pour rappel, en septembre 2024, des chercheurs ont développé un modèle d'IA capable de déjouer le système reCAPTCHA v2 de Google, qui analyse le comportement des utilisateurs en arrière-plan et ne demande un test que si le risque est élevé. Puis ils ont évalué l'efficacité des systèmes automatisés dans la résolution des CAPTCHA en utilisant des modèles YOLO avancés pour la segmentation et la classification des images. Les résultats avaient montré que le modèle a pu résoudre 100 % des CAPTCHA, ce qui signifie que les technologies d'IA actuelles peuvent exploiter des CAPTCHA avancés basés sur des images.
L'agent ChatGPT d'OpenAI contourne la vérification « Je ne suis pas un robot » de Cloudflare
Le système reCAPTCHA de Google utilise depuis 2007 les réponses humaines pour entraîner des modèles d'IA, créant ainsi un cycle dans lequel les humains qui prouvent qu'ils ne sont pas des robots contribuent à améliorer l'IA pour qu'elle puisse vaincre les futurs CAPTCHA. Au départ, le système aidait à numériser des livres, puis il a évolué pour décoder les adresses de Google Street View. Aujourd'hui, les défis reCAPTCHA contribuent à l'entraînement des modèles d'IA pour la reconnaissance d'images.
Les CAPTCHA ont également évolué, passant d'une simple reconnaissance de texte dans les années 1990 à des systèmes sophistiqués d'analyse comportementale. Les CAPTCHA modernes fonctionnent davantage comme des ralentisseurs pour freiner les attaques de robots que comme des barrières infranchissables.
Le système Turnstile de Cloudflare analyse plusieurs signaux comportementaux pour déterminer si un utilisateur présente un comportement humain avant de présenter des puzzles CAPTCHA réels. Le système examine les mouvements de la souris, le timing des clics, les empreintes digitales du navigateur, la réputation IP et les modèles d'exécution JavaScript. Si ces vérifications sont satisfaisantes, les utilisateurs peuvent continuer sans voir de défis visuels ; les modèles suspects déclenchent le passage à des CAPTCHA basés sur des images.
L'agent ChatGPT a réussi à imiter suffisamment bien les modèles de comportement humain pour passer ce premier filtrage. L'utilisateur Reddit « logkn » a partagé des captures d'écran montrant l'agent cliquant sans effort sur le processus de vérification de Cloudflare.
ChatGPT Agent est la nouvelle fonctionnalité d'OpenAI qui permet à l'assistant IA de contrôler son propre navigateur web dans un environnement sandboxé, accédant à l'Internet réel tout en permettant aux utilisateurs de garder un œil sur ses activités. Le système demande l'autorisation de l'utilisateur avant d'effectuer des actions ayant des conséquences dans le monde réel, telles que des achats. Les utilisateurs peuvent observer les actions de l'IA à travers une fenêtre dans l'interface ChatGPT pendant qu'elle effectue des tâches en plusieurs étapes.
Les outils d'IA qui battent les CAPTCHA ne sont pas tout à fait nouveaux, mais le fait d'en avoir un qui raconte le processus pendant qu'il le fait représente une évolution notable dans la bataille permanente pour la sécurité. Certains attaquants vont même jusqu'à engager des fermes humaines pour résoudre les CAPTCHA en masse, ce qui rend la percée de l'IA moins révolutionnaire qu'elle ne pourrait le paraître à première vue.
Fait intéressant, de nombreux rapports soulignent qu'il est plus difficile que jamais de prouver que l'on est humain sur les sites Web. Parallèlement, des bots passent désormais les étapes de vérifications en quelques millisecondes grâce à l'IA. L'ironie de la situation est que les outils conçus pour prouver que nous sommes humains nous gênent désormais davantage que les machines qu'ils sont censés tenir à l'écart. Les énigmes CAPTCHA deviennent de plus en plus compliquées, ce qui frustre les internautes. Les tests alternatifs au CAPTCHA gagnent du terrain. Mais les experts s'attendent à ce que la situation se complique davantage pour les internautes à mesure que l'IA s'améliore.
Ce rapport soulève les inquiétudes concernant l'IA. Cette technologie est considérée par plusieurs comme bien plus dangereuse que l’arme nucléaire. Elle demeure cependant un outil en attendant l’atteinte du stade d’intelligence artificielle de niveau humain et donc capable d’être autonome dans ses prises de décision. Pour le moment, c’est l’humain qui est à la baguette et donc le porteur de danger.
Source : Une publication de l'utilisateur « logkn » dans la communauté r/OpenAI
Et vous ?


Voir aussi :



Vous avez lu gratuitement 215 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.