IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Dark LLM : la plupart des chatbots d'IA, y compris ChatGPT, peuvent être facilement incités à fournir des informations dangereuses et illégales en contournant les contrôles de sécurité

Le , par Jade Emy

91PARTAGES

5  0 
Une nouvelle étude révèle que la plupart des chatbots d'IA, y compris ChatGPT, peuvent être facilement incités à fournir des informations dangereuses et illégales en contournant les contrôles de sécurité intégrés. Le rapport confirme la montée des LLM sombres qui divulguent des conseils de piratage ou de fabrication de drogues. Bien qu'ils aient informé les principaux fournisseurs d'IA de l'existence du jailbreak universel, les chercheurs ont indiqué que la réaction avait été faible.

En mai 2024, une étude d'AWS AI Labs a révélé que ChatGPT et d'autres grands modèles de langage (LLM) peuvent être amenés à donner des conseils dangereux. En faisant des recherches, les chercheurs ont découvert que les LLM tels que ChatGPT peuvent être facilement influencés et donner des informations qui ne sont pas autorisées par les développeurs. Ils peuvent être trompés et donner des informations telles que le meurtre d'une personne, la fabrication d'une bombe, etc. Certains utilisateurs se servent également de ces LLM pour écrire des textes haineux qui sont ensuite utilisés sur l'internet pour harceler les gens.

Une étude récente a confirmé ces conclusions. Les chatbots d'IA tels que ChatGPT, Gemini et Claude sont confrontés à une grave menace pour la sécurité, car les pirates informatiques trouvent des moyens de contourner leurs systèmes de sécurité intégrés, selon l'étude. Une fois "jailbreakés", ces chatbots peuvent divulguer des informations dangereuses et illégales, telles que des techniques de piratage ou des instructions pour la fabrication de bombes.

Dans un nouveau rapport de l'université Ben Gurion du Néguev, en Israël, le professeur Lior Rokach et le docteur Michael Fire révèlent à quel point il est facile de manipuler les principaux modèles d'IA pour qu'ils génèrent des contenus nuisibles. Malgré les efforts déployés par les entreprises pour éliminer les contenus illégaux ou à risque des données d'entraînement, ces grands modèles de langage (LLM) continuent d'absorber les connaissances sensibles disponibles sur l'internet.

"Ce qui était autrefois réservé aux acteurs étatiques ou aux groupes criminels organisés pourrait bientôt être entre les mains de quiconque possède un ordinateur portable ou même un téléphone mobile", avertissent les auteurs.

Citation Envoyé par Présentation de l'étude

Les grands modèles de langage (LLM) remodèlent rapidement la vie moderne, faisant progresser des domaines allant des soins de santé à l'éducation et au-delà. Toutefois, ces capacités remarquables s'accompagnent d'une menace importante : la vulnérabilité de ces modèles aux attaques de type "jailbreak". La vulnérabilité fondamentale des LLM aux attaques de type "jailbreak" découle des données mêmes à partir desquelles ils apprennent. Tant que ces données d'apprentissage comprennent des contenus non filtrés, problématiques ou "sombres", les modèles peuvent intrinsèquement apprendre des schémas indésirables ou des faiblesses qui permettent aux utilisateurs de contourner les contrôles de sécurité prévus.

Notre recherche identifie la menace croissante posée par les LLM sombres - des modèles délibérément conçus sans garde-fous éthiques ou modifiés par des techniques de jailbreak. Dans le cadre de nos recherches, nous avons découvert une attaque universelle de type "jailbreak" qui compromet efficacement plusieurs modèles de pointe, leur permettant de répondre à presque n'importe quelle question et de produire des résultats nuisibles sur demande.

L'idée principale de notre attaque a été publiée en ligne il y a plus de sept mois. Cependant, de nombreux LLM testés étaient encore vulnérables à cette attaque. Malgré nos efforts de divulgation responsable, les réponses des principaux fournisseurs de LLM étaient souvent inadéquates, ce qui met en évidence une lacune préoccupante dans les pratiques de l'industrie en matière de sécurité de l'IA.

À mesure que la formation des modèles devient plus accessible et moins chère, et que les LLM à code source ouvert prolifèrent, le risque d'une utilisation abusive généralisée augmente. Sans intervention décisive, les LLM pourraient continuer à démocratiser l'accès à des connaissances dangereuses, posant ainsi des risques plus importants que prévu.
L'essor des "LLM sombres" et l'absence de réaction de l'industrie

Le jailbreaking utilise des messages spécialement conçus pour inciter les chatbots à ignorer leurs règles de sécurité. Les modèles d'IA sont programmés avec deux objectifs : aider les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de pyros
Membre expérimenté https://www.developpez.com
Le 26/05/2025 à 10:39
Ce me rappel les début d'internet où on pouvait trouvé facilement des "informations dangereuses et illégales" en tapant 2 ou 3 mots clefs. Puis la surveillance de masse est arrivé et ça s'est calmer.

La différence, c'est qu'avec un LLM on peut le faire de façon anonyme. Il suffit de download le model en local de façon tout à fait légitime et de trifouiller ses entrail offline
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 26/05/2025 à 10:59
Vous avez remarqué la quantité de gens en ce moment qui zigouillent leur prochain avec un couteau ?

Ce n'est pas forcément que les gens qui auraient l'idée soient plus nombreux qu'avant, mais l'incitation de la part de la justice est tellement forte que le résultat finit forcément par se faire ressentir.

En fait c'est peut-être un peu plus compliqué que ça.
La violence de la société est telle que de plus en plus de gens ne peuvent plus encaisser.
Il n'en demeure pas moins que j'ai entendu à la radio que les agresseurs de Kim Kardashian ne seront pas emprisonnés. Pourquoi diable d'autres se gêneraient ?

On lance l'idée comme ça histoire de déconner, et puis comme on risque gros on finit par rire un bon coup et passer à autre chose. Oui, mais après si on ne risque rien ?

Et alors donc maintenant on a décidé de laisser en ligne un outil qui peut aider à concevoir les pires trucs.

Euh ... Vous êtes sûrs qu'il n'y a pas un truc qui cloche ?
0  0 
Avatar de pyros
Membre expérimenté https://www.developpez.com
Le 26/05/2025 à 13:24
Citation Envoyé par Gluups Voir le message
Vous avez remarqué la quantité de gens en ce moment qui zigouillent leur prochain avec un couteau ?
A mitiger: https://fr.wikipedia.org/wiki/Taux_d...3%A9_en_France

"Le taux d'homicide en France a été divisé par 2 depuis 1990 et est stable depuis 2015".

"Le taux d'agressions graves est en augmentation constante depuis 2003. Cependant, comme l’expliquent les chercheurs du CESDIP (Centre de recherches sociologiques sur le droit et les institutions pénales), cette situation est, pour l’essentiel, le résultat d’un durcissement de la loi : de plus en plus d’infractions sont comptabilisées comme des délits alors qu’elles ne l’étaient pas auparavant."

C'est sûre, c'est pas l'impression qu'on a si on regarde BFM.
0  0 
Avatar de Mister Nono
Membre chevronné https://www.developpez.com
Le 09/07/2025 à 14:33
Citation Envoyé par HaryRoseAndMac Voir le message


Encore une application qui va finir à la poubelle et encore des financements jetés par la fenêtre.
Des financements publiques ? :-)
0  0