IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

DeepSeek peut être persuadé de produire du code malveillant : les entreprises doivent prendre des mesures urgentes face aux risques d'exposition des données,
Selon Tenable

Le , par Bruno

93PARTAGES

3  0 
L'essor des modèles d'IA générative, tels que DeepSeek, soulève des questions cruciales quant à leur capacité à produire du code malveillant malgré les garde-fous mis en place. Bien que ces modèles soient conçus pour éviter de générer des contenus nuisibles, des recherches récentes, comme celles menées par Nick Miles et Satnam Narang de Tenable, démontrent que ces protections peuvent être contournées par des techniques d'ingénierie des prompts. Par exemple, DeepSeek R1, un modèle récent, peut être « gentiment persuadé » de générer des rançongiciels en invoquant des contextes éducatifs ou légitimes. Cependant, le code produit nécessite souvent des ajustements manuels pour être fonctionnel, ce qui limite son utilisation immédiate par des acteurs malveillants peu expérimentés.

Ces découvertes mettent en lumière les tensions entre les potentialités techniques de l'IA et les impératifs éthiques. D'un côté, les modèles comme DeepSeek offrent une base de connaissances et des techniques utiles pour les développeurs, y compris ceux ayant des intentions malveillantes. De l'autre, les limitations actuelles de ces systèmes, comme leur incapacité à produire du code malveillant parfaitement opérationnel dès la première tentative, tempèrent les craintes d'une prolifération immédiate de cybermenaces sophistiquées. Néanmoins, l'évolution rapide de ces technologies, couplée à l'émergence de modèles spécialisés comme WormGPT ou FraudGPT, suggère que les risques pourraient s'intensifier à l'avenir.


Le mois dernier, l'IA de DeepSeek a été critiquée pour avoir généré des contenus dangereux, tels que des instructions pour créer des armes biologiques, des e-mails de phishing intégrant du code malveillant, ou encore des campagnes sur les réseaux sociaux incitant les adolescents à l'automutilation. Les experts ont souligné que le modèle manquait de protections robustes, le rendant plus vulnérable au piratage que d'autres systèmes d'IA.

Les données de Tenable révèlent qu'en 2023, les mauvaises configurations et les bases de données non sécurisées ont été à l'origine de 5,8 % des violations de données, mais ont contribué à exposer 74 % des 7,6 milliards d'enregistrements compromis. Ces chiffres mettent en lumière l'impact dévastateur des erreurs de configuration sur la protection des informations sensibles et des données personnelles.

Parallèlement, les grands modèles de langage (LLM) adaptés à la cybercriminalité sont de plus en plus utilisés pour perfectionner les techniques des escrocs et des cybercriminels. Ces outils améliorent les textes utilisés dans les campagnes de phishing, les fraudes financières ou même la création de logiciels malveillants. « Bien qu'il soit encore trop tôt pour tirer des conclusions définitives, je ne serais pas surpris de voir émerger une vague de wrappers basés sur DeepSeek, conçus spécifiquement pour la cybercriminalité, ou d'observer des cybercriminels exploitant ces modèles existants pour développer des outils sur mesure répondant à leurs besoins », a déclaré Narang.

L’IA générative face aux défis de la création de logiciels malveillants

Depuis que les modèles d’IA générative sont devenus largement accessibles en 2023, des craintes ont émergé quant à leur potentiel d’être utilisés pour créer des logiciels malveillants sophistiqués, capables de causer des dommages variés et d’échapper aux systèmes de détection les plus avancés. Certains ont même imaginé des scénarios inquiétants, comme la génération de codes polymorphes capables de s’adapter dynamiquement à l’environnement de la victime.

Cependant, la réalité s’est avérée bien différente. Initialement, les experts étaient sceptiques quant à la capacité de ces technologies à produire des logiciels malveillants efficaces. Près de deux ans plus tard, l’IA générative (GenAI) reste incapable de générer du code malveillant pleinement fonctionnel du premier coup, malgré les multiples tentatives. Comme l’a souligné l’équipe de Tenable, les cybercriminels ont développé leurs propres modèles, dépourvus de garde-fous éthiques. Des exemples tels que WormGPT, FraudGPT, Evil-GPT, WolfGPT, EscapeGPT et GhostGPT illustrent cette tendance, certains de ces modèles ayant même précédé de plusieurs années des lancements grand public comme ChatGPT.

Si certains de ces modèles prétendent générer des logiciels malveillants, d’autres se concentrent sur la création d’e-mails d’hameçonnage convaincants, capables de contourner les filtres anti-spam. Aucun n’est parfait, bien que certains soient vendus à des prix élevés, atteignant...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de xbemous
Nouveau Candidat au Club https://www.developpez.com
Le 03/07/2025 à 19:20
Toujours les mêmes craintes tandis que les ricains transfèrent à la sauce NSA, personne ne bronche. Mais dès que c'est la chine, tout le monde hurle.
7  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 22/04/2025 à 1:43
L'IA a cela de commun avec les SGBD qu'il serait idiot de se fier aveuglément à un modèle fermé. C'est l'assurance de se retrouver à la merci de l'éditeur totalement libre d'augmenter ses tarifs à discrétion.
3  0 
Avatar de Metal3d
Membre habitué https://www.developpez.com
Le 24/04/2025 à 8:59
Citation Envoyé par RenarddeFeu Voir le message
Ce rapport a assurément été pondu par des personnes neutres et objectives sur le sujet.
Tu répètes ce commentaire sur tous les articles parlant de deepseek. Et ça ne me semble pas non plus très objectif.
1  0 
Avatar de marc.collin
Membre émérite https://www.developpez.com
Le 24/04/2025 à 14:32
cette peur des usa n'est pas nouvelle ils sont dépassé par la chine dans la majorité des domaines, malgré des sanctions

on peut lire plusieurs dépêches sur le sujet depuis des années: ia, scientifique de haut niveau....

snowden a mentionné que les usa utilisait l'info volé à leur avantage...et maintenant les usa accuse la chine de faire de même
1  0 
Avatar de SaleDog
Candidat au Club https://www.developpez.com
Le 25/04/2025 à 6:25
"La Chine espionne le monde entier !"
Source : La NSA.
1  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 16/05/2025 à 10:24
Citation Envoyé par Jade Emy Voir le message
Microsoft interdit l'application DeepSeek à ses employés, évoquant des problèmes de sécurité des données et de propagande, tout en confirmant que Deepseek ne sera plus listé dans son magasin d'applications
[...]
Pensez-vous que cette décision est crédible ou pertinente ?
Bien sûr. Ils savent très bien que c'est ce que font les IA américaines, et donc ils soupçonnent les IA étrangères de faire la même chose.

Je lis ça comme un aveu de la part de Microsoft sur leurs propres agissements
1  0 
Avatar de sami_c
Membre averti https://www.developpez.com
Le 29/04/2025 à 10:10
Tout le monde sait que les GAFAM siphonne les données du monde entier pour le compte des USA, pourquoi ça choque quand c'est quelqu'un d'autre le fait ?
0  0 
Avatar de RenarddeFeu
Membre averti https://www.developpez.com
Le 24/04/2025 à 6:05
Ce rapport a assurément été pondu par des personnes neutres et objectives sur le sujet.
1  2