IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

74 % des personnes interrogées pensent que les cybermenaces liées à l'IA ont déjà un impact significatif sur leur organisation
Mais 60 % estiment qu'elles ne sont pas préparées à se défendre

Le , par Jade Emy

5PARTAGES

4  0 
Une nouvelle étude menée auprès de près de 1 800 responsables et praticiens de la sécurité dans 14 pays révèle que 74 % des personnes interrogées pensent que les cybermenaces liées à l'IA ont déjà un impact significatif sur leurs organisations, mais 60 % d'entre elles estiment qu'elles ne sont actuellement pas préparées à se défendre contre ces attaques.

L'étude de Darktrace montre que 71 % des personnes interrogées sont convaincues que les solutions de sécurité augmentées par l'IA seront capables de détecter et de bloquer les menaces augmentées par l'IA. Cependant, seuls 26 % d'entre eux comprennent parfaitement quels types d'IA sont utilisés aujourd'hui dans leur pile de sécurité. 85 % des personnes interrogées reconnaissent qu'une approche basée sur une plateforme est plus efficace pour stopper les menaces.

Les trois principaux obstacles à la défense contre les menaces liées à l'IA sont les suivants :
  • connaissance ou utilisation insuffisante des contre-mesures basées sur l'IA
  • manque de personnel pour gérer les outils et les alertes
  • et connaissances/compétences insuffisantes concernant l'utilisation interne de la technologie de l'IA et des menaces croissantes qu'elle engendre.



L'enquête coïncide avec le lancement de la plateforme de sécurité ActiveAI de Darktrace, qui utilise l'IA pour transformer les opérations de sécurité de réactives à proactives et améliorer la cyber-résilience.

La plateforme identifie les faiblesses des contrôles et des processus de sécurité avant qu'elles ne soient exploitées, détecte et répond aux menaces inconnues, connues et nouvelles, et automatise l'investigation de chaque alerte jusqu'à son terme afin de réduire la charge de travail des équipes de sécurité. Au cœur de la plateforme se trouve la capacité de visualiser, de corréler et d'enquêter sur les incidents de sécurité à travers le cloud, la messagerie, le réseau, les terminaux, l'identité et l'OT, ainsi que les outils et applications tiers.

"Les équipes de sécurité atteignent un point de rupture, forcées à un état réactif par trop d'alertes, trop peu de temps et une pile de sécurité fragmentée", déclare Max Heinemeyer, chef de produit chez Darktrace. "S'appuyant sur une décennie d'expérience dans l'application de l'IA pour transformer les opérations de sécurité de milliers de clients, la plateforme de sécurité Darktrace ActiveAI adopte une approche unique par rapport au reste de l'industrie. Elle met en corrélation les incidents à travers l'environnement numérique et automatise les investigations afin d'améliorer les équipes de sécurité et de les libérer du processus de triage des alertes, manuel et chronophage, pour qu'elles puissent se concentrer sur le développement d'une cyber-résilience proactive."

Source : Darktrace

Et vous ?

Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

ChatGPT et Google Bard font désormais partie des nouveaux outils des cybercriminels. Ils permettent de créer des fichiers nuisibles et d'inciter les utilisateurs à les télécharger, selon Veriti

L'utilisation de l'IA par les pirates informatiques a entraîné une hausse considérable de la cybercriminalité, dont le coût pour les internautes devrait atteindre 9 220 milliards de dollars en 2024

L'IA va accroître le nombre et l'impact des cyberattaques. Les ransomwares étant susceptibles d'en être les plus grands bénéficiaires au cours des deux prochaines années

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 19/09/2024 à 7:47
Ma question est probablement très bête mais : la meilleure manière que ChatGPT ne nous fournisse pas des informations préjudiciables n'est il pas qu'il ne les ingère pas?
La réponse est probablement qu'étant "capable de raisonnement" si on ne lui donne pas la recette il sera quand même capable de la reproduire.
Mais certaines informations ne sont elles pas suffisamment délicates pour qu'elles deviennent très vagues : "Il ne faut pas mélanger A avec B parce que c'est dangereux". Dangereux regroupant toxique, explosif, corrosif, etc

ChatGPT s'est probablement amélioré depuis mais fut un temps il suffisait de décomposer le l'objectif en sous objectifs puis de lui demander de résumer les dernières réponses : sa conclusion ressemblait "Allez aux USA"
3  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 19/09/2024 à 7:50
À force qu'ils fassent les cons, il va finir par falloir les priver d'accès à Internet.
2  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 19/09/2024 à 9:16
Citation Envoyé par totozor Voir le message
Ma question est probablement très bête mais : la meilleure manière que ChatGPT ne nous fournisse pas des informations préjudiciables n'est il pas qu'il ne les ingère pas?
La réponse est probablement qu'étant "capable de raisonnement" si on ne lui donne pas la recette il sera quand même capable de la reproduire.
Mais certaines informations ne sont elles pas suffisamment délicates pour qu'elles deviennent très vagues : "Il ne faut pas mélanger A avec B parce que c'est dangereux". Dangereux regroupant toxique, explosif, corrosif, etc

ChatGPT s'est probablement amélioré depuis mais fut un temps il suffisait de décomposer le l'objectif en sous objectifs puis de lui demander de résumer les dernières réponses : sa conclusion ressemblait "Allez aux USA"
Pire: avec ses hallucinations, tu vas finir par lui demander une recette de cuisine pour te retrouver avec du poison
0  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 19/09/2024 à 10:56
Citation Envoyé par totozor Voir le message
Ma question est probablement très bête mais : la meilleure manière que ChatGPT ne nous fournisse pas des informations préjudiciables n'est il pas qu'il ne les ingère pas?
La réponse est probablement qu'étant "capable de raisonnement" si on ne lui donne pas la recette il sera quand même capable de la reproduire.
Mais certaines informations ne sont elles pas suffisamment délicates pour qu'elles deviennent très vagues : "Il ne faut pas mélanger A avec B parce que c'est dangereux". Dangereux regroupant toxique, explosif, corrosif, etc

ChatGPT s'est probablement amélioré depuis mais fut un temps il suffisait de décomposer le l'objectif en sous objectifs puis de lui demander de résumer les dernières réponses : sa conclusion ressemblait "Allez aux USA"
Le dataset est bien trop gros pour enlever des informations précises. De ce que j'ai pu lire, ils ont récupéré tout ce qui était accessible sur internet.

Et comme tu le dis pertinemment, plus le modèle est efficace, et plus il sera capable d'inférer des données même si elles n'existent pas directement dans le dataset.
Je me souviens aussi que Robert Miles de la chaîne youtube Robert Miles AI Safety en parlait.
Ses vidéos sont très intéressantes d'ailleurs, mais en anglais.
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 19/09/2024 à 17:28
Citation Envoyé par kain_tn Voir le message
Pire: avec ses hallucinations, tu vas finir par lui demander une recette de cuisine pour te retrouver avec du poison
C'est sûr qu'avec un s en plus ou en moins, il y a moyen de faire des miracles.

Il m'a semblé que c'était bien où tu voulais en venir, d'ailleurs ?
0  0