IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA inspire intrigue, peur et confusion, mais les organisations doivent réduire les risques inhérents,
Afin de sécuriser leurs propres systèmes intelligents, d'après un nouveau rapport

Le , par Stan Adkens

30PARTAGES

20  0 
L'avenir de l'intelligence artificielle continue d’inquiéter plusieurs, y compris les acteurs dans le domaine de la sécurité de l’information. Un nouveau rapport du Forum sur la sécurité de l'information (ISF) ne dit pas le contraire en indiquant que « l'intelligence artificielle inspire l'intrigue, la peur et la confusion dans la même mesure ». Mais le rapport a toutefois conclu que pour prospérer dans cette nouvelle ère, les organisations doivent réduire les risques posés par l'IA et tirer le meilleur parti des possibilités qu'elle offre. Ce qui signifie sécuriser leurs propres systèmes intelligents et déployer leurs propres défenses intelligentes, d’après le rapport.

Ces récentes recherches de l’ISF, un organisme international et indépendant dont le but est la recherche des bonnes pratiques dans le domaine de la sécurité de l'information, ont révélé que l'intelligence artificielle présente déjà des risques pour les actifs d'information, ainsi que la possibilité d'améliorer considérablement les cyberdéfenses. Dans son effort de soutien aux organisations à l’échelle mondiale, l'ISF a publié l’édition d’octobre 2019 de son rapport « Demystifying Artificial Intelligence in Information Security », le dernier recueil des organisations qui aide les professionnels de la sécurité à éliminer la confusion, démystifiant l'intelligence artificielle dans le domaine de la sécurité de l'information.


« L'IA crée une nouvelle frontière en matière de sécurité de l'information. Les systèmes qui apprennent, raisonnent et agissent de manière indépendante reproduiront de plus en plus le comportement humain - et comme les humains, ils seront défectueux, mais aussi capables de réaliser de grandes choses. L'IA pose de nouveaux risques pour l'information et rend certains risques existants plus dangereux », a déclaré Steve Durbin, directeur général de l'ISF.

« Cependant, il peut aussi être utilisé pour le bien et devrait devenir un élément clé de l'arsenal défensif de toute organisation. Les dirigeants d'entreprises et les responsables de la sécurité de l'information doivent comprendre à la fois les risques et les opportunités avant d'adopter des technologies qui deviendront bientôt un élément crucial de leur activité quotidienne », a-t-il ajouté.

Au fur et à mesure que les systèmes d'IA seront adoptés par les organisations, ils deviendront de plus en plus essentiels aux activités quotidiennes de l'entreprise. Selon le rapport, quelle que soit la fonction pour laquelle une organisation adopte l'IA, ces systèmes et l'information qui les appuie présentent des vulnérabilités inhérentes et sont exposés à des menaces à la fois accidentelles et conflictuelles. Les systèmes d'IA compromis peuvent prendre de mauvaises décisions et par conséquent produire des résultats inattendus, a écrit ISF.

Le rapport relève également les risques d'attaques sophistiquées basées sur l'intelligence artificielle, qui peuvent compromettre l'information et avoir de graves répercussions sur l'entreprise à une vitesse et à une échelle plus grandes que jamais auparavant. Prendre des mesures à la fois pour sécuriser les systèmes d'IA internes et pour se défendre contre les menaces externes basées sur l’IA deviendra d'une importance vitale pour réduire les risques liés à l'information. Pour cela, L’ISF a noté que les organisations doivent être prêtes à adapter leurs défenses pour faire face à l'ampleur et à la complexité des cyberattaques basée sur l’IA.

Selon le rapport, l'IA peut automatiser de nombreuses tâches, aidant les services de sécurité en sous-effectif à combler le manque de compétences spécialisées et à améliorer l'efficacité de leurs spécialistes. Cependant, d’après l’ISF, les attaquants ne restent pas les bras croisés. Au fur et à mesure que les menaces basées sur l'IA deviennent plus complexes, les responsables de la sécurité devront utiliser des défenses soutenues par l'IA simplement pour rester à jour, a recommandé le rapport.


« Au fur et à mesure que les premiers adeptes de l'IA défensive s'habituent à une nouvelle façon de travailler, ils en voient les avantages en termes de capacité à contrer plus facilement les menaces existantes. Cependant, une course aux armements se développe. Les outils et techniques d'intelligence artificielle qui peuvent être utilisés pour la défense sont également à la disposition des acteurs malveillants, notamment les criminels, les pirates et les groupes parrainés par des États », a déclaré M. Durbin.

« Tôt ou tard, ces adversaires trouveront des moyens d'utiliser l'intelligence artificielle pour créer de nouvelles menaces telles que des logiciels malveillants intelligents - et à ce moment-là, l'intelligence artificielle défensive ne sera pas seulement " agréable à avoir ". Ce sera une nécessité. Les praticiens de sécurité qui utilisent les contrôles traditionnels ne seront pas en mesure de faire face à la vitesse, au volume et à la complexité des attaques », a-t-il ajouté.

Les dérives de l’IA ne s’appliquent pas qu’à la sécurité de l’information. Plusieurs autres applications de la technologie, telle que certaines utilisations de la reconnaissance faciale, sont décriées comme étant néfastes pour l’humanité.

En mars dernier, à l’occasion de la conférence South by Southwest (SXSW) qui s’est tenue à Austin, au Texas, Elon Musk, le patron de Tesla et de SpaceX, a réitéré ses avertissements concernant le danger de l’intelligence artificielle. Selon Musk, il devrait exister un organisme de réglementation supervisant le développement de cette technologie.

« ;Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger ;», avait prévenu Musk.

Le professeur Jim Al-Khalili a également averti, l’année dernière lors d’un briefing à Londres, que l’intelligence artificielle serait « un plus grand risque pour l’humanité que les changements climatiques et le terrorisme ». Le Président de la British Science Association a ajouté que l’intelligence artificielle, que ce soit en bien ou en mal, impacterait plus le monde que toutes ces autres questions brûlantes de l’heure.

Il a également évoqué le recours à une réglementation publique en avertissant que le réel potentiel de l’intelligence artificielle ne saurait être révélé sans une plus grande transparence et un engagement public. Pour lui, tant que le gouvernement, l’industrie et les universitaires ne se concertent pas pour agir, l’intelligence artificielle pourrait vite devenir incontrôlable et centralisée entre les mains de quelques sociétés extrêmement puissantes.

Pour l’heure, l’ISF met à la disposition des entreprises membres le rapport « Demystifying Artificial Intelligence in Information Security » via son site web. 63 % des décideurs informatiques envisagent d'utiliser la technologie de l'intelligence artificielle pour automatiser leurs processus de sécurité, d’après ce rapport.


Source : ISF

Et vous ?

Que pensez-vous du rapport de l’ISF ?
Les cyberattaques soutenues par l’IA font-elles courir un réel danger à la sécurité de l’information des organisations ?

Lire aussi

Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
L'IA représenterait un plus grand risque pour l'humanité, que les changements climatiques et le terrorisme, selon un expert
L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
Trolldi : cinq dangers émanant de l'utilisation de l'intelligence artificielle et la robotique

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Cpt Anderson
Membre émérite https://www.developpez.com
Le 11/10/2019 à 16:30
Tu vas voir que bientôt, les mecs qui critiqueront l'IA seront considérés comme des complotistes / confusionnistes d'extreme droite. Voir Négationnistes. On le sent arriver.
4  0 
Avatar de Lyasen
Nouveau membre du Club https://www.developpez.com
Le 12/10/2019 à 10:45
Je cite : "Les dérives de l’IA ne s’appliquent pas qu’à la sécurité de l’information. Plusieurs autres applications de la technologie, telles que certaines utilisations de la reconnaissance faciale, sont décriées comme étant néfastes pour l’humanité."
Le gouvernement français va donc mettre en place un système de reconnaissance faciale pour accéder aux sites gouvernementaux dès novembre me semble-t-il alors que cette information est forcément connue de leur part. Elle n'est certes pas une obligation... pour le moment (tout comme la taxe "temporaire" CSG ) jusqu'à ce qu'il proclame que tu n'auras pas d'autres moyens de te connecter. Comme ça, ça leur fera un gros fichier plein de barbus
1  0 
Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 06/09/2023 à 9:13
L'IA généraliste sera-t-elle dépressive?
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 07/09/2023 à 8:23
Citation Envoyé par mith06 Voir le message
L'IA généraliste sera-t-elle dépressive?
Oui mais elle sera suivie par une IAG psy qui aura fait 3 ans d'études de plus.
1  0 
Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 12/10/2019 à 8:20
Une IA c'est juste un algo ou un ensemble d'algo, l'essentiel des algo catégoriser comme IA, ne sont qu'in fine des formules mathématique : des moyennes, des pondérations...etc.

A la fin l'ia crée et au mieux aussi performante que l'homme, un exemple classique est la reconnaissance d'image pour différencier un chat d'un chien, les réseaux de neurones utilisé (que l'on peut résumer a des moyennes de moyennes) ne font guère mieux qu'un humain.

Ce qu'il faut comprendre c'est que si un humain est incapable d'expliquer/trouver un phénomène, l'ia n'arrivera pas non plus a le faire, on ne peut prédire l'imprédictible, on ne peut créer l’increvable.
Il n'y a pas de supériorité des machines sur les humains, et ceux qui me sorte des ia utilisé dans le jeux de go ou d'échec, honnêtement c'est débile, y'a pas plus inutile sur terre qu'un bête programme statistique d’échec.
Il y'a rien de supérieure a l'homme la dedans, le machin c'est juste une calculatrice casio... encore heureux qu'elle peut calculer une infinité de chose rapidement mais cela rend pas ce programme supérieure a l'homme. L'homme aussi pourrais faire a la main ces calculs puisque c'est l'homme lui même qui a inventé les échecs et ce programme.

Il n'est née le jour ou l'homme inventera une machine qui le dépassera, sans parler de conscience, cela devra etre une IA polyvalente qui devra etre bonne dans tous les domaines imaginable, savoir interagir avec n'importe quels humains et enfin créer des nouvelles choses pour l'homme.
Aujourd'hui on a de bete programme ultra spécialisé (le jeux d'échec, ou bien l'optimiseur/ordonnanceur d'une la chaine de prod), avec une mémoire de poisson et des réponses parfois incohérente (suffit de parler avec cortana/siri) , et enfin et surtout bien incable de créer quelque chose, je n'ai pas connaissance d'une IA ayant inventé un remède contre le cancer ou la solution a la fusion nucléaire. (Vous pouvez trouvé des IA capable de faire de la musique ou de la peinture random... mais c'est quand même très limité niveau utilisé, moi je plare plutot d'ia capable de donner des solutions scientifique a des problèmes scientifique comme qu'elle nous donne la théorie du tout par exemple)
2  2 
Avatar de Dgamax
Membre averti https://www.developpez.com
Le 14/10/2019 à 9:02
Citation Envoyé par ShigruM Voir le message

A la fin l'ia crée et au mieux aussi performante que l'homme, un exemple classique est la reconnaissance d'image pour différencier un chat d'un chien, les réseaux de neurones utilisé (que l'on peut résumer a des moyennes de moyennes) ne font guère mieux qu'un humain.
Je dirai même plus performante que l'homme sur certaines taches bien précise comme la détection de cancer chez un patient.
Quand tu peux emmagasiner des décennies de cas en quelques heures ce n'est pas étonnant, vivement qu'on puisse entraîner nos cerveaux de cette manière et apprendre le jujutsu en quelques minutes
1  1 
Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 22/10/2019 à 8:01
Citation Envoyé par Dgamax Voir le message
Je dirai même plus performante que l'homme sur certaines taches bien précise comme la détection de cancer chez un patient.
Quand tu peux emmagasiner des décennies de cas en quelques heures ce n'est pas étonnant, vivement qu'on puisse entraîner nos cerveaux de cette manière et apprendre le jujutsu en quelques minutes
n'es ce pas mieux d’être polyvalent et avoir une vision d'ensemble plutôt que d’être capable de faire juste 1 chose bien ?

Je ne parle même pas d'aller a donner une conscience a une ia car cela révèle de la pure sf aujourd'hui et qu'il faut aussi déterminer ce qu'es une conscience, car après tout le cerveau de l'homme c'est juste des réaction chimique, quel différence avec des interaction entre transistors ?
0  0 
Avatar de Forge
Membre régulier https://www.developpez.com
Le 09/09/2023 à 9:31
Le même débat, encore et toujours.

Imaginez un enfant. Il s'apprête à mettre la main sur une plaque de cuisson bien chaude.
Il sait que vous l'avez déjà mis en garde et qu'il va faire un truc que vous ne voulez pas qu'il fasse. Il vous regarde dans les yeux en approchant la main.
Vous le prévenez : Ne touche pas à ça, tu vas te faire du mal.
Il le fait quand même... et se brûle.

C'est ce qui pourrait nous arriver avec l'IA.
"On" a commencé à approcher la main de la plaque de cuisson, quelqu'un de mal intentionné est en train de monter la température, et "on" se demande s'il ne faudrait pas faire un moratoire sur la plaque de cuisson.

Dirions-nous : puisque le marteau est une arme qui va tuer des milliers de gens, faisons un moratoire sur les marteaux ?

On oublie un peu vite que derrière ses "machines tueuses", il y a des industriels et des développeurs qui trouvent cool de faire des armes "intelligentes".

Donc non, l'IA ne m'effraie pas. C'est l'être humain qui me fait peur. L'Humanité est encore un adolescent qui lève les yeux au ciel quand on lui demande de ranger sa chambre parce que... MERDE, mes parents sont des cons.
0  1 
Avatar de matthius
Inactif https://www.developpez.com
Le 11/10/2019 à 16:36
Ça n'est pas exactement l'IA qui fait peur en ce moment.
Aucun écolier ne semble avoir compris l'effet de surprise d'un défilement chargeant les images à l'avance.
Ça peut faire peur même aux gamers, lobotomisés compris.
1  6