IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'intelligence artificielle vous effraie-t-elle ? L'humanité court le risque d'extinction au travers des robots tueurs autonomes
Ainsi que l'atteinte du stade d'intelligence artificielle générale

Le , par Patrick Ruiz

12PARTAGES

8  0 
L'IA inspire intrigue, peur et confusion, mais les organisations doivent réduire les risques inhérents,
Afin de sécuriser leurs propres systèmes intelligents, d’après un nouveau rapport

L'avenir de l'intelligence artificielle continue d’inquiéter plusieurs, y compris les acteurs dans le domaine de la sécurité de l’information. Un nouveau rapport du Forum sur la sécurité de l'information (ISF) ne dit pas le contraire en indiquant que « l'intelligence artificielle inspire l'intrigue, la peur et la confusion dans la même mesure ». Mais le rapport a toutefois conclu que pour prospérer dans cette nouvelle ère, les organisations doivent réduire les risques posés par l'IA et tirer le meilleur parti des possibilités qu'elle offre. Ce qui signifie sécuriser leurs propres systèmes intelligents et déployer leurs propres défenses intelligentes, d’après le rapport.

Ces récentes recherches de l’ISF, un organisme international et indépendant dont le but est la recherche des bonnes pratiques dans le domaine de la sécurité de l'information, ont révélé que l'intelligence artificielle présente déjà des risques pour les actifs d'information, ainsi que la possibilité d'améliorer considérablement les cyberdéfenses. Dans son effort de soutien aux organisations à l’échelle mondiale, l'ISF a publié l’édition d’octobre 2019 de son rapport « Demystifying Artificial Intelligence in Information Security », le dernier recueil des organisations qui aide les professionnels de la sécurité à éliminer la confusion, démystifiant l'intelligence artificielle dans le domaine de la sécurité de l'information.


« L'IA crée une nouvelle frontière en matière de sécurité de l'information. Les systèmes qui apprennent, raisonnent et agissent de manière indépendante reproduiront de plus en plus le comportement humain - et comme les humains, ils seront défectueux, mais aussi capables de réaliser de grandes choses. L'IA pose de nouveaux risques pour l'information et rend certains risques existants plus dangereux », a déclaré Steve Durbin, directeur général de l'ISF.

« Cependant, il peut aussi être utilisé pour le bien et devrait devenir un élément clé de l'arsenal défensif de toute organisation. Les dirigeants d'entreprises et les responsables de la sécurité de l'information doivent comprendre à la fois les risques et les opportunités avant d'adopter des technologies qui deviendront bientôt un élément crucial de leur activité quotidienne », a-t-il ajouté.

Au fur et à mesure que les systèmes d'IA seront adoptés par les organisations, ils deviendront de plus en plus essentiels aux activités quotidiennes de l'entreprise. Selon le rapport, quelle que soit la fonction pour laquelle une organisation adopte l'IA, ces systèmes et l'information qui les appuie présentent des vulnérabilités inhérentes et sont exposés à des menaces à la fois accidentelles et conflictuelles. Les systèmes d'IA compromis peuvent prendre de mauvaises décisions et par conséquent produire des résultats inattendus, a écrit ISF.

Le rapport relève également les risques d'attaques sophistiquées basées sur l'intelligence artificielle, qui peuvent compromettre l'information et avoir de graves répercussions sur l'entreprise à une vitesse et à une échelle plus grandes que jamais auparavant. Prendre des mesures à la fois pour sécuriser les systèmes d'IA internes et pour se défendre contre les menaces externes basées sur l’IA deviendra d'une importance vitale pour réduire les risques liés à l'information. Pour cela, L’ISF a noté que les organisations doivent être prêtes à adapter leurs défenses pour faire face à l'ampleur et à la complexité des cyberattaques basée sur l’IA.

Selon le rapport, l'IA peut automatiser de nombreuses tâches, aidant les services de sécurité en sous-effectif à combler le manque de compétences spécialisées et à améliorer l'efficacité de leurs spécialistes. Cependant, d’après l’ISF, les attaquants ne restent pas les bras croisés. Au fur et à mesure que les menaces basées sur l'IA deviennent plus complexes, les responsables de la sécurité devront utiliser des défenses soutenues par l'IA simplement pour rester à jour, a recommandé le rapport.


« Au fur et à mesure que les premiers adeptes de l'IA défensive s'habituent à une nouvelle façon de travailler, ils en voient les avantages en termes de capacité à contrer plus facilement les menaces existantes. Cependant, une course aux armements se développe. Les outils et techniques d'intelligence artificielle qui peuvent être utilisés pour la défense sont également à la disposition des acteurs malveillants, notamment les criminels, les pirates et les groupes parrainés par des États », a déclaré M. Durbin.

« Tôt ou tard, ces adversaires trouveront des moyens d'utiliser l'intelligence artificielle pour créer de nouvelles menaces telles que des logiciels malveillants intelligents - et à ce moment-là, l'intelligence artificielle défensive ne sera pas seulement " agréable à avoir ". Ce sera une nécessité. Les praticiens de sécurité qui utilisent les contrôles traditionnels ne seront pas en mesure de faire face à la vitesse, au volume et à la complexité des attaques », a-t-il ajouté.

Les dérives de l’IA ne s’appliquent pas qu’à la sécurité de l’information. Plusieurs autres applications de la technologie, telle que certaines utilisations de la reconnaissance faciale, sont décriées comme étant néfastes pour l’humanité.

En mars dernier, à l’occasion de la conférence South by Southwest (SXSW) qui s’est tenue à Austin, au Texas, Elon Musk, le patron de Tesla et de SpaceX, a réitéré ses avertissements concernant le danger de l’intelligence artificielle. Selon Musk, il devrait exister un organisme de réglementation supervisant le développement de cette technologie.

« Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », avait prévenu Musk.

Le professeur Jim Al-Khalili a également averti, l’année dernière lors d’un briefing à Londres, que l’intelligence artificielle serait « un plus grand risque pour l’humanité que les changements climatiques et le terrorisme ». Le Président de la British Science Association a ajouté que l’intelligence artificielle, que ce soit en bien ou en mal, impacterait plus le monde que toutes ces autres questions brûlantes de l’heure.

Il a également évoqué le recours à une réglementation publique en avertissant que le réel potentiel de l’intelligence artificielle ne saurait être révélé sans une plus grande transparence et un engagement public. Pour lui, tant que le gouvernement, l’industrie et les universitaires ne se concertent pas pour agir, l’intelligence artificielle pourrait vite devenir incontrôlable et centralisée entre les mains de quelques sociétés extrêmement puissantes.

Pour l’heure, l’ISF met à la disposition des entreprises membres le rapport « Demystifying Artificial Intelligence in Information Security » via son site web. 63 % des décideurs informatiques envisagent d'utiliser la technologie de l'intelligence artificielle pour automatiser leurs processus de sécurité, d’après ce rapport.


Source : ISF

Et vous ?

Que pensez-vous du rapport de l’ISF ?
Les cyberattaques soutenues par l’IA font-elles courir un réel danger à la sécurité de l’information des organisations ?

Lire aussi

Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
L'IA représenterait un plus grand risque pour l'humanité, que les changements climatiques et le terrorisme, selon un expert
L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
Trolldi : cinq dangers émanant de l'utilisation de l'intelligence artificielle et la robotique
Vous avez lu gratuitement 9 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 06/09/2023 à 9:13
L'IA généraliste sera-t-elle dépressive?
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 07/09/2023 à 8:23
Citation Envoyé par mith06 Voir le message
L'IA généraliste sera-t-elle dépressive?
Oui mais elle sera suivie par une IAG psy qui aura fait 3 ans d'études de plus.
1  0 
Avatar de Forge
Membre régulier https://www.developpez.com
Le 09/09/2023 à 9:31
Le même débat, encore et toujours.

Imaginez un enfant. Il s'apprête à mettre la main sur une plaque de cuisson bien chaude.
Il sait que vous l'avez déjà mis en garde et qu'il va faire un truc que vous ne voulez pas qu'il fasse. Il vous regarde dans les yeux en approchant la main.
Vous le prévenez : Ne touche pas à ça, tu vas te faire du mal.
Il le fait quand même... et se brûle.

C'est ce qui pourrait nous arriver avec l'IA.
"On" a commencé à approcher la main de la plaque de cuisson, quelqu'un de mal intentionné est en train de monter la température, et "on" se demande s'il ne faudrait pas faire un moratoire sur la plaque de cuisson.

Dirions-nous : puisque le marteau est une arme qui va tuer des milliers de gens, faisons un moratoire sur les marteaux ?

On oublie un peu vite que derrière ses "machines tueuses", il y a des industriels et des développeurs qui trouvent cool de faire des armes "intelligentes".

Donc non, l'IA ne m'effraie pas. C'est l'être humain qui me fait peur. L'Humanité est encore un adolescent qui lève les yeux au ciel quand on lui demande de ranger sa chambre parce que... MERDE, mes parents sont des cons.
0  1