IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Arati Prabhakar, chef de la technologie à la Maison-Blanche, souhaite que l'IA ne soit pas utilisée pour le pire : « L'augmentation des deepfakes et des images d'abus sexuels issues de l'IA est horrible »

Le , par Anthony

3PARTAGES

6  0 
Arati Prabhakar, responsable des technologies à la Maison-Blanche, a fait part de ses vives inquiétudes quant à l'utilisation abusive de l'intelligence artificielle (IA), soulignant le côté obscur d'une technologie en pleine évolution. Mme Prabhakar a mis l'accent sur le besoin urgent de s'attaquer à des problèmes alarmants tels que les « deepfakes », les images d'abus générées par l'IA et les arrestations injustifiées liées à la reconnaissance faciale. Dans une récente interview, elle a notamment exhorté les sociétés de traitement des paiements à intensifier leurs efforts contre les mauvais acteurs, tout en soulignant l'avantage stratégique des États-Unis par rapport à des rivaux tels que la Chine.

Les préoccupations de Mme Arati Prabhakar soulignent les défis posés par les applications malveillantes de l'IA, dont l'essor des deepfakes. Selon une récente étude d'ISMS.online, les deepfakes se classent en effet désormais au deuxième rang des menaces de sécurité les plus fréquentes pour les entreprises, plus d'un tiers d'entre elles ayant signalé des incidents. Les attaquants exploitent de plus en plus la technologie d'IA pour tromper les victimes et les inciter à effectuer des transferts de fonds frauduleux. Ces résultats marquent le besoin pressant de contrôles et de garanties plus stricts à mesure que l'IA continue de progresser.

Arati Prabhakar, directrice de l'Office of Science and Technology Policy de la Maison-Blanche, a joué un rôle clé dans les travaux de l'administration Biden sur l'IA. Un décret sur l'intelligence artificielle a été signé en 2023 pour encadrer les entreprises qui développent cette technologie et veiller à ce qu'elle soit plus sûre au fur et à mesure qu'elle se développe.

La responsable de la technologie a été l'une des premières à montrer ChatGPT au président, mais elle a son propre point de vue sur la technologie. Bien que manifestement impressionnée par ses prouesses, Arati Prabhakar semble quelque peu troublée par la rapidité avec laquelle elle a été utilisée à des fins malveillantes.


S'adressant à la MIT Technology Review, Arati Prabhakar a déclaré que l'augmentation des « deepfakes » et des images d'abus sexuels issues de l'IA est « horrible ». Si des efforts sont encore déployés pour limiter l'utilisation de l'IA, Mme Prabhakar estime que les responsables des sociétés de traitement des paiements (payment processors) pourraient faire beaucoup plus d'efforts.

Alors que la technologie de génération d'images par l'IA s'améliore de mois en mois, Arati Prabhakar souhaite que des sociétés comme PayPal prennent davantage de mesures pour lutter contre les abus. Les paiements mensuels aux générateurs d'images sont généralement gérés par de grands processeurs de paiement, et il semble qu'il n'y ait pas assez de travail pour contrer les mauvais acteurs dans cet espace.

Elle ajoute qu'il est temps que la technologie de reconnaissance faciale soit utilisée à des fins moins « horribles et inappropriées ». Par exemple, les arrestations injustifiées sont en augmentation. Un incident majeur, l'arrestation de Randal Reid en 2023, a vu l'homme emprisonné à tort alors qu'il n'avait jamais été dans l'État, après avoir été faussement identifié par reconnaissance faciale.

Cependant, Arati Prabhakar voit un côté positif à la course à l'IA. Bien entendu, elle est une fervente partisane des États-Unis et affirme que ce pays dispose de plusieurs avantages par rapport à son rival « stratégique », la Chine.

La chef de la technologie de la Maison-Blanche soutient la loi CHIPS, sous la houlette d'Intel

Les avancées de la Chine en matière d'IA ont conduit les États-Unis à imposer des interdictions d'exportation sur certains matériels, notamment sur la carte graphique grand public de Nvidia, la RTX 4090. Nvidia a donc développé la 4090D pour contourner les nouvelles règles.

La préoccupation est de savoir comment garder « une porte ouverte aux personnes qui viennent chercher les avantages de l'Amérique », tout en protégeant les « actifs critiques comme notre propriété intellectuelle », indique Arati Prabhakar.

Une grande partie de ce succès semble aujourd'hui reposer sur la loi CHIPS. Introduite par l'administration Biden, cette loi alloue des fonds pour assurer l'avenir de la fabrication de puces en Amérique. Dans ce cadre, Intel a reçu 8 milliards de dollars pour construire de nouvelles installations et de nouveaux fabricants dans tout le pays.


Arati Prabhakar affirme que l'Amérique se trouve dans une position unique maintenant qu'elle est passée par là. En dehors d'Intel, Mme Prabhakar indique que « TSMC, Samsung, SK Hynix et Micron » prévoient tous de construire aux États-Unis. La présence de ces cinq entreprises constituerait un avantage indéniable pour les États-Unis, car TSMC, basé à Taïwan, est actuellement l'usine de fabrication la plus utilisée et la plus populaire au monde.

TSMC fournit des installations à des sociétés telles que Nvidia et AMD pour la fabrication de composants essentiels à leur matériel. Des entreprises comme SK Hynix sont surtout connues pour leur production de mémoire vive, y compris la VRAM que l'on trouve dans les cartes graphiques.

Le matériel devenant de plus en plus important dans la lutte de l'industrie de l'IA pour rester au sommet, les usines de fabrication deviendront une denrée de plus en plus recherchée aux États-Unis.

Cependant, il est important de garder à l'esprit que l'utilisation de l'IA à mauvais escient n'est pas une menace lointaine et elle fait déjà des ravages. En Pennsylvanie, un scandale provoqué par des deepfakes sexuellement explicites générés par l'IA a entraîné la fermeture d'une école. Un élève de la Lancaster Country Day School a en effet utilisé l'IA pour créer des images sexuellement explicites d'environ 50 camarades de classe.

La diffusion des photos et l'inaction présumée des responsables de l'école ont suscité l'indignation de la communauté et rendu les parents furieux, avec des poursuites en perspective. Le scandale a entraîné la démission du directeur de l'école et celle de la présidente du conseil scolaire, ainsi que l'annulation des cours et la fermeture temporaire de l'établissement. Cet exemple frappant souligne les mises en garde de Mme Arati Prabhakar.

Source : Arati Prabhakar, responsable de la technologie à la Maison-Blanche

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous que la position de Mme Prabhakar à l'égard l'IA est cohérente et pertinente ?

Voir aussi :

Joe Biden vient de protéger sa législation phare CHIPS Act contre Donald Trump grâce à un accord de 6,6 Mds $ avec TSMC pour la construction de trois usines de fabrication de puces de pointe en Arizona

Joe Biden signe un décret visant à superviser et à investir dans l'IA, ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel

72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes", et les gens surestiment également leur capacité à repérer les "deepfakes", selon un rapport de Jumio

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jules34
Membre émérite https://www.developpez.com
Le 04/12/2024 à 9:33
Un élève de la Lancaster Country Day School a en effet utilisé l'IA pour créer des images sexuellement explicites d'environ 50 camarades de classe.
Futur roi des troll ! ça va être très compliqué de gérer ça... Quand on regarde sur internet les 3/4 des jeux gérés par IA sont conçus autour de thématique plus ou moins sexuelle, que ce soit en dessins ou autres.

Du reste on a vu a quelle vitesse l'industrie de la dépravation a adopté l'IA : petite copine virtuelle, génération de deepfake, de toute façon tout ce qui est tordu et faisable sera fait. C'est une loi d'internet.

C'est un peu des bonnes paroles de dire que c'est pas bien alors qu'on sait tous que c'est d'ores et déjà un pan entier de l'industrie de l'IA qui a trouvé une rentabilité en exploitant les travers des gens mais aussi l'isolement global dans lequel les individus sont plongés.

Et l'article le rappelle bien c'est la guerre économique et les USA veulent que des puces soient fabriqués chez eux. Peu importe à qui ils les vendent derrière, que ce soit des CEO de boite à cul ou du traitement d'image médicale...

Enfin c'est un vrai problème, difficile de trouver une vraie solution : restreindre l'accès des mineurs comme le fait l'Australie soulève pleins de problématiques annexes et avouons le : on savait déjà dire qu'on était majeur il y a 20 ans alors les jeunes d'aujourdhui on déjà une longueur d'avance pour accéder à des choses qu'ils ne sont pas censés voir.

C'est avant tout au parent de cadrer un peu les gosses et de pas les laisser trainer dans l'océan internet mais je pense qu'il doit y avoir des mécanismes à mettre en place.

Parce que je vois mal la société se désexualiser dans la pub et autre instrument de communication de masse tellement c'est rentré dans les moeurs. M'enfin on voit jamais venir les puritains quand ils arrivent, j'en dirais pas plus ^^
0  0