IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'humanité serait menacée par la « révolution de l'IA », le développement incontrôlé de l'IA par quelques entreprises met en péril l'avenir de la société,
Indique un expert en technologie du MIT

Le , par Bruno

6PARTAGES

3  0 
L’IA est une avancée technologique majeure qui a le potentiel de transformer les industries, de remodeler les emplois et de stimuler la productivité économique. Cependant, elle n’est pas sans risque. Pour contrer les effets négatifs de l’IA, le professeur de physique et chercheur en IA au Massachusetts Institute of Technology, Max Tegmark, a organisé une lettre ouverte publiée en avril. Cette lettre appelait à une pause de six mois dans les expériences d’IA et a été signée par des milliers de personnalités du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur d’Apple. Selon Tegmark, le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société.

Il a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.


Les organisations qui utilisent l'IA sont de plus en plus confrontées à un problème émergent. Elles s'efforcent de régir la création, le déploiement et la gestion des services basés sur l'IA. Les gouvernements ne font pas exception. Tegmark a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.

Dans un document d’orientation publié cette semaine, 23 experts de l’IA ont déclaré que les gouvernements devaient être autorisés à interrompre le développement des modèles exceptionnellement puissants. « Nous assistons à une course vers le bas qui doit être stoppée, a déclaré Tegmark. Nous avons besoin de toute urgence de normes de sécurité en matière d'IA, afin que cela ne se transforme pas en une course au sommet. »

IBM publie un livre blanc sur la gouvernance de l’IA pour les organisations gouvernementales

IBM a publié un livre blanc qui explore les réalités de l'utilisation de l'IA par les organisations gouvernementales, la manière dont elles peuvent jouer un rôle important dans la mise en œuvre responsable de cette technologie, et comment elles peuvent accéder aux bons outils pour assurer une bonne gouvernance de l'IA. Selon IBM, l'Homme est au cœur de l'IA responsable.

IBM a indiqué en 2021 que l'une des cinq activités urgentes dans lesquelles les gouvernements doivent progresser est le développement de pratiques éthiques en matière de données et de technologies. Mais lorsqu'il s'agit d'IA, les humains font à la fois partie du problème et de la solution. Aujourd'hui, la quasi-totalité des services publics s'appuient sur un ensemble de technologies. Ces systèmes, en général, sont basés sur des lois clairement définies et doivent être réglementés et gouvernés en conséquence. Les fonctionnaires sont fortement impliqués dans la définition des politiques et des lois, dans la conception et la réalisation des applications informatiques et dans la prise de décisions fondées sur ces applications.

Les biais humains dans l'IA

Tous les êtres humains ont des biais cognitifs. Il s'agit d'erreurs de pensée inconscientes qui font que les humains interprètent mal les informations perçues dans le monde. Cette condition est souvent attribuée aux heuristiques, qui sont les raccourcis mentaux que les humains prennent pour prendre des décisions et porter des jugements.

Dans ce contexte, une étude a été commandée en 2009 par le ministère britannique du travail et des pensions. L'objectif était de recueillir des preuves factuelles concernant les préjugés et la discrimination liés aux minorités ethniques sur le marché du travail. Des candidatures identiques ont été créées avec des noms différents, certaines étant perçues comme typiquement blanches et d'autres comme appartenant à des groupes spécifiques de Noirs, d'Asiatiques ou de minorités ethniques.

L'étude a révélé que 68 % des candidats blancs ont reçu une réponse positive, contre seulement 39 % des candidats appartenant à une minorité ethnique. Nous pouvons même faire preuve de préjugés à l'égard des ordinateurs. Le biais d'automatisation est la tendance humaine à faire confiance aux systèmes automatisés et à leurs décisions, et à ignorer les informations contradictoires, souvent correctes, qui sont présentées. Différents types de préjugés humains peuvent souvent se retrouver dans les solutions technologiques. Ils peuvent s'infiltrer dans les conceptions que nous créons, les données que nous recueillons ou la formation pratique que nous dispensons pour les solutions basées sur l'IA.

Par conséquent, il existe toujours un risque que nous - y compris les gouvernements - proposions des solutions qui ne soient pas équitables et inclusives. C'est pourquoi il convient d'éviter de s'appuyer totalement sur des aides automatisées et des systèmes d'aide à la décision. Pour développer une IA éthique, il faut atténuer la possibilité que des préjugés humains influencent ce processus. Il faut savoir clairement qui forme le système d'IA, quelles données sont utilisées et ce qui entre dans les recommandations de l'algorithme.

Les préoccupations concernant l’IA générale en tête de liste pour une réglementation plus stricte

Le développement effréné de l'intelligence artificielle générale, terme désignant un système capable d'effectuer un large éventail de tâches à un niveau d'intelligence égal ou supérieur à celui de l'homme, est l'une des principales préoccupations de ceux qui réclament une réglementation plus stricte. Le mois dernier, Amazon a déclaré qu'elle investirait jusqu'à 4 milliards de dollars (3,3 milliards de livres sterling) dans Anthropic, une start-up fondée par d'anciens cadres d'OpenAI qui prévoit de récolter des données propriétaires sur les services en nuage d'Amazon. Amazon n'a pas précisé la part d'Anthropic qu'elle détiendra. Sa participation dans la société, dont la valeur a été estimée pour la dernière fois à 4 milliards de dollars, sera minoritaire. Anthropic est poursuivie par des labels musicaux pour l'utilisation présumée de paroles de chansons protégées par des droits d'auteur.

L'accord entre Amazon et Anthropic est considéré comme la mesure la plus importante prise par le géant du commerce électronique pour rattraper Microsoft et Alphabet, qui sont plus petits en termes de services de cloud computing mais à la pointe de l'intelligence artificielle.

Microsoft a misé 13 milliards de dollars sur OpenAI, la société mère du chatbot ultra-populaire ChatGPT et du générateur d'images DALL-E 3, après un investissement initial d'un milliard de dollars en 2019. OpenAI, créée en 2015, a été évaluée à 29 milliards de dollars au début de l'année. Elle pourrait atteindre une valorisation de 86 milliards de dollars, selon des rapports récents faisant état de ventes potentielles d'actions par les employés, soit trois fois sa valorisation quelques mois plus tôt.

Google, qui appartient à Alphabet, a investi environ 120 milliards de dollars dans l'intelligence artificielle et le cloud computing depuis 2016, selon un rapport de Bank of America, y compris DeepMind Technologies, les outils d'IA générative appelés Language Models for Dialog Applications, ou LaMDA, et son Bard orienté vers le consommateur. La société a investi 300 millions de dollars dans Anthropic et le même montant dans la startup d'IA Runway. Peut-être plus important encore que son investissement dans des produits d'IA autonomes, Google est en train d'intégrer l'IA générative dans certains des logiciels les plus populaires au monde : Google Search, Gmail, Google Maps, Google Docs.

Les contrôleurs de l'IA ne sont pas préparés à ce qui arrive

Ce qui était autrefois une technologie diffuse est aujourd'hui de plus en plus contrôlé par une poignée d'entreprises technologiques. Les gouvernements doivent rattraper leur retard. Jusqu'à récemment, l'IA était une technologie diffuse qui proliférait rapidement. Des modèles d'IA à code source ouvert sont facilement disponibles en ligne. Le passage récent à de grands modèles, tels que le ChatGPT d'OpenAI, concentre le pouvoir entre les mains de grandes entreprises technologiques qui peuvent s'offrir le matériel informatique nécessaire à l'entraînement de ces systèmes. L'équilibre du pouvoir mondial en matière d'IA dépendra de la question de savoir si l'IA concentre le pouvoir entre les mains de quelques acteurs, comme l'ont fait les armes nucléaires, ou si elle prolifère largement, comme l'ont fait les smartphones.

Les États ont relevé le défi de l'ère nucléaire en contrôlant l'accès aux matériaux nécessaires à la fabrication des armes nucléaires. En limitant l'accès des pays à l'uranium et au plutonium de qualité militaire, la communauté internationale a ralenti la prolifération nucléaire. Le contrôle du matériel spécialisé nécessaire à l'entraînement des grands modèles d'IA façonnera de la même manière l'équilibre mondial des pouvoirs.

« L'IA est la technologie la plus profonde sur laquelle nous travaillons aujourd'hui », a écrit Sundar Pichai, directeur général d'Alphabet, dans un message publié par l'entreprise en février, décrivant comment l'IA ouvrirait de nouvelles opportunités susceptibles d'améliorer de manière significative la vie de milliards de personnes. « Nous la considérons comme le moyen le plus important de remplir notre mission : organiser l'information mondiale et la rendre universellement accessible et utile. » Entre-temps, Meta, la société mère de Facebook, s'est détournée du métavers pour se tourner vers l'IA et prévoit de dépenser 33 milliards de dollars cette année pour soutenir le « développement continu de la capacité d'IA », en se concentrant sur son ensemble de grands modèles de langage Llama, dont l'accès est libre.

Mark Zuckerberg, directeur général de Facebook, a déclaré lors d'une conférence téléphonique sur les résultats en avril que Meta avait « l'occasion de présenter des agents d'IA à des milliards de personnes d'une manière qui sera utile et significative » et que l'entreprise envisageait de concentrer ses investissements dans l'IA sur deux domaines :

  • l'infrastructure massive de recommandations et de classement qui alimente tous nos principaux produits ;
  • deuxièmement, les nouveaux modèles de base génératifs qui permettent de créer des catégories entièrement nouvelles de produits et d'expériences.

La France développe un cadre éthique pour une utilisation transparente et équitable de l’IA

En mars 2018, Emmanuel Macron, le président de la République française, a présenté sa vision et une stratégie nationale quinquennale en matière d'IA. La stratégie française en matière d'IA est intitulée L'IA pour l'humanité et a été élaborée sur la base du rapport d'orientation sur l'IA préparé par le député français et mathématicien de renom Cédric Villani.

Les principaux objectifs de la stratégie française en matière d'IA, tels que soulignés par le président français, sont les suivants :

  • améliorer l'écosystème d'éducation et de formation à l'IA pour développer, retenir et attirer des talents de classe mondiale dans le domaine de l'IA ;
  • établir une politique d'ouverture des données pour la mise en œuvre d'applications d'IA et la mise en commun des actifs ;
  • développer un cadre éthique pour une utilisation transparente et équitable des applications de l'IA.

À cette fin, le gouvernement français avait annoncé 1,5 milliard d'euros au développement de l'IA, dont 700 millions d'euros pour la recherche. En 2021, Jean Castex, alors Premier ministre, a annoncé une stratégie renouvelée en matière de données ouvertes et partagées à la suite d'un rapport de 2020 du député Eric Bothorel, qui comprend des données et des ensembles de données pour l'IA.

Par ailleurs, ldans le cadre de la quatrième génération du Programme national d'investissements d'avenir pluriannuel, un sous-programme avait été consacré à l'IA et plusieurs autres sous-programmes comprenaient des actions liées à la stratégie nationale en matière d'IA. Cela permettra d'actualiser le financement de la stratégie nationale en matière d'IA et d'obtenir des créneaux budgétaires correspondant au plan coordonné renouvelé de l'UE.

Les questions éthiques visant à garantir une utilisation équitable et transparente des technologies et algorithmes d'IA sont au cœur de la stratégie française en matière d'IA. À cet égard, la recommandation de Cédric Villani dans le rapport d'orientation sur l'IA de créer un « comité d'éthique des technologies numériques et de l'IA chargé d'animer le débat public de manière transparente, organisé et régi par la loi » a effectivement conduit à la création début 2020 d'un Comité national pilote d'éthique du numérique (CNPEN). Dans la phase pilote, il a été chargé de 3 domaines de l'éthique de l'IA mais étendra progressivement son champ d'action.

Ces investissements phares ne représentent pas la totalité du boom de l'investissement dans l'IA. Goldman Sachs a publié en août un rapport estimant que 200 milliards de dollars seront investis dans le secteur à l'échelle mondiale d'ici 2025. Le rapport prédit des transformations à grande échelle des entreprises et de la société grâce à l'IA générative, ainsi qu'une augmentation générale de la productivité et du PIB au niveau mondial.

En mai, des centaines de personnalités du monde de l'intelligence artificielle ont signé une lettre ouverte avertissant que l'IA pourrait un jour détruire l'humanité. « L'atténuation du risque d'extinction par l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires », peut-on lire dans cette déclaration d'une seule phrase.

Cette lettre est la nième d'une série d'avertissements inquiétants au sujet de l'I.A. qui ont été particulièrement peu détaillés. Les systèmes d'IA d'aujourd'hui ne peuvent pas détruire l'humanité. Un jour, selon les Cassandre de l'industrie technologique, des entreprises, des gouvernements ou des chercheurs indépendants pourraient déployer de puissants systèmes d'I.A. pour tout gérer, des affaires à la guerre. Ces systèmes pourraient faire des choses que nous ne voulons pas qu'ils fassent. Et si les humains tentaient d'interférer ou de les arrêter, ils pourraient résister ou même se répliquer pour continuer à fonctionner.

Sources : Max Tegmark, expert en technologie du MIT, IBM, European Commission

Et vous ?

L'IA peut à peine faire des additions et des soustractions. Alors pourquoi les personnes qui en savent le plus sur l'IA sont-elles si inquiètes ?

Partagez-vous l'avis de Max Tegmark, qui estime que l'humanité est menacée par la « révolution » de l'IA ?

« Le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société », êtes vous d'accord avec point de vue ?

Comment peut-on garantir que l’IA est utilisée de manière éthique et responsable ?

Est-ce encore possible d'éviter que quelques entreprises ne monopolisent le marché de l’IA et ne mettent en péril notre avenir commun ?

Voir aussi :

Un chercheur de Google Deepmind cosigne un article selon lequel l'IA éliminera l'humanité et ravive les débats sur la possibilité d'un futur où la machine domine sur l'Homme

James Cameron, le réalisateur de Terminator, commente l'essor de l'IA : « je vous avais prévenus en 1984 et vous n'avez pas écouté », il estime que l'IA représente un risque sérieux pour l'humanité

L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de R136a1
Nouveau membre du Club https://www.developpez.com
Le 18/02/2024 à 11:36
De plus, la manipulation délibérée des systèmes par des acteurs malveillants à des fins diverses constitue une menace potentielle.
Selon moi, c'est ça le plus grand risque de l'IA. Et c'est déjà une réalité.
4  0 
Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 30/10/2023 à 17:05
Citation Envoyé par totozor Voir le message
Comment un général qui n'y connait visiblement rien en IA peut estimé qu'une expérience de pensée est suffisament crésible pour qu'il la présente comme vraie?
Pense-t-il son employeur suffisament incompétent pour ne par demander que ce scénario soit exclu?
Pense-t-il les "incormaticiens" suffisament incmpétents pour ne pas demander si ce scénario doit être exclu?
Pense-t-il les testeurs suffisament incompétents pour ne pas tester ce scénario avant d'accepter son utilisation?
Ou alors il y connait rien, ils ont sous traité ce dev à une armée d'étudiants qui ont fait de leur mieux.
USAF et éthique dans la même phrase?
Ca ne peut être qu'un mensonge illustre
Ces gens passent leurs vies à se faire passer pour des gens stricts, carrés, disciplinés, clairs mais quand ils s'addressent à une IA ils deviennent l'image qu'ils ont d'un ado, sérieux?
Je me demande si le moment est bien choisi pour poser ces questions.
0  0