IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pause AI organise des manifestations internationales pour freiner l'avancée de l'IA
Un appel à la prudence face à l'innovation technologique et les divergences sur les solutions

Le , par Stéphane le calme

11PARTAGES

7  0 
C'est dans un monde où l’intelligence artificielle progresse à pas de géant qu'une vague de protestations a émergé, appelant à une pause dans le développement de l’IA. Une semaine avant le deuxième sommet mondial sur l’IA, le mouvement “Pause AI” a exigé que les gouvernements régulent les entreprises d’IA et gèlent le développement de nouveaux modèles d’intelligence artificielle de pointe.

Quelques jours avant le deuxième sommet mondial sur l'intelligence artificielle, les manifestants d'un petit mouvement en pleine expansion appelé « Pause AI » ont demandé aux gouvernements du monde entier de réglementer les entreprises d'intelligence artificielle et de geler le développement de nouveaux modèles d'intelligence artificielle à la pointe de la technologie. Selon eux, le développement de ces modèles ne devrait être autorisé que si les entreprises acceptent de les soumettre à une évaluation approfondie afin de tester d'abord leur sécurité. Des manifestations ont eu lieu lundi dans treize pays différents, dont les États-Unis, le Royaume-Uni, le Brésil, l'Allemagne, l'Australie et la Norvège.

Leur objectif est d'attirer l'attention des électeurs et des politiciens avant le sommet de Séoul sur l'IA, qui fait suite au sommet sur la sécurité de l'IA qui s'est tenu au Royaume-Uni en novembre 2023. Mais le groupe de manifestants, peu organisé, n'a pas encore trouvé le meilleur moyen de faire passer son message.

« Le sommet n'a pas débouché sur des réglementations significatives », explique Joep Meindertsma, fondateur de PauseAI. Les participants à la conférence se sont mis d'accord sur la « Déclaration de Bletchley », mais cet accord ne signifie pas grand-chose, selon Meindertsma. « Ce n'est qu'un premier pas, et ce dont nous avons besoin, c'est de traités internationaux contraignants ».

Pour mémoire, à travers la déclaration de Bletchley, les signataires s'engagent en faveur d'une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l'IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l'éducation du public. En outre, elle soutient la création d'un réseau international de recherche axé sur la sécurité de l'IA d'avant-garde. La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
  • insister sur la nécessité d'une IA sûre et responsable : la déclaration de Bletchley souligne l'importance de développer une IA sûre, centrée sur l'être humain, digne de confiance et responsable, en mettant l'accent sur la protection des droits de l'homme et en veillant à ce qu'elle soit largement bénéfique ;
  • reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l'IA et les risques qui y sont associés, en particulier dans le cas de l'IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles ;
  • s'engager en faveur d'une coopération inclusive : la déclaration de Bletchley s'engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d'aborder les risques de sécurité liés à l'IA. Cette collaboration se fera par l'intermédiaire des plateformes internationales existantes et d'autres initiatives pertinentes ;
  • proposer des mesures pour la sécurité de l'IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l'IA, notamment l'établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d'évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l'éducation sur les questions liées à l'IA ;
  • soutenir la recherche internationale : la déclaration de Bletchley soutient la création d'un réseau international de recherche scientifique axé sur la sécurité de l'IA. Cette recherche fournira des informations précieuses pour l'élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l'IA.


« Arrêtez la course, ce n'est pas sûr ». Des manifestants tentent d'inciter les décideurs politiques à règlementer l'IA

À Londres, une vingtaine de manifestants se sont postés devant le ministère britannique de la science, de l'innovation et de la technologie, scandant des slogans tels que « arrêtez la course, ce n'est pas sûr » et « l'avenir de qui ? notre avenir », dans l'espoir d'attirer l'attention des décideurs politiques. Les manifestants affirment que leur objectif est d'inciter les gouvernements à réglementer les entreprises qui développent des modèles d'IA d'avant-garde, notamment le Chat GPT d'OpenAI. Ils affirment que les entreprises ne prennent pas suffisamment de précautions pour s'assurer que leurs modèles d'IA sont suffisamment sûrs pour être diffusés dans le monde.

« Les entreprises d'IA ont prouvé à maintes reprises que l'on ne pouvait pas leur faire confiance, à travers la manière dont elles traitent leurs employés et le travail des autres, en le volant littéralement et en le jetant dans leurs modèles », a déclaré Gideon Futerman, un étudiant d'Oxford qui a prononcé un discours lors de la manifestation.

L'une des manifestantes, Tara Steele, rédactrice indépendante qui travaille sur des blogs et des contenus de référencement, a déclaré qu'elle avait constaté l'impact de la technologie sur ses propres moyens de subsistance. « J'ai remarqué que depuis l'apparition de ChatGPT, la demande de travail en freelance a considérablement diminué », explique-t-elle. « Personnellement, j'adore écrire... J'ai vraiment adoré ça. Et c'est un peu triste, émotionnellement ».

Elle explique que sa principale raison de protester est qu'elle craint que les modèles d'intelligence artificielle d'avant-garde n'aient des conséquences encore plus dangereuses à l'avenir. « Nous avons une foule d'experts hautement qualifiés, des lauréats du prix Turing, des chercheurs en intelligence artificielle très cités et les PDG des entreprises d'intelligence artificielle eux-mêmes [qui affirment que l'intelligence artificielle pourrait être extrêmement dangereuse] ».

Elle est particulièrement préoccupée par le nombre croissant d'experts qui mettent en garde contre les conséquences catastrophiques d'une IA mal maîtrisée. Un rapport commandé par le gouvernement américain, publié en mars, met en garde contre « l'essor de l'IA avancée et de l'IAG [intelligence artificielle générale], qui pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». Actuellement, les plus grands laboratoires d'IA tentent de construire des systèmes capables de surpasser les humains dans presque toutes les tâches, y compris la planification à long terme et la pensée critique. S'ils y parviennent, de plus en plus d'aspects de l'activité humaine pourraient être automatisés, qu'il s'agisse de choses banales comme les achats en ligne ou de l'introduction de systèmes d'armes autonomes qui pourraient agir d'une manière que nous ne pouvons pas prédire. Cela pourrait conduire à une « course aux armements » qui augmenterait la probabilité « d'accidents mortels à l'échelle mondiale et à l'échelle des ADM [armes de destruction massive], de conflits interétatiques et d'escalade », selon le rapport.

https://www.youtube.com/shorts/4MVczlbdV4o

Les experts sont divisés quant aux impacts potentiels

Les experts ne comprennent toujours pas le fonctionnement interne des systèmes d'IA comme ChatGPT, et ils craignent que, dans des systèmes plus sophistiqués, notre manque de connaissances ne nous conduise à faire des erreurs de calcul considérables sur la façon dont des systèmes plus puissants agiraient. Selon le degré d'intégration des systèmes d'IA dans la vie humaine, ceux-ci pourraient causer des ravages et prendre le contrôle de systèmes d'armement dangereux, ce qui amène de nombreux experts à s'inquiéter de la possibilité d'une extinction de l'humanité. « Ces avertissements ne parviennent pas au grand public, qui a besoin de savoir », estime Tara Steele.

À l'heure actuelle, les experts en apprentissage automatique sont quelque peu divisés sur le risque exact que représente la poursuite du développement de la technologie de l'intelligence artificielle. Deux des trois parrains de l'apprentissage profond, un type d'apprentissage automatique qui permet aux systèmes d'IA de mieux simuler le processus de prise de décision du cerveau humain, Geoffrey Hinton et Yoshua Bengio, ont déclaré publiquement qu'ils pensaient que la technologie risquait de conduire à l'extinction de l'humanité.

Le troisième parrain, Yann LeCun, qui est également responsable scientifique de l'IA chez Meta, n'est pas du tout d'accord avec les deux autres. Il a déclaré à Wired en décembre que « l'IA apportera de nombreux avantages au monde. Mais les gens exploitent les craintes suscitées par cette technologie, et nous risquons d'effrayer les gens qui s'en détournent.

Anthony Bailey, un autre manifestant de Pause AI, a déclaré que, bien qu'il comprenne que les nouveaux systèmes d'IA puissent apporter des avantages, il craint que les entreprises technologiques ne soient incitées à construire des technologies dont les humains pourraient facilement perdre le contrôle, parce que ces technologies ont également un immense potentiel de profit. « C'est ce qui a une valeur économique. Si les gens ne sont pas dissuadés de penser que c'est dangereux, ce sont ces types de modules qui seront naturellement construits.


Les dilemmes associés au déploiement de l’IA

L’intelligence artificielle est à la croisée des chemins, confrontée à des dilemmes éthiques et sociaux qui remettent en question les fondements mêmes de son développement. Les récentes protestations contre l’IA soulignent une inquiétude croissante quant à la direction que prend cette technologie. Mais au-delà des slogans et des manifestations, il est crucial de s’interroger sur les implications profondes de l’IA pour notre société.

Premièrement, l’IA pose la question de la transparence. Les algorithmes complexes et souvent opaques peuvent prendre des décisions qui affectent des vies humaines, sans que nous puissions facilement comprendre ou contester ces décisions. De plus, la responsabilité est diluée dans les méandres de ces systèmes, rendant difficile la désignation de coupables en cas d’erreurs ou de préjudices.

Deuxièmement, l’IA remet en cause notre conception du travail. Avec l’automatisation croissante, de nombreux emplois sont menacés, et les travailleurs doivent s’adapter rapidement à un marché en constante évolution. Cela soulève des questions sur la sécurité de l’emploi et la précarité qui peuvent en découler.


Troisièmement, l’IA interroge notre rapport à la vie privée. La collecte massive de données personnelles, nécessaire au fonctionnement de nombreux systèmes d’IA, pose un risque pour la confidentialité et l’autonomie individuelle. Les citoyens sont de plus en plus conscients de ce risque, mais les solutions pour le contrer restent floues.

Enfin, l’IA défie notre éthique. Les systèmes d’IA sont conçus par des humains, avec leurs biais et leurs préjugés. Si ces biais sont intégrés dans l’IA, ils peuvent se propager à grande échelle et renforcer les inégalités existantes.

Ces dilemmes ne sont pas insurmontables, mais ils exigent une réflexion collective et des actions concertées. Les protestations actuelles sont un symptôme d’une société qui cherche à reprendre le contrôle sur une technologie qui semble lui échapper. Il est temps de poser les bonnes questions et de trouver des réponses qui respectent à la fois le potentiel de l’IA et les valeurs humaines fondamentales.

Sources : rapport de Gladstone AI pour le ministère américain de la défense, Pause AI, déclaration de Bletchley

Et vous ?

Quelles sont les principales préoccupations que vous avez concernant le développement rapide de l’intelligence artificielle ?
Comment les gouvernements devraient-ils réguler l’IA pour équilibrer l’innovation et la sécurité publique ?
Quel rôle le public doit-il jouer dans la décision des limites de l’IA ?
Les avantages de l’IA l’emportent-ils sur les risques potentiels pour l’emploi et la vie privée ?
Devrions-nous craindre une ‘course à l’IA’ entre les entreprises et les nations, et si oui, comment pouvons-nous la prévenir ?
Quelles mesures de sécurité spécifiques les entreprises d’IA devraient-elles mettre en place avant de lancer de nouveaux produits ?
Comment l’IA a-t-elle affecté votre vie professionnelle ou personnelle, et quelles sont vos attentes pour l’avenir ?
Quelles sont les responsabilités éthiques des développeurs d’IA, et comment peuvent-ils s’assurer qu’ils les respectent ?

Voir aussi :

Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 20/06/2024 à 19:00
Je pense que le résultat le plus probable est celui de l'abondance, où les biens et les services sont disponibles pour tout le monde. Il n'y a pas de pénurie pour chacun d'entre nous. Ce serait une randonnée universelle. Le travail serait facultatif
Encore un qui a bien suivi ses cours d'économie et qui est pas foutu de comprendre qu'une croissance infinie dans un monde fini est impossible. Mais comment font tous les "grands" de notre monde pour sombrer dans ce schéma de pensées qu'un enfant de 7 ans trouverait louche ?

Si l'IA peut faire tout ce que vous pouvez faire, mais en mieux, à quoi bon faire les choses ? Je pense qu'il y aura une crise existentielle
Merci l'IA qui fait les vidanges, débouche les WC, brasse la bière et coupe des arbres pour en faire du PQ.
Est-ce qu'il a une armée de serviteurs pour à ce point oublier que le quotidien n'est pas exclusivement constitué d'ordinateurs ?
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 21/06/2024 à 1:53
Citation Envoyé par _toma_ Voir le message
Encore un qui a bien suivi ses cours d'économie et qui est pas foutu de comprendre qu'une croissance infinie dans un monde fini est impossible. Mais comment font tous les "grands" de notre monde pour sombrer dans ce schéma de pensées qu'un enfant de 7 ans trouverait louche ?

Merci l'IA qui fait les vidanges, débouche les WC, brasse la bière et coupe des arbres pour en faire du PQ.
Est-ce qu'il a une armée de serviteurs pour à ce point oublier que le quotidien n'est pas exclusivement constitué d'ordinateurs ?
Il nous prend juste pour des abrutis. L'homme le plus riche du monde perdrait tout son pouvoir, s'il n'y avait plus besoin de travailler pour vivre.
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 23/05/2024 à 10:36
Ils promettent de ne pas faire des choses qui sont déjà faîtes...
1  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 24/05/2024 à 20:48
Citation Envoyé par SamuelLamour Voir le message
sition entre optimisme et pessimisme. Il s’agit de trouver un juste milieu, où nous pouvons encourager les innovations tout en mettant en place des gardes-fous appropriés pour prévenir les abus et les dangers potentiels.

Qu’en pensez-vous ? Est-ce que la comparaison de l’IA avec l’arme nucléaire vous semble justifiée ? Pensez-vous qu’on devrait privilégier une approche plus prudente ou plus optimiste dans le développement de l’IA ?
Qu'elle sont ridicule est sans aucun fondement scientifique.

Déjà parce qu'elle présupposent que ces IA sont dangereuse parce que peuvent être consciente, sauf que y'a aucune théorie là dessus.
Le second point , ça présuppose que les algos peuvent créer une conscience , préposition qui ne se base sur aucune observation...
Et troisième point qu'on oublie souvent , la conscient fait probablement partie du vivant , et donc que ça devrait plus de ce coté là qu'une théorie/explication viendrait.

Donc non heureusement qu'il y'a pas de débat sérieux sur ça , parce que ça serait ridicule.

Si on parle de L'IA ce qu'elle est , donc un outils statistique , oui mais bon pas sur que cette technologie ira aussi loin qu'elle le promettent.

Celà me fait penser à la génétique il y'a 20 ans :
https://www.courrierinternational.co...n-grand-public
(enfin meme 30 ans)

Au final , le résultat de tout ces investissements ?
Et la génétique souffrait du même problème que l'IA actuelle (enfin en moins pire) , pas de théorie solide et ds promesses de monts et merveilles avec !
1  0 
Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 28/05/2024 à 0:00
Citation Envoyé par Fluxgraveon Voir le message
Mmm, juste une question : à combien estimez-vous cette probabilité ?
Franchement je dirais pour moi facile 90%, et la chose pour moi la plus frappante est ceci :
Les neurones sont bien positionné , et malgré la différence des individus et la variation des connexions des neurones, celà créer toujours une sacré cohérence avec leur environnement.
Il y'a un autre systeme dans la nature qui a ce même mécanisme : la génétique

Et je pense que les deux sont les mêmes mécanismes.

Et le vivant à les mêmes problématique que la conscience, malgré qu'on connaît tout de leur processus physique , cela ne nous apprend rien sur "comment ça marche".

Et le dernier point souvent oublié , un neurone est une cellule avant tout (il a un code ADN, tout comme toute les cellules de notre corps).
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 09/06/2024 à 17:15
Je ne savais pas le 6 juin lorsque j'ai posté ceci :Mon avis sur le remplacement des emplois par l'IA que les entreprises technologiques de la Silicon Valley allaient faire du lobbying au près des sénateurs californiens pour empêcher le kill switch lors de certains résultats de l'IA. Oui l'IA américaine va devenir dangereuse à cause de ses hallucinations que nous ne pourrons détecter puisque inaccessibles à la compréhension humaine à la différence de certaines IA européennes qui resteront explicables et plus intelligentes que les IA américaines et chinoises.
1  0 
Avatar de phil995511
Membre éprouvé https://www.developpez.com
Le 08/10/2024 à 12:07
Le mensonge ne peut en aucun cas être rattaché à la liberté d'expression, il doit être clairement proscrit de toute forme de politique, sans quoi certains politiciens continueront à mener des campagnes de désinformation, de dénigrement d'autrui, voir de tentatives de déstabilisation de systèmes démocratiques mis en place !!!
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 24/05/2024 à 11:45
Ce qui m'énerve autant que ça me fait rire c'est de voir à quel point cette caste de la sillicon valley est déconnectée de la réalité et des gens qui les entourent :

dépasseront ce que nous voulons, en tant que nation, donner sans permission à nos propres citoyens ainsi qu'à nos concurrents.
Depuis quand vous décidez ce que vous voulez "en tant que nation" donner aux citoyens (la nation) ?????

Les masques tombent d'eux même c'est pas croyable
0  0 
Avatar de SamuelLamour
Nouveau Candidat au Club https://www.developpez.com
Le 24/05/2024 à 15:39
Je trouve ce débat sur l’IA vraiment fascinant et important. Elon Musk et Bill Gates ont tous deux des points de vue très intéressants.

Personnellement, je comprends pourquoi Elon Musk compare l’IA à une menace nucléaire. C’est une façon très percutante de souligner à quel point les conséquences d’une IA incontrôlée pourraient être graves. Les armes nucléaires sont strictement régulées en raison de leur potentiel destructeur immédiat et massif. De la même manière, une super-intelligence numérique pourrait, en théorie, évoluer bien au-delà de notre contrôle et poser des risques existentielles. Cette comparaison, bien qu’alarmante, vise à nous faire prendre conscience de l’importance d’une régulation stricte dès maintenant, avant qu’il ne soit trop tard.

Cependant, je trouve aussi le point de vue de Bill Gates très pertinent. Il voit l’IA comme une technologie qui, tout comme l’énergie nucléaire, possède à la fois un potentiel immense pour le bien et des risques significatifs. Cette approche plus équilibrée me parle beaucoup, car elle reconnaît les opportunités tout en restant conscient des dangers. En effet, l’IA pourrait transformer positivement notre société à bien des égards, mais elle pourrait aussi être utilisée à des fins destructrices, notamment dans le domaine militaire.

Je pense que nous devons prendre au sérieux les mises en garde d’Elon Musk, même si elles peuvent sembler alarmistes. Son insistance sur la création d’un organisme de réglementation pour superviser le développement de l’IA me paraît être une mesure de précaution nécessaire. En même temps, adopter une perspective équilibrée comme celle de Bill Gates nous permet de ne pas sombrer dans une vision trop pessimiste et de reconnaître les nombreux avantages que l’IA peut offrir.

En fin de compte, je crois que le débat sur l’IA ne doit pas se limiter à une opposition entre optimisme et pessimisme. Il s’agit de trouver un juste milieu, où nous pouvons encourager les innovations tout en mettant en place des gardes-fous appropriés pour prévenir les abus et les dangers potentiels.

Qu’en pensez-vous ? Est-ce que la comparaison de l’IA avec l’arme nucléaire vous semble justifiée ? Pensez-vous qu’on devrait privilégier une approche plus prudente ou plus optimiste dans le développement de l’IA ?
0  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 27/05/2024 à 14:11
Et troisième point qu'on oublie souvent , la conscient fait probablement partie du vivant
Mmm, juste une question : à combien estimez-vous cette probabilité ?

Peut-être sommes-nous comme dans une expérience de Miller-Urey pour comprendre la nature de l'intellection en tentant de faire émerger de la "conscience" à partir d'une "soupe algorithmique" ? N'est-ce pas trop hérétique cela dit ?
0  0