Les électeurs américains s'inquiètent des risques liés à la technologie de l'IA. L'AI Policy Institute (AIPI) s'est donné pour mission de traduire les inquiétudes du public en une réglementation efficace. Ils s'engagent auprès des décideurs politiques, des médias et du public pour façonner un avenir où l'IA est développée de manière responsable et transparente.
Ils ont constaté que les Américains veulent que le gouvernement agisse sur l'IA. L'AIPI utilise des sondages pour maintenir une connaissance complète de la perception publique de l'IA et des risques qui y sont associés, dans le but d'informer et d'influencer les médias grand public et la prise de décision politique. Du 18 au 21 juillet 2023, l'AIPI a mené une enquête auprès de 1 001 électeurs au niveau national avec son partenaire YouGov. Dans l'ensemble, les électeurs sont plus inquiets qu'enthousiastes à l'égard de l'IA.
Voici les principaux résultats :
- 83% pensent que l'IA pourrait accidentellement provoquer un événement catastrophique.
- 62% sont préoccupés par l'intelligence artificielle, tandis que 21 % seulement sont enthousiastes.
- 82% préfèrent ralentir le développement de l'IA, contre seulement 8 % qui préfèrent l'accélérer.
- 54% pensent que l'IA de niveau humain (AGI) sera développée d'ici 5 ans.
- 82% ne font pas confiance aux responsables de la technologie de l'IA pour autoréguler l'IA.
Des progrès lents et délibérés
L'AI Policy Institute commente :
La frontière de l'IA est repoussée rapidement par les entreprises qui consacrent des milliards à l'entraînement de puissants modèles d'IA. La vitesse de ces progrès a dépassé notre compréhension de ces systèmes, nous laissant dans l'ignorance de leurs capacités, de leur comportement et des risques qu'ils posent. Les leaders de l'IA tirent unanimement la sonnette d'alarme : Sam Altman (PDG, OpenaAI), Demis Hassabis (PDG, Deepmind) et Dario Amodei (PDG, Anthropic) ont tous signé une lettre ouverte affirmant que "l'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale".
L'AI Policy Institute cherche à répondre à ces défis. En réglementant les centres de données nécessaires au développement de modèles d'IA de pointe et en rendant obligatoire la démonstration de la sécurité d'un modèle d'IA avant son déploiement, les pouvoirs publics ont la possibilité d'atténuer considérablement les menaces qui se profilent à l'horizon. Par le dialogue et la collaboration avec les législateurs, les journalistes et les technologues, l'AI Policy Institute s'engage à trouver une voie plus sûre pour la révolution de l'IA.
L'AI Policy Institute cherche à répondre à ces défis. En réglementant les centres de données nécessaires au développement de modèles d'IA de pointe et en rendant obligatoire la démonstration de la sécurité d'un modèle d'IA avant son déploiement, les pouvoirs publics ont la possibilité d'atténuer considérablement les menaces qui se profilent à l'horizon. Par le dialogue et la collaboration avec les législateurs, les journalistes et les technologues, l'AI Policy Institute s'engage à trouver une voie plus sûre pour la révolution de l'IA.
Et vous ?
Pensez-vous que cette enquête est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques. Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole
Sam Altman, PDG d'OpenAI, estime qu'une agence internationale devrait surveiller les IA "les plus puissantes" pour garantir une "sécurité raisonnable", car ces systèmes peuvent "causer d'importants dommages"
Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots. Ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire