IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ancien membre du conseil d'administration d'OpenAI demande l'audit des grandes entreprises d'IA
Elles devraient être tenues de partager des informations avec le public sur les capacités et les risques

Le , par Jade Emy

4PARTAGES

4  0 
Selon un ancien membre du conseil d'administration d'OpenAI, l'IA a besoin d'un mécanisme d'information et d'auditeurs.

Un mécanisme de signalement devrait être mis en place pour les incidents lorsque l'intelligence artificielle (IA) tourne mal, comme c'est le cas pour les accidents d'avion, a déclaré un ancien membre du conseil d'administration d'OpenAI. Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de l'université de Georgetown, a tenu ces propos lors d'une conférence TED.

Mme Toner a démissionné d'OpenAI l'année dernière après avoir soutenu l'éviction du PDG de la société, Sam Altman, qui a été annulée par la suite. Avant cela, M. Altman avait tenté de la faire exclure du conseil d'administration après qu'elle eut cosigné un article critiquant les pratiques d'OpenAI en matière de sécurité.

Lors de sa conférence TED, Mme Toner a déclaré que les entreprises d'IA devraient être tenues de "partager des informations sur ce qu'elles construisent, sur ce que leurs systèmes peuvent faire et sur la manière dont elles gèrent les risques". M. Toner a également déclaré que ces informations à partager avec le public devraient faire l'objet d'un audit, de sorte que les entreprises d'IA ne soient pas les seules à vérifier les informations qu'elles fournissent.

Un exemple de cas où la technologie pourrait mal tourner serait son utilisation dans une cyber-attaque basée sur l'IA. Mme Toner a déclaré qu'elle travaillait depuis huit ans sur les questions de politique et de gouvernance liées à l'IA et qu'elle avait pu observer de l'intérieur la manière dont le gouvernement et l'industrie s'efforçaient de gérer la technologie, ajoutant : "J'ai aussi vu une ou deux choses".


Dans une interview en juin 2023, Mme. Toner a déclaré que les acteurs du secteur se demandaient s'il fallait créer une nouvelle agence de régulation axée spécifiquement sur l'IA. "Les autorités de régulation existantes qui travaillent dans des secteurs spécifiques devraient-elles s'en charger, ou faudrait-il quelque chose de centralisé pour tous les types d'IA ?" a déclaré Mme. Toner.

Autre évolution récente dans ce domaine, les États-Unis et le Royaume-Uni ont uni leurs forces au début du mois d'avril pour mettre au point des tests de sécurité pour l'IA avancée. L'accord vise à aligner les approches scientifiques des deux pays et à accélérer le développement de méthodes d'évaluation robustes pour les modèles, les systèmes et les agents d'IA.

Source : Helen Toner, ancien membre du conseil d'administration d'OpenAI, lors d'une intervention à la conférence TED de Vancouver

Et vous ?

Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la réponse, selon Demis Hassabis. Il prévoit la création d'un organisme international de l'IA

IA générative : la CNIL recommandée pour la réguler par une commission de l'Assemblée nationale. « Seule la CNIL dispose de l'expérience et de l'expertise pour évaluer le respect du RGPD sur l'IAG »

La Grande-Bretagne opte pour la répartition la responsabilité de la gestion de l'IA entre ses différents organismes de réglementation, plutôt que de créer un nouvel organisme dédié à cette technologie

Une erreur dans cette actualité ? Signalez-nous-la !