IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA en crise de confiance : la confiance du public dans l'IA ainsi que dans les entreprises qui la développe diminue
Selon une étude de la société Edelman qui y voit un risque pour le secteur Tech

Le , par Stéphane le calme

3PARTAGES

4  0 
L’intelligence artificielle (IA) est une technologie prometteuse, mais aussi source de craintes et de méfiance. Selon une nouvelle étude d’Edelman, la confiance dans l’IA et les entreprises qui la développent est en baisse, tant aux États-Unis que dans le monde. Ce phénomène représente un risque pour le secteur technologique, qui doit faire face à une régulation croissante en plus des enjeux éthiques et sociaux.

Edelman est une firme de communication mondiale, qui réalise chaque année un baromètre de la confiance dans différents domaines. Pour son édition 2024, elle a interrogé plus de 34 000 personnes dans 28 pays, dont 1 150 aux États-Unis, sur leur perception de l’IA.
  • Plus de 75 % des personnes interrogées dans le cadre du rapport ont exprimé leur confiance dans l'industrie technologique, tandis que la confiance dans l'intelligence artificielle était inférieure de 25 points, se contentant de 50 %.
  • Il y a huit ans, la technologie était le principal secteur d'activité en matière de confiance dans 90 % des pays étudiés par l'entreprise. Aujourd’hui, c’est dans la moitié de ces pays qu’on lui fait le plus confiance.
  • La confiance dans les entreprises d’IA a diminué de 61 % à 53 % au cours des cinq dernières années.
  • À l’échelle mondiale, la confiance dans les entreprises d’IA est tombée à 53 %, contre 61 % il y a cinq ans. Aux États-Unis, la confiance a chuté de 15 points de pourcentage (de 50 % à 35 %) au cours de la même période.
  • La confiance dans l’IA est faible quelle que soit la ligne politique. La confiance des démocrates dans les entreprises d’IA est de 38 %, celle des indépendants de 25 % et celle des républicains de 24 %.
  • Les habitants des pays en développement sont plus susceptibles d’adopter l’IA que ceux des pays développés :
    • Les personnes interrogées en France, au Canada, en Irlande, au Royaume-Uni, aux États-Unis, en Allemagne, en Australie, aux Pays-Bas et en Suède rejettent l'utilisation croissante de l'IA dans une proportion de trois contre un, a déclaré Edelman.
    • En revanche, l’acceptation dépasse largement la résistance dans les marchés en développement tels que l’Inde, le Kenya, le Nigeria et la Thaïlande.




Les raisons de la défiance

Pour Richard Edelman, le PDG de la firme, cette tendance illustre les risques liés à ce qu’il appelle le « saut à l’aveugle dans l’IA » de l’industrie technologique. Il explique que l’acceptation de l’innovation ne peut pas être tenue pour acquise, et qu’il faut consacrer plus de temps à l’adaptation et à l’éducation, plutôt qu’à la recherche et au développement.

Les principales sources de défiance envers l’IA sont liées à ses impacts potentiels sur la vie privée, l’emploi, la sécurité et la société. Les personnes interrogées expriment notamment les craintes suivantes :
  • L’IA pourrait être utilisée à des fins malveillantes, comme la manipulation, le piratage ou la cyberattaque.
  • L’IA pourrait réduire le contrôle humain sur les décisions et les actions, et créer une dépendance à la technologie.
  • L’IA pourrait entraîner la disparition de nombreux emplois, et augmenter les inégalités sociales et économiques.
  • L’IA pourrait être biaisée, discriminatoire ou injuste envers certaines catégories de personnes.

Ces craintes sont renforcées par le manque de transparence et de responsabilité des entreprises qui développent l’IA. Les personnes interrogées estiment que ces entreprises ne sont pas assez régulées, ni assez soucieuses de l’éthique et du bien commun. Elles réclament davantage de participation et de contrôle des utilisateurs, des gouvernements, des scientifiques et des experts.


Richard Edelman au bureau du centre-ville de Seattle

« Pourquoi » et « pour qui »

Justin Westcott, président de la technologie mondiale d'Edelman, a déclaré : « Les entreprises doivent aller au-delà des simples mécanismes de l'IA pour s'attaquer à son véritable coût et à sa véritable valeur : le "pourquoi" et le "pour qui". Westcott affirme que le public souhaite voir un engagement à protéger la vie privée et un examen rigoureux de l'impact social de l'IA « par les scientifiques et les éthiciens ».

« Ceux qui donnent la priorité à une IA responsable, qui s'associent de manière transparente avec les communautés et les gouvernements et qui remettent le contrôle entre les mains des utilisateurs, non seulement dirigeront l'industrie, mais reconstruiront le pont de confiance que la technologie a, à un moment donné, perdu », a déclaré Westcott.

Les recherches d'Edelman révèlent également que le public est insatisfait des efforts du gouvernement.

« Quand il s'agit de réglementation de l'IA, la réponse du public est assez claire : 'Quelle réglementation ?' », a déclaré Westcott. « Il y a un appel clair et urgent aux régulateurs pour qu'ils répondent de front aux attentes du public ».


Les pistes pour restaurer la confiance

Ci-dessous, un extrait de l'analyse de Richard Edelman :

L'importance de la confiance : La confiance est la proposition centrale d'une économie et d'une société qui fonctionnent bien. Elle se compose de quatre éléments : la capacité, la fiabilité, l'intégrité et l'objectif. Nous constatons qu'après 2008 et la grande récession, la capacité est presque considérée comme allant de soi. Il s'agit de savoir si l'on est capable de tout faire tout le temps, si l'on a des normes et si l'on est capable de faire quelque chose. Avez-vous des normes et un sens moral ?" Il ne suffit pas d'être capable de faire. Il s'agit de savoir si vous le faites bien et si vous le faites de manière cohérente.

Sentiment du public à l'égard de l'IA : les gens regardent l'IA et se disent : "Nous devons bien faire les choses". Lorsque nous parlons de suspicion à l'égard de l'innovation, nous pensons que l'innovation devrait être la meilleure chose qui soit pour les entreprises. L'innovation devrait être la meilleure chose qui soit pour les entreprises, et la période actuelle devrait être une période dorée pour les entreprises, parce qu'elles sont les plus fiables.

Mais si nous précipitons les choses, si le gouvernement n'est pas perçu comme capable de réglementer parce qu'il ne peut pas suivre, ou si l'on considère que cela se fait sans contexte de requalification ou d'amélioration des compétences pour s'occuper des personnes dont l'emploi va disparaître, alors nous aurons une réaction populiste.

L'IA et les élections de 2024 : Nous devons montrer que, par exemple, nous allons nous assurer que les élections se déroulent bien sur le plan de la qualité de l'information. Il y a 50 élections cette année dans le monde, et l'IA va avoir une influence majeure sur ces élections. Et toutes les entreprises technologiques que je connais sont très soucieuses de la bonne utilisation de leur technologie.

Ce que les entreprises technologiques peuvent faire : La mise en œuvre, l'adaptation et l'acceptation sont tout aussi importantes que l'invention. Nous ne parlons pas assez de la manière dont nous allons bien faire les choses, et de l'idée que cela ne viendra qu'en son temps, quand ce sera prêt. Nous devons être très clairs avec les gens sur la manière dont les expériences sont menées.

C'est une occasion en or pour les entreprises de montrer qu'elles ont mérité leur position d'institution la plus digne de confiance. Elles devraient faire cette révolution avec les gouvernements qui fixent les limites, avec les ONG pour la formation sur le dernier kilomètre, avec les médias pour expliquer ce qu'ils font et montrer qu'en fait, cela peut être bien fait.

Sources : Trust Barometer d’Edelman, Richard Edelman

Et vous ?

Que pensez-vous de ce rapport ? Le trouvez-vous pertinent ou non ? Dans quelle mesure ?
Quelle est votre opinion sur l’intelligence artificielle ? Avez-vous confiance en cette technologie et en ses applications ?
Quels sont les principaux avantages et inconvénients de l’intelligence artificielle pour la société, l’économie et l’environnement ?
Quelles sont les mesures que vous souhaiteriez voir mises en place pour encadrer le développement et l’utilisation de l’intelligence artificielle ? Qui devrait être responsable de ces mesures ?
Comment pensez-vous que l’intelligence artificielle pourrait évoluer dans les prochaines années ? Quels sont les défis et les opportunités que cela représente ?
Avez-vous déjà utilisé ou expérimenté l’intelligence artificielle dans votre vie personnelle ou professionnelle ? Si oui, comment cela s’est-il passé ? Si non, pourquoi pas ?
Que pensez-vous des mesures visant à réguler l'IA comme l'AI Act de l'UE ?

Une erreur dans cette actualité ? Signalez-nous-la !