IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA aide et nuit à l'environnement, le meilleur nouveau scientifique du monde pourrait être une IA.
Stanford présente l'édition 2023 de son rapport annuel AI Index

Le , par Stéphane le calme

0PARTAGES

7  0 
Un rapport annuel sur les progrès de l'IA a mis en évidence la domination croissante des acteurs de l'industrie sur les universités et le gouvernement dans le déploiement et la protection des applications d'IA.

L'AI Index est une initiative indépendante du Stanford Institute for Human-Centered Artificial Intelligence (HAI), dirigée par le AI Index Steering Committee, un groupe interdisciplinaire d'experts du milieu universitaire et de l'industrie. Le rapport annuel suit, rassemble, distille et visualise les données relatives à l'intelligence artificielle, permettant aux décideurs de prendre des mesures significatives pour faire progresser l'IA de manière responsable et éthique en pensant aux humains.

L'AI Index collabore avec de nombreuses organisations différentes pour suivre les progrès de l'intelligence artificielle. Ces organisations comprennent : le Center for Security and Emerging Technology de l'Université de Georgetown, LinkedIn, NetBase Quid, Lightcast et McKinsey. Le rapport 2023 présente également plus de données auto-collectées et d'analyses originales que jamais auparavant. Le rapport de cette année comprenait de nouvelles analyses sur les modèles de base, y compris leurs coûts géopolitiques et de formation, l'impact environnemental des systèmes d'IA, l'éducation à l'IA de la maternelle à la terminale et les tendances de l'opinion publique en matière d'IA. L'AI Index a également élargi son suivi de la législation mondiale sur l'IA de 25 pays en 2022 à 127 en 2023.

Voici quelques faits saillants soulignés par l'AI Index de 2023 :
  • la recherche sur l'IA prend de l'ampleur depuis des années, sans montrer aucun signe de ralentissement. Pour le souligner, le rapport s'appuie sur le nombre de publications entre 2010 et 2021 qui n'a pas eu de cesse de croître : « Le nombre total de publications sur l'IA a plus que doublé depuis 2010. Les sujets spécifiques à l'IA qui continuent de dominer la recherche incluent la reconnaissance des formes, l'apprentissage automatique et la vision par ordinateur » 

  • les larges modèles d'IA deviennent gros, plus rapides, mais aussi plus chers. L'article note : « GPT-2, publié en 2019, considéré par beaucoup comme le premier grand modèle de langage, comportait 1,5 milliard de paramètres et coûtait environ 50 000 USD à former. PaLM, l'un des grands modèles phares de langage lancé en 2022, comportait 540 milliards de paramètres et coûtait environ 8 millions de dollars US. PaLM était environ 360 fois plus grand que GPT-2 et coûtait 160 fois plus. Il n'y a pas que PaLM : dans l'ensemble, les grands modèles linguistiques et multimodaux deviennent de plus en plus volumineux et coûteux » 

  • les nouveaux modèles d'IA reçoivent aujourd'hui des MILLIONS de fois plus de formation qu'il y a 10 ans ;
  • en seulement 3 ans, les modèles de langage sont devenus bien plus puissants. Cela montre les performances des modèles linguistiques dans des matières telles que les sciences sociales, les sciences humaines, etc ;
  • les gens utilisent également ces modèles d'IA plus performants pour faire des choses douteuses, comme des deepfake de politiciens : « Selon la base de données AIAAIC, qui suit les incidents liés à l'abus éthique de l'IA, le nombre d'incidents et de controverses liés à l'IA a été multiplié par 26 depuis 2012. Certains incidents notables en 2022 comprenaient une vidéo deepfake du président ukrainien Volodymyr Zelenskyy se rendant et les prisons américaines utilisant technologie de surveillance des appels sur leurs détenus. Cette croissance témoigne à la fois d'une utilisation accrue des technologies d'IA et d'une prise de conscience des possibilités d'utilisation abusive » 

  • ce nombre va continuer à monter en flèche alors que le monde découvre comment s'adapter aux nouvelles capacités de l'IA. Parmi les plus notables, citons le procès en cours contre Stability AI pour des problèmes de droits d'auteur 

  • les gouvernements s'empressent de définir leur approche de l'IA. Par exemple, du côté de l'UE, les élus travaillent sur leur grande loi sur l'IA depuis près de 2 ans. Puis, ChatGPT. La réaction instinctive de l'Italie a été de le suspendre, les autres autorités de protection de données en UE, notamment l'Allemagne, la France mais aussi l'Irlande, observent de près la situation dans le pays et envisagent une action coordonnée au niveau européen ;
  • les startups d'IA nouvellement financées ont triplé au cours des 10 dernières années. 57 des 273 entreprises du dernier lot YC travaillent avec l'IA générative.


Les entreprises ont remplacé le milieu universitaire dans l'ouverture de la voie pour le développement de systèmes d'IA de pointe

Dans son édition de 2023, l'AI Index suggère que le monde de l'IA entre dans une nouvelle phase de développement. Au cours de l'année écoulée, un grand nombre d'outils d'IA se sont généralisés, des chatbots comme ChatGPT aux logiciels de génération d'images comme Midjourney. Mais les décisions sur la manière de déployer cette technologie et sur la manière d'équilibrer les risques et les opportunités reposent fermement entre les mains des entreprises.

L'AI Index indique que, pendant de nombreuses années, le milieu universitaire a ouvert la voie au développement de systèmes d'IA de pointe, mais que l'industrie a maintenant fermement pris le relais : « Jusqu'en 2014, les modèles d'apprentissage automatique les plus importants étaient publiés par le milieu universitaire. Depuis, l'industrie a pris le relais. En 2022, il y avait 32 modèles d'apprentissage automatique importants produits par l'industrie, contre seulement trois produits par le milieu universitaire », indique le rapport. La raison ? La voici : « La construction de systèmes d'IA à la pointe de la technologie nécessite de plus en plus de grandes quantités de données, de calcul et d'argent, des ressources que les acteurs de l'industrie possèdent intrinsèquement en plus grande quantité que les organisations à but non lucratif et les universités ».

En 2019, par exemple, OpenAI a créé GPT-2, un premier grand mode de langage, ou LLM - la même classe d'application utilisée pour alimenter ChatGPT et le chatbot Bing de Microsoft. GPT-2 coûte environ 50 000 $ à former et contient 1,5 milliard de paramètres (une métrique qui suit la taille et la sophistication relative d'un modèle). Passez à 2022 et Google a créé son propre LLM à la pointe de la technologie, appelé PaLM qui lui a coûté environ 8 millions de dollars pour la formation et contient 540 milliards de paramètres, ce qui le rend 360 fois plus grand que GPT-2 et 160 fois plus cher.

Les besoins croissants en ressources du développement de l'IA déplacent fermement le rapport de force vers les acteurs de l'entreprise. De nombreux experts du monde de l'IA craignent que les incitations du monde des affaires ne conduisent également à des résultats dangereux alors que les entreprises se précipitent sur les produits et écartent les problèmes de sécurité dans le but de déjouer leurs rivaux. C'est l'une des raisons pour lesquelles de nombreux experts appellent actuellement à un ralentissement voire à une pause dans le développement de l'IA, comme dans la lettre ouverte signée la semaine dernière par des personnalités comme Elon Musk.

L'IA aide et nuit à l'environnement.

Les auteurs du rapport soulignent que de nouvelles recherches suggèrent que les systèmes d'IA peuvent avoir de graves impacts environnementaux. Selon Luccioni et al., 2022, la course d'entraînement de BLOOM a émis 25 fois plus de carbone qu'un seul voyageur en avion lors d'un aller simple de New York à San Francisco. Pourtant, de nouveaux modèles d'apprentissage par renforcement comme BCOOLER montrent que les systèmes d'IA peuvent être utilisés pour optimiser la consommation d'énergie.


Le meilleur nouveau scientifique du monde… l'IA ?

Les modèles d'IA commencent à accélérer rapidement les progrès scientifiques et, en 2022, ont été utilisés pour faciliter la fusion de l'hydrogène, améliorer l'efficacité de la manipulation de la matrice et générer de nouveaux anticorps.


L'IA commence à construire une meilleure IA

Nvidia a utilisé un agent d'apprentissage par renforcement de l'IA pour améliorer la conception des puces qui alimentent les systèmes d'IA. De même, Google a récemment utilisé l'un de ses modèles de langage, PaLM, pour suggérer des moyens d'améliorer ce même modèle. L'apprentissage auto-améliorant de l'IA accélérera les progrès de l'IA.

IA et éthique

L'équité, les préjugés et l'éthique dans l'apprentissage automatique continuent d'être des sujets d'intérêt parmi les chercheurs et les praticiens. Alors que la barrière technique à l'entrée pour la création et le déploiement de systèmes d'IA générative a considérablement diminué, les problèmes éthiques liés à l'IA sont devenus plus apparents pour le grand public. Les startups et les grandes entreprises se retrouvent dans une course au déploiement et à la sortie de modèles génératifs, et la technologie n'est plus contrôlée par un petit groupe d'acteurs.

Les auteurs du rapport notent qu'à mesure que les acteurs de l'industrie généralisent les applications d'IA, le nombre d'incidents d'abus éthiques a également augmenté. (Le référentiel d'incidents et de controverses sur l'IA, l'algorithme et l'automatisation, un index de ces incidents, note une multiplication par 26 entre 2021 et 2012.) Ces incidents incluent des décès impliquant le logiciel de conduite autonome de Tesla ; l'utilisation de deepfakes audio dans les escroqueries d'entreprise ; la création de deepfake nudes non consensuels ; et de nombreux cas d'arrestations par erreur causées par un logiciel de reconnaissance faciale défectueux, qui est souvent en proie à des préjugés raciaux.

À mesure que les outils d'IA se généralisent, il n'est pas surprenant que le nombre d'erreurs et de cas d'utilisation malveillants augmente également ; en soi, cela n'indique pas un manque de protection adéquate. Mais d'autres éléments de preuve suggèrent un lien, comme la tendance des entreprises comme Microsoft et Google à réduire leurs équipes de sécurité et d'éthique de l'IA.

IA et règlementation au niveau du gouvernement

Le rapport note cependant que l'intérêt des législateurs et des décideurs pour la réglementation de l'IA augmente. Une analyse des dossiers législatifs de 127 pays a noté que le nombre de projets de loi contenant l'expression «intelligence artificielle» est passé d'un seul adopté en 2016 à 37 adoptés en 2022. Aux États-Unis, l'examen est également en augmentation au niveau des États, avec cinq projets de loi de ce type proposés en 2015 contre 60 projets de loi liés à l'IA proposés en 2022. Un tel intérêt accru pourrait fournir un contrepoids à l'autorégulation des entreprises.


Autres données dans le rapport
  • L'investissement privé dans l'IA a diminué pour la première fois en une décennie. Les investissements privés mondiaux dans l'IA augmentent depuis des années, mais ont diminué de 26,7 % par rapport à 2021 pour atteindre 91,9 milliards de dollars en 2022.
  • Les Chinois sont plus confiants dans l'IA que les Américains. Une enquête Ipsos en 2022 a révélé que 78 % des répondants chinois étaient d'accord avec l'affirmation selon laquelle « les produits et services utilisant l'IA présentent plus d'avantages que d'inconvénients ». Les citoyens chinois étaient les plus enthousiastes à propos de l'IA, suivis des répondants en Arabie saoudite (76 %) et en Inde (71 %). Les répondants américains étaient parmi les moins enthousiastes des personnes interrogées, avec seulement 35 % d'accord avec la déclaration ci-dessus.
  • Les auteurs ont interrogé un échantillon d'Américains. Parmi eux, certains ont déclaré être enthousiasmés par l'IA, notamment par son potentiel d'améliorer la vie et la société (31 %), de leur permettre de gagner du temps et de rendre les choses plus efficaces (13 %). D'autres ont déclaré se sentir plus préoccupés et s'inquiètent de la perte d'emplois humains (19 %) ; de la surveillance, du piratage et de la confidentialité numérique (16 %) ; ainsi que du manque de connexion humaine (12%).

Source : rapport

Et vous ?

Quelle lecture faites-vous de ce rapport ?
Quels sont les éléments qui vous ont le plus marqué ?
Êtes-vous d'accord avec les conclusions du rapport ? Lesquelles ne vous semblent pas pertinentes ?

Voir aussi :

La bataille dans le domaine de l'IA fait de plus en plus rage entre l'Europe, la Chine et les USA, d'après rapport annuel AI Index 2018
La recherche et le développement en intelligence artificielle sont en plein essor, mais l'intelligence générale est toujours hors de portée, selon un rapport

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 06/04/2023 à 8:19
Citation Envoyé par Stéphane le calme Voir le message
L'IA aide et nuit à l'environnement, le meilleur nouveau scientifique du monde pourrait être une IA
La vraie question est : écoutera-t-on plus ce "scientifique" que ceux humains qui alertent et proposent depuis des décénies?
Ma réponse est simple : si sa réponse est capitalisto-compatible, oui, sinon non.
Ou à peine plus complexe : oui quand la réponse sera capitalisto-compatible, il faut donc faire suffisament de tests jusqu'à l'arrivée de la réponse attendue.
1  1