Une nouvelle étude publiée par des chercheurs du MIT affirme que le secteur privé a embauché la grande majorité des chercheurs en IA au cours de ces vingt dernières années. Dans un premier temps, l'étude a révélé que seulement 21 % des titulaires d'un doctorat en IA travaillaient pour des entreprises privées en 2004, mais que ce chiffre est passé à plus de 70 % en 2020. Ensuite, les chercheurs rapportent que la part des entreprises privées dans les plus grands modèles d'IA est passée de 11 % en 2010 à 96 % en 2021. Le secteur privé domine désormais la recherche en IA et les chercheurs pensent que cela n'est pas du tout une chose réjouissante.
Pendant de nombreuses années, les tentatives visant à faire en sorte que les ordinateurs pensent et agissent comme des humains relevaient principalement du domaine universitaire. C'est ainsi que les réseaux neuronaux à apprentissage profond sont, par exemple, apparus. Les réseaux de neurones à apprentissage profond constituent désormais l'épine dorsale d'un large éventail d'applications utiles, allant du diagnostic médical au traitement du langage naturel (NLP). Cependant, au cours des vingt dernières années, les entreprises privées spécialisées dans l'IA ont discrètement renforcé leur pouvoir et ont maintenant pris le contrôle de l'industrie.
Aujourd'hui, ce sont les systèmes d'IA de génération de langage et les robots de conversation développés par les entreprises privées qui font la une des journaux. En raison de la nature de la technologie, les grands modèles de langage ont tendance à produire des résultats plus impressionnants que les petits modèles. Les entreprises privées exercent donc une plus grande influence sur le domaine, car elles ont plus d'argent à dépenser. Selon des chercheurs du MIT, cela signifie qu'une poignée de personnes et d'entreprises privées contrôlent désormais une grande partie des ressources et des connaissances dans le secteur, y compris la recherche sur l'IA.
En fin de compte, ce petit groupe d'entités privées façonnera l'impact de l'IA sur notre avenir collectif. Ce phénomène, que les spécialistes de l'A appellent "capture industrielle", a été quantifié dans un article publié par des chercheurs du MIT dans la revue Science au début du mois, appelant les décideurs politiques à y prêter plus d'attention. Dans leur article, les chercheurs en gestion économique Nur Ahmed, Muntasir Wahed et Neil Thompson retracent l'histoire récente des efforts de recherche en matière d'IA et expliquent pourquoi les consommateurs devraient s'inquiéter de la direction qu'elle prend. Selon eux, il ne faut pas se réjouir de la situation.
À titre d'exemple, les chercheurs indiquent qu'en 2010, l'industrie n'a développé que 11 % des plus grands modèles d'IA, le reste étant le fait des universités. Mais en 2021, l'industrie construisait environ 96 % des plus grands modèles. En outre, ils ont noté que les chercheurs en IA travaillant dans l'industrie ont généralement accès à des ordinateurs beaucoup plus grands et plus puissants et à des ensembles de données plus importants utilisés pour la formation. Par conséquent, la recherche en IA dans l'industrie s'est développée à pas de géant, tandis que les universités sont restées stables. Cela a également entraîné une fuite colossale des cerveaux.
En 2004, seuls 21 % des docteurs en informatique travaillant sur des applications d'IA travaillaient dans l'industrie. En 2020, cette part a atteint 70 %. Mais encore, le nombre de professeurs recrutés par les entreprises d'IA a été multiplié par huit depuis 2006, ce qui est beaucoup plus rapide que l'augmentation globale du nombre de professeurs de recherche en informatique. Ahmed, Wahed et Thompson estiment que ces récentes évolutions devraient être une source d'inquiétude, car si la recherche universitaire est généralement axée sur la promotion du progrès scientifique, l'industrie, elle, est toujours fermement axée sur la réalisation de profits.
Par conséquent, les nouveaux produits d'IA pourraient mieux servir les résultats des entreprises que le consommateur moyen. « De nombreux chercheurs avec lesquels nous nous sommes entretenus ont abandonné certaines trajectoires de recherche parce qu'ils estiment qu'ils sont incapables de rivaliser avec l'industrie - ils n'ont tout simplement pas les capacités de calcul ou les talents d'ingénieur », a déclaré Ahmed. En particulier, il a déclaré que les universitaires étaient incapables de construire de grands modèles de langage comme GPT-4, la dernière mouture du grand modèle de langage GPT (Generative Pre-trained Transformer) d'OpenAI.
Ce système nécessite d'énormes quantités de données et une puissance de calcul à laquelle seules les grandes entreprises technologiques telles que Google, Microsoft et Amazon ont accès. Le manque d'accès signifie que les chercheurs ne peuvent pas reproduire les modèles construits dans les laboratoires des entreprises, et qu'ils ne peuvent donc pas les sonder ni les vérifier facilement pour détecter d'éventuels préjudices et biais. Par exemple, OpenAI, qui était autrefois une organisation à but non lucratif, a fait un virage à cent-quatre-vingts degrés et tous ses modèles d'IA sont désormais fermés, compliquant encore plus leur accès aux chercheurs.
Les données de l'étude montrent également qu'il existe une disparité important entre les investissements publics et privés dans la technologie de l'IA. Par exemple, en 2021, les agences gouvernementales américaines non liées à la défense ont alloué 1,5 milliard de dollars à la recherche en IA. La Commission européenne a prévu de dépenser 1 milliard d'euros. Le secteur privé, quant à lui, a investi plus de 340 milliards de dollars dans l'IA en 2021. « Il y a une telle concentration de richesses et d'investissements dans un ensemble très restreint de techniques », a déclaré Alex Hanna, directrice de recherche au Distributed AI Research Institute.
Hanna est également un ancien membre de l'équipe "Ethical AI" de Google. Elle a souligné les investissements de PitchBook qui montrent que la majorité de l'argent investi dans l'IA générative au cours des six dernières années est allée à des startups comme Anthropic, Inflection, CharacterAI et AdeptAI, ainsi qu'à des efforts plus importants comme OpenAI qui construisent leurs propres modèles à grande échelle. En 2019, OpenAI est passée d'une organisation à but non lucratif à une entreprise à profit avec un investissement d'un milliard de dollars de Microsoft, citant la nécessité d'augmenter rapidement ses investissements dans le calcul et le talent.
Selon les experts, les conséquences de ce changement sont multiples. Cela signifie que les alternatives publiques aux technologies d'IA des entreprises, telles que les modèles et les ensembles de données, deviennent de plus en plus rares. En outre, plusieurs chercheurs ont souligné que les nouvelles applications sont susceptibles d'être motivées par des considérations commerciales plutôt que par l'intérêt général. Hanna partage cet avis. Elle a déclaré : « si vous souhaitez travailler sur des tâches d'IA spécialisées telles que la préservation de la biodiversité, la science du climat ou l'agriculture, il n'y a pas beaucoup d'appétit pour cela ».
Meredith Whittaker, présidente de l'application de messagerie chiffrée Signal, a comparé la situation à la domination de l'armée américaine sur la recherche scientifique pendant la guerre froide, dans un article en 2021. « C'est ici, dans ces histoires plus sombres, que nous sommes confrontés au coût abrupt de la capture - qu'elle soit militaire ou industrielle. Et ses implications périlleuses pour la liberté académique capable de demander des comptes au pouvoir », a-t-elle écrit. Les chercheurs et les experts politiques s'accordent sur le diagnostic, mais pas sur les solutions pouvant permettre de rééquilibrer les choses.
Certains, comme Ahmed, pensent que les gouvernements devraient créer des centres de données réservés aux universités pour permettre aux chercheurs de mener des expériences, mais d'autres, comme Whittaker, estiment que cela concentrerait encore davantage le pouvoir entre les mains de ceux qui possèdent l'infrastructure, comme les services cloud. Mais ils sont tous d'accord sur une chose que les décideurs politiques ne peuvent tout simplement pas faire : fermer les yeux.
Source : rapport de l'étude des chercheurs du MIT
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des conclusions de l'étude des chercheurs du MIT ?
Quels seraient les impacts de la domination du secteur de l'IA par les entreprises privées ?
Comment peut-on renverser la tendance ou tout au moins rééquilibrer les rapports de force dans cette situation ?
Voir aussi
OpenAI sur l'impact économique du GPT-4: « 80% des travailleurs auront au moins 10% de leurs tâches touchées », l'entreprise affirme que ses produits vont automatiser une vaste gamme de tâches pros
Un chercheur crée un modèle d'IA appelé RightWingGPT pour mettre en évidence les biais potentiels des systèmes d'IA, notamment la partialité de ChatGPT, son aspect woke et sa tendance gauchiste
GPT-4 produirait volontairement des informations erronées, beaucoup plus que GPT-3.5, selon une étude de NewsGuard, OpenAI avait pourtant déclaré le contraire
Une étude affirme qu'une poignée d'individus et d'entreprises privées contrôlent désormais la recherche en IA,
Les auteurs mettent en garde contre les conséquences négatives de cette domination
Une étude affirme qu'une poignée d'individus et d'entreprises privées contrôlent désormais la recherche en IA,
Les auteurs mettent en garde contre les conséquences négatives de cette domination
Le , par Bill Fassinou
Une erreur dans cette actualité ? Signalez-nous-la !