La croissance rapide de l'IA et l’intérêt croissant pour les modèles open source ont rendu nécessaire l'établissement de standards clairs pour déterminer ce qui constitue véritablement une IA open source ou "ouverte". L'Open Source Initiative (OSI) a publié une première version candidate d'une définition de l'IA ouverte, clarifiant les critères d'open source pour l'IA. La définition inclut quatre libertés essentielles : utiliser, étudier, modifier et partager le système.
Mark Zuckerberg, fondateur et PDG de Meta, avait souligné le rôle essentiel de l'IA ouverte et les avantages qu'elle confère pour les développeurs, pour Meta et pour le monde entier. Faisant le parallèle avec le succès de l'open source Linux, Zuckerberg a souligné les avancées des modèles Llama de Meta, en particulier le nouveau Llama 3.1 405B de niveau frontière. Il a notamment déclaré que l'IA open source est la voie à suivre, car elle permet à un plus grand nombre de personnes dans le monde d'avoir accès aux avantages et aux opportunités de l'IA.
À l'heure actuelle, des acteurs puissants cherchent à façonner la politique en affirmant que l'IA "ouverte" est soit bénéfique pour l'innovation et la démocratie, d'une part, soit préjudiciable pour la sécurité, d'autre part. Les affirmations relatives à l'IA "ouverte" manquent souvent de précision, éludant fréquemment l'examen de la concentration substantielle de l'industrie dans le développement et le déploiement de l'IA à grande échelle, et appliquant souvent à tort aux systèmes d'IA des interprétations du terme "ouvert" importées des logiciels open source. Lorsque l'on élabore une politique, les définitions sont importantes.
Une récente étude s'est penchée sur ce débat de l'IA "ouverte". Les chercheurs ont examiné la base des revendications d'ouverture de l'IA et proposé une analyse matérielle de ce qu'est l'IA et de ce que l' "ouverture" de l'IA peut et ne peut pas fournir : examen des modèles, des données, de la main-d'œuvre, des cadres et de la puissance de calcul. Ils ont également mis en évidence trois possibilités principales de l'IA "ouverte", à savoir la transparence, la réutilisation et l'extensibilité.
Les résultats de l'étude montrent que l'IA "ouverte" au maximum permet certaines formes de contrôle et d'expérimentation en plus des modèles existants. Cependant, les chercheurs ont constaté que l'ouverture seule ne perturbe pas la concentration du pouvoir dans l'IA. Tout comme de nombreux projets de logiciels "ouverts" traditionnels ont été cooptés de diverses manières par de grandes entreprises technologiques, l'étude démontre comment la rhétorique autour de l'IA "ouverte" est souvent utilisée de manière à exacerber plutôt qu'à réduire la concentration du pouvoir dans le secteur de l'IA.
Cette étude semble confirmer les critiques à l'égard de la définition de l'IA "ouverte" que l’OSI a proposé. Selon l'OSI, pour qu’un modèle d’IA soit considéré comme open source, le code source, les algorithmes sous-jacents, et la documentation technique doivent être accessibles à tous sans restriction. Cependant, cette définition n’inclut pas l’accès aux données d’entraînement, un élément crucial selon de nombreux experts du domaine.
Cette annonce, bien que porteuse de promesses pour l'écosystème de l'IA, a suscité une vague de critiques. Cette omission a rapidement provoqué des réactions mitigées, certains y voyant une ouverture salutaire pour l’innovation, tandis que d’autres y voient un obstacle majeur à la transparence et à l’éthique en IA. Les critiques affirment que sans ces données, la définition d’une IA open source est incomplète.
Voici les conclusions de l'étude selon les chercheurs :
Pourquoi les systèmes d'IA "ouverts" sont en fait fermés, et pourquoi cela est important ?
En disséquant les pièces qui composent les systèmes d'IA modernes et en examinant lesquelles de ces pièces peuvent et ne peuvent pas être ouvertes, l'étude révèle une carte de l'IA ouverte qui montre que, même à son maximum, l'IA ouverte dépend fortement des ressources de quelques grandes entreprises, qui contrôlent effectivement l'industrie de l'IA et l'environnement de la recherche qui en découle.
Pour cette raison, la poursuite de l'IA, même la plus ouverte, ne conduira pas à elle seule à un écosystème plus diversifié, responsable ou démocratisé, même si elle peut avoir d'autres avantages. Les résultats montrent également que, comme par le passé, les grandes entreprises technologiques qui se disputent l'avantage en matière d'IA utilisent l'IA ouverte pour consolider leur avantage commercial tout en déployant la rhétorique de l'ouverture pour se détourner des accusations de monopole de l'IA et de la réglementation qui en découle.
En réalité, aussi ouverte soit-elle, lorsque des systèmes d'IA sont déployés à grande échelle dans des domaines sensibles, ils peuvent avoir des effets diffus et profonds qui ne devraient pas être déterminés par la petite poignée d'entreprises à but lucratif qui contrôlent actuellement les ressources nécessaires pour créer et déployer ces systèmes à grande échelle, en les présentant aux millions de clients qui seront directement affectés par eux, en particulier lorsque ces effets ne peuvent pas être prévus simplement en examinant le code du système, les poids des modèles et la documentation.
La création d'alternatives significatives au modèle d'IA actuel ne se fera pas uniquement par la poursuite du développement d'une IA ouverte, même si des éléments tels que la transparence des données et la documentation sont précieux pour la responsabilité, et que les projets d'IA maximalement ouverts illustrent utilement les limites de ce qui est possible. En concentrant l'intervention politique sur la question de savoir si l'IA sera ouverte ou fermée, on détourne l'attention de la nature extrêmement opaque de la plupart des systèmes d'IA des entreprises, qu'ils soient ouverts ou fermés, ce qui a pour effet de détourner une énergie et une initiative précieuses des questions relatives aux implications de l'IA dans la pratique.
Si elle n'est pas accompagnée d'autres mesures fortes pour lutter contre la concentration du pouvoir dans l'IA, y compris l'application de la législation antitrust et la protection de la confidentialité des données, la recherche de l'ouverture en soi ne sera probablement pas très bénéfique. En effet, les conditions de transparence et les infrastructures nécessaires à la réutilisation et à l'extension continueront d'être fixées par ces mêmes entreprises puissantes, qui ne consentiront probablement pas à des contrôles significatifs allant à l'encontre de leurs incitations au profit et à la croissance.
Les chercheurs concluent :
Nous avons besoin d'un champ d'application plus large pour le développement de l'IA et d'une plus grande diversité de méthodes, ainsi que d'un soutien aux technologies qui répondent de manière plus significative aux besoins du public, et non aux intérêts commerciaux. Et nous avons besoin d'espace pour nous demander « pourquoi l'IA » dans le contexte de nombreux défis sociaux et écologiques urgents. Créer les conditions nécessaires pour rendre ces alternatives possibles est un projet qui peut coexister avec la réglementation et même être soutenu par elle. Mais placer nos espoirs dans une IA « ouverte » isolée ne nous mènera pas à ce monde et, à bien des égards, pourrait aggraver la situation, car les décideurs politiques et le public placent leur espoir et leur élan dans l'IA ouverte , en supposant qu'elle apportera des avantages qu'elle ne peut offrir dans le contexte de la concentration du pouvoir des entreprises.
Et vous ?
Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
La définition de l'IA open source obtient enfin sa première version candidate, mais à quel prix
Le laboratoire d'IA privé français PleIAs annonce un ensemble de données multilingues entièrement ouvert pour la formation de LLM, contenant plus de 2 000 milliards de jetons de contenu sous licence autorisée
Un nouveau rapport de la Maison-Blanche adopte l'IA open source, pour soutenir l'ouverture de l'IA tout en travaillant sur de nouvelles capacités de surveillance des risques potentiels de l'IA