La technologie a déjà bouleversé le travail effectué par la Commission européenne, le Parlement européen et le Conseil de l'UE sur le projet de règlement de l'intelligence artificielle. Mi-juin 2018, la Commission européenne a nommé 52 experts au sein du nouveau groupe de haut niveau sur l'intelligence artificielle (le High Level Expert Group on Artificial Intelligence). Le groupe, composé de représentants du monde universitaire, des entreprises et de la société civile, avait pour vocation de soutenir la mise en œuvre de la communication de l'UE sur l'intelligence artificielle publiée en avril 2018.
Dans un document intitulé « La démocratie constitutionnelle et la technologie à l'ère de l'intelligence artificielle » et publié en septembre 2018, Paul Nemitz (conseiller principal à la Commission européenne et professeur de droit au Collège d’Europe de Bruges) décrit, pour ce qui est, selon lui, les quatre éléments centraux responsables de la concentration du pouvoir aux mains des grandes entreprises informatiques. Ces éléments constituent à la fois une menace pour la démocratie et le bon fonctionnement des marchés, dit-il. Dans le même document, il présente l’expérience acquise avec l'Internet sans loi et la relation entre la technologie et le droit telle qu'elle s'est développée dans l'économie numérique.
En 2021, la Commission européenne, le bras exécutif politiquement indépendant de l'UE, a publié le texte de la loi sur l'IA, qui vise à promouvoir le déploiement d'une « IA digne de confiance » dans l'UE, alors qu'ils sollicitent les commentaires de l'industrie avant un vote cet automne. Les institutions cherchent à apporter des modifications aux règlements qui tentent d'équilibrer l'innovation et la responsabilité. Mais selon certains experts, la loi sur l'IA, telle qu'elle est rédigée, imposerait des exigences onéreuses aux efforts ouverts de développement de systèmes d'IA.
La législation prévoit des exceptions pour certaines catégories d'IA open source, comme celles utilisées exclusivement pour la recherche et avec des contrôles pour éviter les abus.
Le règlement, proposé par la Commission en 2021, a été conçu pour interdire certaines applications de l'IA comme le scoring social, la manipulation et certains cas de reconnaissance faciale. Il désignerait également certaines utilisations spécifiques de l'IA comme étant à « haut risque », obligeant les développeurs à respecter des exigences plus strictes en matière de transparence, de sécurité et de surveillance humaine.
ChatGPT est un grand modèle de langage général (LLM) développé récemment par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées « prompts ».🤖📝 I asked #ChatGPT to tell me how to regulate AI in Shakespearean English.
— Damian Boeselager (@d_boeselager) February 16, 2023
Then I read that out in the European Parliament 👇🏽/1 pic.twitter.com/AH1taZcENR
Alors que la classe précédente de modèles d'intelligence artificielle était principalement constituée de modèles d'apprentissage profond (Deep Learning, DL), conçus pour apprendre et reconnaître des modèles dans les données, les LLM sont un nouveau type d'algorithme d'intelligence artificielle formé pour prédire la probabilité d'une séquence de mots donnée en fonction du contexte des mots qui la précèdent.
Ainsi, si les LLM sont formés sur des quantités suffisamment importantes de données textuelles, ils sont capables de générer de nouvelles séquences de mots jamais observées auparavant par le modèle, mais qui représentent des séquences plausibles basées sur le langage humain naturel.
ChatGPT est alimenté par GPT3.5, un LLM entraîné sur le modèle OpenAI 175B parameter foundation et un grand corpus de données textuelles provenant d'Internet via des méthodes d'apprentissage par renforcement et supervisé. Une utilisation anecdotique indique que ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée, ainsi que des compétences de dépendance à long terme.
Les résultats mettent en évidence certaines forces et faiblesses potentielles de ChatGPT
ChatGPT est un modèle linguistique d'intelligence artificielle introduit en novembre 2022 qui fournit des réponses conversationnelles générées à des questions incitatives. Le modèle est formé à l'aide d'un mélange d'algorithmes d'apprentissage par renforcement et d'entrées humaines sur plus de 150 milliards de paramètres. La plateforme a atteint un million d'utilisateurs dès sa première semaine d'ouverture au public et a été rapidement qualifiée de « prochain grand perturbateur de l'industrie » en raison de la qualité perçue des réponses fournies par le modèle.
Certains chercheurs soupçonnent que ChatGPT est particulièrement fort pour prendre un ensemble de textes externes et les connecter (l'essence d'une idée de recherche), ou pour prendre des sections facilement identifiables d'un document et les ajuster (un exemple est le résumé des données - un « morceau de texte » facilement identifiable dans la plupart des études de recherche).
Il n'est pas surprenant que l'utilisation de ces chatbots intéresse les éditeurs universitaires. Une récente étude, publiée dans Finance Research Letters, a montré que ChatGPT pouvait être utilisé pour rédiger un article financier qui serait accepté par une revue universitaire.
Les chercheurs ont montré, en se basant sur les évaluations des résultats générés par les évaluateurs des revues financières, que le chatbot IA ChatGPT peut contribuer de manière significative à la recherche financière. « En principe, ces résultats devraient pouvoir être généralisés à d'autres domaines de recherche. Les avantages sont évidents pour la génération d'idées et l'identification de données. Cependant, la technologie est plus faible en ce qui concerne la synthèse de la littérature et le développement de cadres de test appropriés », concluent-ils.
La réflexion était la suivante : s'il est facile d'obtenir de bons résultats avec ChatGPT en l'utilisant simplement, peut-être pouvons-nous faire quelque chose de plus pour transformer ces bons résultats en excellents résultats. Les chercheurs ont d'abord demandé à ChatGPT de générer les quatre parties standard d'une étude de recherche : l'idée de recherche, l'analyse documentaire (une évaluation des recherches universitaires précédentes sur le même sujet), l'ensemble des données et les suggestions de tests et d'examens. Ils ont spécifié que le sujet général et que le résultat devait pouvoir être publié dans « une bonne revue financière ».
C'est la première version choisie pour utiliser ChatGPT. Pour la deuxième version, ils ont collé dans la fenêtre de ChatGPT un peu moins de 200 résumés d'études pertinentes et existantes. Ils ont ensuite demandé au programme de les prendre en compte lors de la création des quatre étapes de recherche. Enfin, pour la version 3, ils ont ajouté « l'expertise du domaine », c'est-à-dire la contribution de chercheurs universitaires. « Nous avons lu les réponses produites par le programme informatique et fait des suggestions d'amélioration. Ce faisant, nous avons intégré notre expertise à celle de ChatGPT », ont-ils dit.
« Nous avons ensuite demandé à un panel de 32 évaluateurs d'examiner chacun une version de la manière dont ChatGPT peut être utilisé pour générer une étude universitaire. Les examinateurs ont été invités à évaluer si le résultat était suffisamment complet et correct, et s'il apportait une contribution suffisamment nouvelle pour être publié dans une "bonne" revue financière universitaire », ajoutent-ils.
La grande leçon à retenir est que toutes ces études ont été généralement considérées comme acceptables par les experts. Ce qui parait assez étonnant, de l’avis de certains observateurs. Cela soulève des questions fondamentales sur la signification de la créativité et la propriété des idées créatives - des questions auxquelles personne n'a encore de réponses solides.
« Ces systèmes n'ont aucune compréhension éthique du monde, n'ont aucun sens de la vérité et ne sont pas fiables », a déclaré Gary Marcus, expert en IA et critique virulent. Ces IA « sont comme des moteurs. Ce sont des moteurs et des algorithmes très puissants qui peuvent faire un grand nombre de choses et qui, eux-mêmes, ne sont pas encore affectés à un objectif », a déclaré Dragoș Tudorache, un législateur roumain libéral qui, avec le législateur italien S&D Brando Benifei, est chargé de faire passer la loi sur l'IA au Parlement européen.
Des exigences plus strictes aux développeurs et aux utilisateurs de ChatGPT
La technologie a déjà incité les institutions européennes à réécrire leurs projets. Le Conseil, qui représente les capitales nationales, a approuvé en décembre sa version du projet de loi sur l'IA, qui confie à la Commission le soin d'établir des exigences en matière de cybersécurité, de transparence et de gestion des risques pour les IA à usage général. L'essor de ChatGPT oblige désormais le Parlement européen à lui emboîter le pas.
En revanche, les militants et les observateurs estiment que la proposition ne fait qu'effleurer l'énigme de l'IA à usage général. « Il ne suffit pas de placer les systèmes de création de textes sur la liste des systèmes à haut risque : il existe d'autres systèmes d'IA à usage général qui présentent des risques et qui devraient également être réglementés », a déclaré Mark Brakel, directeur des politiques au Future of Life Institute, une organisation à but non lucratif axée sur la politique de l'IA.
Les deux principaux législateurs du Parlement travaillent également à imposer des exigences plus strictes aux développeurs et aux utilisateurs de ChatGPT et de modèles d'IA similaires, notamment en matière de gestion des risques liés à la technologie et de transparence de son fonctionnement. Ils tentent également d'imposer des restrictions plus strictes aux grands fournisseurs de services tout en maintenant un régime plus léger pour les utilisateurs quotidiens qui jouent avec la technologie.
Les professionnels de secteurs tels que l'éducation, l'emploi, la banque et les services répressifs doivent être conscients « de ce qu'implique l'utilisation de ce type de système à des fins présentant un risque important pour les droits fondamentaux des personnes », a déclaré Benifei. Si le Parlement a du mal à se faire une idée de la réglementation ChatGPT, Bruxelles se prépare aux négociations qui suivront.
La Commission européenne, le Conseil de l'UE et le Parlement discuteront des détails d'une loi définitive sur l'IA lors de négociations tripartites qui devraient débuter en avril au plus tôt. Là, ChatGPT pourrait bien amener les négociateurs dans une impasse, alors que les trois parties cherchent une solution commune à cette nouvelle technologie.
Les grandes entreprises technologiques, en particulier celles qui ont leur mot à dire, comme Microsoft et Google, suivent de près l'évolution de la situation. La loi européenne sur l'IA doit « rester axée sur les cas d'utilisation à haut risque », a déclaré Natasha Crampton, responsable en chef de l'IA chez Microsoft, suggérant que les systèmes d'IA à usage général tels que ChatGPT ne sont guère utilisés pour des activités à risque, mais plutôt pour rédiger des documents et aider à écrire du code.
« Nous voulons nous assurer que les cas d'utilisation de grande valeur et à faible risque continuent d'être disponibles pour les Européens », a déclaré Crampton. Une enquête récente menée par le groupe d'activistes pour la transparence Corporate Europe Observatory aurait également révélé que les acteurs de l'industrie, y compris Microsoft et Google, avaient fait pression avec acharnement sur les décideurs politiques de l'UE pour exclure l'IA polyvalente comme ChatGPT des obligations imposées aux systèmes d'IA à haut risque.
Source : Politico
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de la feuille de route du Parlement européen ?
Voir aussi :
L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
ChatGPT produirait de faux documents universitaires, alors que des professions se sentent menacées par le célèbre outil d'OpenAI