Précédant la publication du rapport sur les prévisions, Ben Wood, analyste en chef chez CCS Insight, a déclaré : « Nous sommes de fervents défenseurs de l'IA, nous pensons qu'elle aura un impact considérable sur l'économie, sur la société en général et sur la productivité ».« Mais le battage médiatique autour de l'IA générative en 2023 a été tellement important que nous pensons qu'il est exagéré et qu'il y a beaucoup d'obstacles à son deploiement. »
Cependant, Nina Schick, conseillère et conférencière en IA L'IA générative, pense que les outils d'IA comme le ChatGPT d'OpenAI, pourrait complètement réorganiser la façon dont le contenu numérique est développé. « Je pense que nous pourrions atteindre 90 % du contenu en ligne généré par l'IA d'ici 2025, donc cette technologie est exponentielle ». « Je crois que la majorité du contenu numérique va commencer à être produite par l'IA. Vous voyez ChatGPT... mais il y a toute une pléthore d'autres plateformes et applications qui arrivent. »
Les modèles d'IA générative tels que ChatGPT d'OpenAI, Google Bard, Claude d'Anthropic et Synthesia s'appuient sur d'énormes quantités de puissance de calcul pour exécuter les modèles mathématiques complexes qui leur permettent de déterminer les réponses à apporter aux demandes des utilisateurs. Les entreprises doivent acquérir des puces de grande puissance pour faire fonctionner les applications d'IA. Dans le cas de l'IA générative, ce sont souvent des processeurs graphiques avancés, ou GPU, conçus par le géant américain des semi-conducteurs Nvidia que les grandes entreprises et les petits développeurs utilisent pour exécuter leurs charges de travail d'IA.
L’exploitation de ChatGPT est très coûteuse pour OpenAI
Aujourd'hui, de plus en plus d'entreprises, dont Amazon, Google, Alibaba, Meta et, semble-t-il, OpenAI, conçoivent leurs propres puces d'IA pour exécuter leurs programmes d'IA. Le PDG Sam Altman a fait de l'acquisition d'un plus grand nombre de puces d'IA une priorité absolue pour l'entreprise. Il s'est publiquement plaint de la pénurie d'unités de traitement graphique, un marché dominé par Nvidia, qui contrôle plus de 80 % du marché mondial des puces les mieux adaptées à l'exécution d'applications d'IA.
Les efforts déployés pour obtenir davantage de puces sont liés à deux problèmes majeurs identifiés par Altman : la pénurie de processeurs avancés qui alimentent les logiciels de l'OpenAI et les coûts « exorbitants » associés à l'exploitation du matériel nécessaire pour faire fonctionner ses efforts et ses produits. Depuis 2020, OpenAI a développé ses technologies d'intelligence artificielle générative sur un superordinateur massif construit par Microsoft, l'un de ses principaux bailleurs de fonds, qui utilise 10 000 unités de traitement graphique (GPU) de Nvidia.
L'exploitation de ChatGPT est très coûteuse pour l'entreprise. Chaque requête coûte environ 4 cents, selon une analyse de Stacy Rasgon, analyste chez Bernstein. Si les requêtes de ChatGPT atteignent un dixième de l'échelle de recherche de Google, il faudra environ 48,1 milliards de dollars de GPU au départ et environ 16 milliards de dollars de puces par an pour qu'il reste opérationnel.
Il n'est pas certain que l'OpenAI aille de l'avant avec son projet de construction d'une puce personnalisée. Il s'agirait d'une initiative stratégique majeure et d'un investissement lourd qui pourrait s'élever à des centaines de millions de dollars par an, selon des vétérans du secteur. Même si l'OpenAI consacrait des ressources à cette tâche, le succès ne serait pas garanti.
La réglementation européenne sur l'IA se heurte à des obstacles
L’approche de l’UE en matière d’intelligence artificielle est axée sur l’excellence et la confiance, visant à renforcer la recherche et les capacités industrielles tout en garantissant la sécurité et les droits fondamentaux.
La stratégie européenne en matière d’IA vise à faire de l’UE une plaque tournante de classe mondiale pour l’IA et à faire en sorte que l’IA soit centrée sur l’humain et digne de confiance. Un tel objectif se traduit par l’ approche européenne de l’excellence et de la confiance par des règles et des actions concrètes. En avril 2021, la Commission a présenté son train de mesures sur l’IA, notamment :
- sa communication sur la promotion d’une approche européenne de l’IA ;
- un réexamen du plan coordonné en matière d’intelligence artificielle ( avec les États membres de l’UE) ;
- sa proposition de cadre réglementaire sur l’intelligence artificielle et l’ analyse d’impact pertinente.
La Commission vise à faire face aux risques générés par des utilisations spécifiques de l’IA au moyen d’un ensemble de règles complémentaires, proportionnées et flexibles. Ces règles donneront également à l’Europe un rôle de premier plan dans la définition de l’étalon-or mondial.
Ce cadre donne aux développeurs et aux utilisateurs de l’IA la clarté dont ils ont besoin en intervenant uniquement dans les cas que les législations nationales et européennes existantes ne couvrent pas. Le cadre juridique de l’IA propose une approche claire et facile à comprendre, fondée sur quatre niveaux de risque différents: risque inacceptable, risque élevé, risque limité et risque minimal.
Les analystes de CCS Insight prévoient aussi que la réglementation de l'IA dans l'Union européenne, souvent pionnière en matière de législation sur les technologies, se heurtera à des obstacles. L'UE sera toujours la première à introduire une réglementation spécifique pour l'IA - mais celle-ci sera probablement révisée et redessinée « plusieurs fois » en raison de la vitesse des progrès de l'IA, ont-ils déclaré. « La législation n'est pas finalisée avant fin 2024, laissant l'industrie prendre les premières mesures d'autorégulation », a prédit Wood.
L'IA générative a suscité un énorme engouement cette année de la part des passionnés de technologie, des investisseurs en capital-risque et des conseils d'administration, car les gens ont été captivés par sa capacité à produire du nouveau contenu à la manière d'un être humain en réponse à des invites textuelles. Bien qu'elle soit très prometteuse, elle a également suscité des inquiétudes croissantes de la part des pouvoirs publics et du public, qui craignent qu'elle ne soit devenue trop avancée et qu'elle ne risque de priver des gens de leur emploi.
La criminalité liée à l'IA tend à correspondre à des topologies particulières d’organisations criminelles
La recherche et la réglementation en matière d'intelligence artificielle (IA) s'efforcent de trouver un équilibre entre les avantages de l'innovation et les inconvénients et perturbations potentiels. Toutefois, l'une des conséquences involontaires de l'essor récent de la recherche sur l'IA est la réorientation potentielle des technologies de l'IA pour faciliter les actes criminels, ce que les chercheurs Thomas C. King, Nikita Aggarwal, Mariarosaria Taddeo, Luciano Floridi appelent dans un rapport de recherche la criminalité liée à l'IA (AIC).
La criminalité liée à l'IA est théoriquement possible grâce aux expériences publiées d'automatisation de la fraude ciblant les utilisateurs de médias sociaux, ainsi qu'aux démonstrations de manipulation de marchés simulés par l'IA. Cependant, comme la criminalité liée à l'IA est encore un domaine relativement jeune et intrinsèquement interdisciplinaire - allant des études socio-juridiques à la science formelle - il y a peu de certitude quant à ce que l'avenir de la criminalité liée à l'IA pourrait ressembler.
Les menaces plausibles et uniques entourant les AIC peuvent être comprises de manière spécifique ou générale. Les menaces les plus générales représentent ce qui rend la criminalité liée à l'IA possible par rapport aux crimes du passé (c'est-à-dire les possibilités particulières de l'IA) et ce qui pose un problème unique (c'est-à-dire ce qui justifie la conceptualisation de l'AIC comme un phénomène criminel distinct). Comme le montre le tableau ci-dessous, les domaines de la criminalité liée à l'IA peuvent recouper de nombreuses menaces générales.
Carte des menaces spécifiques à un domaine et des menaces transversales
L'année prochaine, CCS Insight prévoit que les personnes qui commettent des fraudes d'identification basées sur l'IA commenceront à être arrêtées. La société affirme que la police procédera à la première arrestation d'une personne qui utilise l'IA pour usurper l'identité de quelqu'un - soit par le biais de la technologie de synthèse vocale, soit par d'autres types de deepfakes - dès 2024.
« Les modèles de génération d'images et de synthèse vocale peuvent être personnalisés pour usurper l'identité d'une cible à l'aide de données publiées sur les médias sociaux, ce qui permet de créer des imitations profondes rentables et réalistes », indique CCS Insight dans sa liste de prédictions.
Un rapport d'Europol sur la menace que représente la grande criminalité et la criminalité organisée met en évidence la manière dont le type de criminalité technologique tend à correspondre à des topologies particulières d'organisations criminelles. La littérature de la criminalité liée à l'IA indique que l'IA peut jouer un rôle dans des organisations criminelles telles que les cartels de la drogue, qui disposent de ressources importantes et sont très organisées.
À l'inverse, l'organisation criminelle ad hoc sur le dark web existe déjà dans le cadre de ce qu'Europol appelle le crime-asa-service. Ces services criminels sont vendus directement entre l'acheteur et le vendeur, potentiellement comme un élément plus petit d'un crime global, que l'IA pourrait alimenter (par exemple, en permettant le piratage de profils) à l'avenir.
Sources : Commission européenne, Springer, CCS Insight
Et vous ?
L'analyse de CCS Insight, qui prédit que l’IA générative devrait être remise en question l’année prochaine est-elle pertinente ?
Partagez-vous l'avis de Nina Schick qui contrairement à CCS Insight annone une croissance de l'IA générative d'ici à 2025 ?
Quels sont selon vous, les avantages et les inconvénients de cette technologie ? Quels sont les risques associés à l’IA générative ?
Comment cette technologie peut-elle être améliorée ?
Voir aussi :
90% du contenu en ligne pourrait être « généré par l'IA d'ici 2025 », selon une conférencière en IA. « Les choses qui nous émerveillent début 2023 vont sembler pittoresques d'ici la fin de l'année »
« L'IA générative n'est qu'une phase. La prochaine phase sera l'IA interactive dans laquelle des machines interactives effectueront des tâches à votre place », affirme un cofondateur de DeepMind