
Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies.

« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes », a déclaré Massimilano Cimnaghi, expert européen en gouvernance des données au sein du cabinet de conseil BIP. « S'il s'agit de protéger des données personnelles, ils appliquent les lois sur la protection des données, s'il s'agit d'une menace pour la sécurité des personnes, il existe des réglementations qui n'ont pas été spécifiquement définies pour l'IA, mais elles sont toujours applicables. »
En avril, les organismes nationaux de surveillance de la vie privée en Europe ont mis en place un groupe de travail pour traiter les problèmes liés à ChatGPT après que le régulateur italien Garante a fait mettre le service hors ligne, accusant OpenAI de violer le GDPR de l'UE, un régime de protection de la vie privée de grande envergure promulgué en 2018. ChatGPT a été rétabli après que l'entreprise américaine a accepté d'installer des fonctions de vérification de l'âge et de laisser les utilisateurs européens bloquer leurs informations pour qu'elles ne soient pas utilisées pour entraîner le modèle d'IA.
L’IA serait le seul moteur qui anime les marchés boursiers « déprimés » par la montée historique des taux d’intérêt américains
La semaine dernière, Manish Kabra, analyste chez SocGen, a calculé que sans les profits liés à l’IA, l’indice S&P 500 (.SPX) aurait chuté de 2 % depuis le début de l’année. Au contraire, il a progressé de 8 %. Le boom a même des impacts macroéconomiques.
Toujours la semaine dernière, le ministre irlandais des Finances, Michael McGrath, a dévoilé les plans d’un nouveau fonds souverain de 90 milliards d’euros, nourri en grande partie par une manne fiscale provenant des géants de la technologie comme Apple et Microsoft, qui ont leur siège dans le pays. Pour d’autres entreprises, les lacunes perçues face à l’IA peuvent être mortelles. Les actions de Chegg se sont effondrées au début du mois lorsque le fabricant de matériel d’étude a admis que les modèles de langage à grande échelle, comme ChatGPT, lui faisaient perdre des parts de marché.
Les modèles classiques d’évaluation des actifs suggèrent que ces variations excessives reflètent des évaluations fluctuantes, mais raisonnables de la rentabilité future. Mais l’économie comportementale offre depuis longtemps une autre explication en listant une série de biais systématiques dans la prise de décision humaine. Ces biais vont du comportement moutonnier et de la surconfiance au biais de confirmation et à la crainte de rater. C’est le moment pour les investisseurs d’être particulièrement vigilants à la tendance de la bêtise naturelle à pousser les valorisations boursières à des niveaux irréalistes - et donc finalement non rentables.
Cependant, les leçons les plus importantes de l'économie comportementale concernent une question plus fondamentale : la nouvelle génération d'IA tiendra-t-elle ses promesses ? La technologie a déjà obtenu des résultats impressionnants. En novembre 2020, AlphaFold de Google DeepMind a stupéfié le monde scientifique en réalisant une avancée dans l'un des grands défis de la biologie moléculaire. Il a prédit les structures dans lesquelles les protéines se "plient" en se basant uniquement sur les séquences des acides aminés qui les composent. Venki Ramakrishnan, lauréat du prix Nobel et président de la Royal Society britannique à l'époque, a qualifié cette avancée de « changement fondamental dans la recherche biologique ».
AlphaFold a démontré ce qui est généralement considéré comme la plus grande force de l'IA : sa capacité à reconnaître des modèles qui échappent à la fois à l'intuition humaine et à l'analyse statistique traditionnelle, puis à exploiter ces modèles à des fins prédictives. C'est cette même capacité qui a permis à l'IA de vaincre des adversaires humains dans des jeux stratégiques tels que les échecs et le go, et au ChatGPT de produire une prose étrangement cohérente.
La grande inconnue est de savoir si l'IA sera capable de reproduire cette extraordinaire possibilité de prédiction dans des domaines de la vie commerciale, financière et politique où les règles sont plus floues. L'économie comportementale propose quelques mises en garde contre les tentatives d'application sauvage de l'IA.
L'un des écueils potentiels est le problème du « biais d'échantillonnage » lors de la construction de modèles prédictifs basés sur l'apprentissage statistique. Le problème réside dans le fait que les ensembles de données utilisés pour former les modèles peuvent omettre des événements rares, mais importants. Par exemple, les rendements des marchés boursiers peuvent être influencés par un petit nombre de mouvements rares.
C'est pourquoi les sociétés de trading quantitatif ont souvent renoncé aux stratégies d'exploration de données pures au profit d'approches dans lesquelles la probabilité de ce que l'on appelle les risques de queue est supposée plutôt qu'apprise. Les investisseurs moins avertis sur le plan technique adoptent leur propre version de la même tactique lorsqu'ils déploient de simples heuristiques telles que la "marge de sécurité" du légendaire investisseur Benjamin Graham.
Les économistes comportementaux ont décrit le problème du biais d'échantillonnage en étudiant la manière dont les humains apprennent. Mais les réseaux neuronaux pourraient souffrir de défauts similaires. Les machines intelligentes, tout comme les humains naturellement stupides, devront faire face au fait irritant que l'absence de preuve n'est presque jamais une preuve d'absence.
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.