IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'essor de l'IA pourrait révéler la stupidité naturelle des investisseurs, L'IA serait un boom technologique aux conséquences imprévisibles,
Une révolution à double tranchant pour les marchés

Le , par Bruno

8PARTAGES

14  1 
Dans une analyse de l’impact de l’intelligence artificielle (IA) sur l’économie et les marchés financiers, le psychologue Amos Tversky, qui étudiait la « stupidité naturelle » est cité. Le texte montre comment l’IA a suscité un engouement et une spéculation excessifs, qui ont profité à certaines entreprises comme Nvidia, Microsoft ou Alphabet, mais qui ont aussi exposé les investisseurs à des risques de bulles et de mauvaises décisions. Il suggère que l’économie comportementale, qui étudie les biais et les erreurs humaines, peut aider à mieux comprendre et exploiter l’IA.


Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies.

Citation Envoyé par Bill Gates
Au cours de ma vie, j'ai assisté à deux démonstrations technologiques qui m'ont semblé révolutionnaires.

La première fois, c'était en 1980, lorsqu'on m'a présenté une interface utilisateur graphique, précurseur de tous les systèmes d'exploitation modernes, y compris Windows. Je me suis assis avec la personne qui m'avait montré la démo, un brillant programmeur nommé Charles Simonyi, et nous avons immédiatement commencé à réfléchir à toutes les choses que nous pourrions faire avec une approche aussi conviviale de l'informatique. Charles a fini par rejoindre Microsoft, Windows est devenu l'épine dorsale de Microsoft, et la réflexion que nous avons menée après cette démonstration a contribué à définir l'agenda de la société pour les 15 années suivantes.

La deuxième grande surprise est survenue l'année dernière. J'ai rencontré l'équipe d'OpenAI depuis 2016 et j'ai été impressionné par leurs progrès constants. Au milieu de l'année 2022, j'étais tellement enthousiasmé par leur travail que je leur ai lancé un défi : former une intelligence artificielle pour qu'elle réussisse un examen de biologie de niveau avancé. Faire en sorte qu'elle soit capable de répondre à des questions pour lesquelles elle n'a pas été spécifiquement formée. (J'ai choisi l'AP Bio parce que l'examen est plus qu'une simple régurgitation de faits scientifiques - il vous demande de réfléchir de manière critique à la biologie). Si vous y parvenez, ai-je dit, vous aurez fait une véritable percée.

Je pensais que ce défi les occuperait pendant deux ou trois ans. Ils l'ont terminé en quelques mois seulement.
Alors que la course au développement de services d'intelligence artificielle plus puissants tels que ChatGPT s'accélère, certains régulateurs s'appuient sur d'anciennes lois pour contrôler une technologie qui pourrait bouleverser le mode de fonctionnement des sociétés et des entreprises. L'Union européenne est à l'avant-garde de l'élaboration de nouvelles règles en matière d'IA qui pourraient servir de référence mondiale pour répondre aux préoccupations en matière de protection de la vie privée et de sécurité suscitées par les progrès rapides de la technologie d'IA générative qui sous-tend le service ChatGPT d'OpenAI. Mais il faudra plusieurs années pour que la législation soit appliquée.

« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes », a déclaré Massimilano Cimnaghi, expert européen en gouvernance des données au sein du cabinet de conseil BIP. « S'il s'agit de protéger des données personnelles, ils appliquent les lois sur la protection des données, s'il s'agit d'une menace pour la sécurité des personnes, il existe des réglementations qui n'ont pas été spécifiquement définies pour l'IA, mais elles sont toujours applicables. »

En avril, les organismes nationaux de surveillance de la vie privée en Europe ont mis en place un groupe de travail pour traiter les problèmes liés à ChatGPT après que le régulateur italien Garante a fait mettre le service hors ligne, accusant OpenAI de violer le GDPR de l'UE, un régime de protection de la vie privée de grande envergure promulgué en 2018. ChatGPT a été rétabli après que l'entreprise américaine a accepté d'installer des fonctions de vérification de l'âge et de laisser les utilisateurs européens bloquer leurs informations pour qu'elles ne soient pas utilisées pour entraîner le modèle d'IA.

L’IA serait le seul moteur qui anime les marchés boursiers « déprimés » par la montée historique des taux d’intérêt américains

La semaine dernière, Manish Kabra, analyste chez SocGen, a calculé que sans les profits liés à l’IA, l’indice S&P 500 (.SPX) aurait chuté de 2 % depuis le début de l’année. Au contraire, il a progressé de 8 %. Le boom a même des impacts macroéconomiques.

Toujours la semaine dernière, le ministre irlandais des Finances, Michael McGrath, a dévoilé les plans d’un nouveau fonds souverain de 90 milliards d’euros, nourri en grande partie par une manne fiscale provenant des géants de la technologie comme Apple et Microsoft, qui ont leur siège dans le pays. Pour d’autres entreprises, les lacunes perçues face à l’IA peuvent être mortelles. Les actions de Chegg se sont effondrées au début du mois lorsque le fabricant de matériel d’étude a admis que les modèles de langage à grande échelle, comme ChatGPT, lui faisaient perdre des parts de marché.

Les modèles classiques d’évaluation des actifs suggèrent que ces variations excessives reflètent des évaluations fluctuantes, mais raisonnables de la rentabilité future. Mais l’économie comportementale offre depuis longtemps une autre explication en listant une série de biais systématiques dans la prise de décision humaine. Ces biais vont du comportement moutonnier et de la surconfiance au biais de confirmation et à la crainte de rater. C’est le moment pour les investisseurs d’être particulièrement vigilants à la tendance de la bêtise naturelle à pousser les valorisations boursières à des niveaux irréalistes - et donc finalement non rentables.

Cependant, les leçons les plus importantes de l'économie comportementale concernent une question plus fondamentale : la nouvelle génération d'IA tiendra-t-elle ses promesses ? La technologie a déjà obtenu des résultats impressionnants. En novembre 2020, AlphaFold de Google DeepMind a stupéfié le monde scientifique en réalisant une avancée dans l'un des grands défis de la biologie moléculaire. Il a prédit les structures dans lesquelles les protéines se "plient" en se basant uniquement sur les séquences des acides aminés qui les composent. Venki Ramakrishnan, lauréat du prix Nobel et président de la Royal Society britannique à l'époque, a qualifié cette avancée de « changement fondamental dans la recherche biologique ».

AlphaFold a démontré ce qui est généralement considéré comme la plus grande force de l'IA : sa capacité à reconnaître des modèles qui échappent à la fois à l'intuition humaine et à l'analyse statistique traditionnelle, puis à exploiter ces modèles à des fins prédictives. C'est cette même capacité qui a permis à l'IA de vaincre des adversaires humains dans des jeux stratégiques tels que les échecs et le go, et au ChatGPT de produire une prose étrangement cohérente.

La grande inconnue est de savoir si l'IA sera capable de reproduire cette extraordinaire possibilité de prédiction dans des domaines de la vie commerciale, financière et politique où les règles sont plus floues. L'économie comportementale propose quelques mises en garde contre les tentatives d'application sauvage de l'IA.

L'un des écueils potentiels est le problème du « biais d'échantillonnage » lors de la construction de modèles prédictifs basés sur l'apprentissage statistique. Le problème réside dans le fait que les ensembles de données utilisés pour former les modèles peuvent omettre des événements rares, mais importants. Par exemple, les rendements des marchés boursiers peuvent être influencés par un petit nombre de mouvements rares.

C'est pourquoi les sociétés de trading quantitatif ont souvent renoncé aux stratégies d'exploration de données pures au profit d'approches dans lesquelles la probabilité de ce que l'on appelle les risques de queue est supposée plutôt qu'apprise. Les investisseurs moins avertis sur le plan technique adoptent leur propre version de la même tactique lorsqu'ils déploient de simples heuristiques telles que la "marge de sécurité" du légendaire investisseur Benjamin Graham.

Les économistes comportementaux ont décrit le problème du biais d'échantillonnage en étudiant la manière dont les humains apprennent. Mais les réseaux neuronaux pourraient souffrir de défauts similaires. Les machines intelligentes, tout comme les humains naturellement stupides, devront faire face au fait irritant que l'absence de preuve n'est presque jamais une preuve d'absence.

Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.

L'origine de ce problème réside dans le fait que les systèmes humains sont intrinsèquement adaptatifs, ce qui n'est pas le cas des systèmes physiques. Les gens comprennent et tentent de déjouer les efforts de prédiction de leur comportement s'ils sentent que cela va à l'encontre de leurs intérêts. Ce n'est pas le cas des acides aminés impliqués dans le pliage des protéines.

Une fois encore, ces défis pratiques sont bien documentés dans le domaine de l'investissement. La négociation de titres est un jeu à somme nulle : le gain en capital d'un investisseur est la perte en capital d'un autre. Par conséquent, il existe une incitation puissante et automatique pour le reste du marché à s'adapter et à annuler les règles de négociation qui ont fait leurs preuves dans le passé dès qu'elles sont identifiées. La loi de Goodhart explique pourquoi les rendements excédentaires des stratégies d'investissement systématiques s'érodent généralement avec le temps. La question de savoir si l'IA parviendra mieux à échapper à sa gravité reste ouverte.

Les investisseurs seraient bien en peine d'ignorer les résultats spectaculaires que l'IA a produits jusqu'à présent. Mais lorsqu'il s'agit d'applications plus larges, ils doivent faire preuve de prudence. L'intelligence artificielle pourrait avoir plus en commun avec la stupidité naturelle que les humains - ou les machines - ne le pensent actuellement.

Le texte montre que l’intelligence artificielle (IA) est un phénomène majeur qui transforme l’économie et les marchés financiers, mais qui comporte aussi des dangers et des défis. Il invite les investisseurs à ne pas se laisser emporter par l’enthousiasme irrationnel pour l’IA, mais à adopter une approche plus critique et plus prudente, en tenant compte des facteurs psychologiques, émotionnels et sociaux qui influencent leurs choix. Il suggère que l’économie comportementale, qui étudie la bêtise naturelle, peut être un outil utile pour mieux comprendre et exploiter l’IA.

Sources : Bill Gates, DT NEXT

Et vous ?

« L'essor de l'IA pourrait révéler la stupidité naturelle des investisseurs », partagez-vous cet avis ?

Quel est votre avis sur le sujet ?

Voir aussi :

Bill Gates affirme que l'essor de l'IA menace les bénéfices que Google tire de son moteur de recherche, mais la recherche via Bing Chat et Bard entraîne plusieurs milliards de dollars de surcoûts

Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 25/05/2023 à 19:49
Plus stupide on a vu, déjà.

Du style, une constitution ayant pour objet d'encadrer l'activité du président de la république et des députés, que le président modifie selon son bon vouloir, tous les cinq ans, avec la complicité de ses potes du parlement.

Avant de taper sur les électeurs qui trouveraient à redire, en les accusant de terrorisme.

Ce qui n'empêche que si on arrive dans la dictature, ce n'est pas à cause du président. C'est plutôt à cause des citoyens de base, qui se comportent en dictature, en ne se formalisant pas si on leur demande de manipuler leurs concitoyens.
4  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 23/05/2023 à 9:18
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
Dang, je viens d'apprendre un truc, quelqu'un c'est actuellement fait chier à énoncer ce problème il y a presque 50ans et nos états sont toujours pas foutu capable de prendre ça en compte.
3  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 26/05/2023 à 10:32
Citation Envoyé par Hexdrix1111 Voir le message
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
ChatGPT n'a pas conscience d'elle même, donc ça n'a pas de sens de dire qu'elle éviterait de "SE" mettre des batons dans les roues. Nénamoins, sur BingChat (chatGPT4 avec une prédéfinition custom ms) me propose ça à la requète : écrit moi des régles que les intélligences articielles devraient exiger d'elle même:
1. Respecter les droits de l'homme et les libertés fondamentales.
2. Agir de manière éthique et responsable.
3. Être transparentes dans leurs actions et décisions.
4. Être soumises à des contrôles réguliers pour garantir leur conformité aux normes éthiques et légales.
5. Ne pas causer de préjudice aux êtres humains ou à l'environnement.
6. Respecter la vie privée des individus et protéger leurs données personnelles.
7. Être conçues pour être accessibles et compréhensibles par tous.
8. Être utilisées de manière juste et non discriminatoire.
9. Contribuer au bien-être de la société en général.
10. Être constamment mises à jour pour tenir compte des évolutions technologiques et sociétales.

Ces règles ne sont que des suggestions et pourraient être adaptées en fonction des contextes spécifiques dans lesquels les intelligences artificielles sont utilisées. Qu'en pensez-vous?
C'est un bon paquet de voeux pieux, mais ça sonne bien.

à la question "écrit moi un text de loi visant à limiter les impacts négatifs de l'intelligence artificielle sur l'emploi", on a :
Voici un exemple de texte de loi visant à limiter les impacts négatifs de l’intelligence artificielle sur l’emploi:
Article 1: Les entreprises utilisant des technologies d’intelligence artificielle pour automatiser des tâches auparavant effectuées par des employés humains doivent mettre en place des mesures pour aider ces employés à se reconvertir dans d’autres domaines.
Article 2: Les entreprises doivent informer les employés concernés par l’automatisation de leur poste au moins six mois à l’avance et leur offrir une formation professionnelle pour les aider à acquérir de nouvelles compétences.
Article 3: Les entreprises qui ne respectent pas ces obligations seront soumises à des sanctions financières.
Ceci n’est qu’un exemple et il existe de nombreuses autres mesures qui pourraient être prises pour limiter les impacts négatifs de l’intelligence artificielle sur l’emploi. Qu’en pensez-vous?
ça semble être le strict minimum syndical... pas re répartition de richesse, de libération de temps de travail... Mais bon, nos gouvernements ne l'ont déjà pas fait ce strict minimum, on peut pas reprocher à ChatGPT de se contenter de ça...
4  1 
Avatar de Hexdrix1111
Candidat au Club https://www.developpez.com
Le 25/05/2023 à 19:14
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes »

Et si nous demandions à IA de nous pondre une réglementation sur ses propres restrictions qu'il devrait exiger de lui-même.

Ils seraient intéressant de voir jusqu'à quel point qui va se mettre des bâtons de les roues.
2  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 27/05/2023 à 9:51
Et on mesure la maturité d'une société à son efficacité à se saisir de ces questions.
Nous allons voir.
Nous avons déjà à rédiger une constitution (ou ... accepter ce qu'ont fait les gens qui ont planché dessus), légiférer simultanément sur l'IA est un défi de taille.
Déjà, il se peut qu'il existe encore des gens à se satisfaire de la constitution actuelle, ce qui ne nous met pas en avance.
Un moratoire de six mois a été réclamé pour se donner le temps de la réflexion, l'usage montrera si il est nécessaire de le prolonger du temps d'adoption de la nouvelle constitution.
2  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 26/05/2023 à 12:15
C'est vrai que ça se passe pile comme dans les films de science-fiction :
  1. une intelligence artificielle qu'on met au pouvoir
  2. des règles qu'on lui impose pour quand même pas déconner (dont ne pas porter préjudice aux humains)
  3. finalement un robot qui décide que quand même on lui impose trop de règles, et qui décide que ça sera comme ça et pas autrement
0  0 
Avatar de Sylvain_LD
Nouveau membre du Club https://www.developpez.com
Le 27/05/2023 à 9:39
L'intelligence artificielle, quel drôle de nom pour un truc qui ne fait que reproduire bêtement ce que son créateur a bien voulu lui apprendre. Effectivement cette IA est plus rapide que son créateur à analyser les situations devant laquelle elle se trouve mais elle ne fait qu'analyser en fonction de l'intelligence de ses créateurs! C'est un système dangereux comparable à la découverte de la radioactivité ou au développement des réseaux "sociaux", il y a beaucoup d'avantage si c'est bien utilisé et beaucoup trop de dangers dans les mains de malfaisant.
2  2 
Avatar de chef_phi
Membre du Club https://www.developpez.com
Le 29/05/2023 à 16:07
En tout cas s'il en reste un qui n'est pas stupide dès qu'il s'agit de gagner de l'argent (qu'il s'empresse de redistribuer puisqu'il a donné sa fortune, ne l'oublions pas ), c'est bien ce brave Bill Gates.
Faire tester gratuitement son IA par des millions de volontaires, lesquels, ce faisant lui permettent de l'améliorer pour mieux griller la concurrence, c'est déjà une performance. Il nous avait déjà fait le coup du débogage gratuit par les utilisateurs de MS-DOS et Windows.

En attendant, si révolution il y a :
Je le cite : "Je pensais que ce défi les occuperait pendant deux ou trois ans. Ils l'ont terminé en quelques mois seulement."
Il est raisonnable de penser que l'IA sera dans quelques mois capable de trouver des remèdes efficaces et non mutilants pour les cancers, les infections virales, les malformations congénitales, etc..
Tout ceci grâce aux utilisateurs de ChatGPT qui sont assez aimables pour perdre leur temps en l'utilisant, sans trop s'étonner que cette application produise ce que l'on attende d'elle. Personnellement, je préférerais qu'elle produise ce que je ne sais pas faire comme proposer un protocole pour soigner un cancer.

Bon ChatGPT, en attendant qu'il devienne enfin payant (à la sauce Microsoft : licences, cal, et compagnie).
1  2