L'essor de l'IA pourrait révéler la stupidité naturelle des investisseurs, L'IA serait un boom technologique aux conséquences imprévisibles,
Une révolution à double tranchant pour les marchés
Le 2023-05-22 18:51:13, par Bruno, Chroniqueur Actualités
Dans une analyse de l’impact de l’intelligence artificielle (IA) sur l’économie et les marchés financiers, le psychologue Amos Tversky, qui étudiait la « stupidité naturelle » est cité. Le texte montre comment l’IA a suscité un engouement et une spéculation excessifs, qui ont profité à certaines entreprises comme Nvidia, Microsoft ou Alphabet, mais qui ont aussi exposé les investisseurs à des risques de bulles et de mauvaises décisions. Il suggère que l’économie comportementale, qui étudie les biais et les erreurs humaines, peut aider à mieux comprendre et exploiter l’IA.
Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies.
Envoyé par Bill Gates
Alors que la course au développement de services d'intelligence artificielle plus puissants tels que ChatGPT s'accélère, certains régulateurs s'appuient sur d'anciennes lois pour contrôler une technologie qui pourrait bouleverser le mode de fonctionnement des sociétés et des entreprises. L'Union européenne est à l'avant-garde de l'élaboration de nouvelles règles en matière d'IA qui pourraient servir de référence mondiale pour répondre aux préoccupations en matière de protection de la vie privée et de sécurité suscitées par les progrès rapides de la technologie d'IA générative qui sous-tend le service ChatGPT d'OpenAI. Mais il faudra plusieurs années pour que la législation soit appliquée.
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes », a déclaré Massimilano Cimnaghi, expert européen en gouvernance des données au sein du cabinet de conseil BIP. « S'il s'agit de protéger des données personnelles, ils appliquent les lois sur la protection des données, s'il s'agit d'une menace pour la sécurité des personnes, il existe des réglementations qui n'ont pas été spécifiquement définies pour l'IA, mais elles sont toujours applicables. »
En avril, les organismes nationaux de surveillance de la vie privée en Europe ont mis en place un groupe de travail pour traiter les problèmes liés à ChatGPT après que le régulateur italien Garante a fait mettre le service hors ligne, accusant OpenAI de violer le GDPR de l'UE, un régime de protection de la vie privée de grande envergure promulgué en 2018. ChatGPT a été rétabli après que l'entreprise américaine a accepté d'installer des fonctions de vérification de l'âge et de laisser les utilisateurs européens bloquer leurs informations pour qu'elles ne soient pas utilisées pour entraîner le modèle d'IA.
L’IA serait le seul moteur qui anime les marchés boursiers « déprimés » par la montée historique des taux d’intérêt américains
La semaine dernière, Manish Kabra, analyste chez SocGen, a calculé que sans les profits liés à l’IA, l’indice S&P 500 (.SPX) aurait chuté de 2 % depuis le début de l’année. Au contraire, il a progressé de 8 %. Le boom a même des impacts macroéconomiques.
Toujours la semaine dernière, le ministre irlandais des Finances, Michael McGrath, a dévoilé les plans d’un nouveau fonds souverain de 90 milliards d’euros, nourri en grande partie par une manne fiscale provenant des géants de la technologie comme Apple et Microsoft, qui ont leur siège dans le pays. Pour d’autres entreprises, les lacunes perçues face à l’IA peuvent être mortelles. Les actions de Chegg se sont effondrées au début du mois lorsque le fabricant de matériel d’étude a admis que les modèles de langage à grande échelle, comme ChatGPT, lui faisaient perdre des parts de marché.
Les modèles classiques d’évaluation des actifs suggèrent que ces variations excessives reflètent des évaluations fluctuantes, mais raisonnables de la rentabilité future. Mais l’économie comportementale offre depuis longtemps une autre explication en listant une série de biais systématiques dans la prise de décision humaine. Ces biais vont du comportement moutonnier et de la surconfiance au biais de confirmation et à la crainte de rater. C’est le moment pour les investisseurs d’être particulièrement vigilants à la tendance de la bêtise naturelle à pousser les valorisations boursières à des niveaux irréalistes - et donc finalement non rentables.
Cependant, les leçons les plus importantes de l'économie comportementale concernent une question plus fondamentale : la nouvelle génération d'IA tiendra-t-elle ses promesses ? La technologie a déjà obtenu des résultats impressionnants. En novembre 2020, AlphaFold de Google DeepMind a stupéfié le monde scientifique en réalisant une avancée dans l'un des grands défis de la biologie moléculaire. Il a prédit les structures dans lesquelles les protéines se "plient" en se basant uniquement sur les séquences des acides aminés qui les composent. Venki Ramakrishnan, lauréat du prix Nobel et président de la Royal Society britannique à l'époque, a qualifié cette avancée de « changement fondamental dans la recherche biologique ».
AlphaFold a démontré ce qui est généralement considéré comme la plus grande force de l'IA : sa capacité à reconnaître des modèles qui échappent à la fois à l'intuition humaine et à l'analyse statistique traditionnelle, puis à exploiter ces modèles à des fins prédictives. C'est cette même capacité qui a permis à l'IA de vaincre des adversaires humains dans des jeux stratégiques tels que les échecs et le go, et au ChatGPT de produire une prose étrangement cohérente.
La grande inconnue est de savoir si l'IA sera capable de reproduire cette extraordinaire possibilité de prédiction dans des domaines de la vie commerciale, financière et politique où les règles sont plus floues. L'économie comportementale propose quelques mises en garde contre les tentatives d'application sauvage de l'IA.
L'un des écueils potentiels est le problème du « biais d'échantillonnage » lors de la construction de modèles prédictifs basés sur l'apprentissage statistique. Le problème réside dans le fait que les ensembles de données utilisés pour former les modèles peuvent omettre des événements rares, mais importants. Par exemple, les rendements des marchés boursiers peuvent être influencés par un petit nombre de mouvements rares.
C'est pourquoi les sociétés de trading quantitatif ont souvent renoncé aux stratégies d'exploration de données pures au profit d'approches dans lesquelles la probabilité de ce que l'on appelle les risques de queue est supposée plutôt qu'apprise. Les investisseurs moins avertis sur le plan technique adoptent leur propre version de la même tactique lorsqu'ils déploient de simples heuristiques telles que la "marge de sécurité" du légendaire investisseur Benjamin Graham.
Les économistes comportementaux ont décrit le problème du biais d'échantillonnage en étudiant la manière dont les humains apprennent. Mais les réseaux neuronaux pourraient souffrir de défauts similaires. Les machines intelligentes, tout comme les humains naturellement stupides, devront faire face au fait irritant que l'absence de preuve n'est presque jamais une preuve d'absence.
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
L'origine de ce problème réside dans le fait que les systèmes humains sont intrinsèquement adaptatifs, ce qui n'est pas le cas des systèmes physiques. Les gens comprennent et tentent de déjouer les efforts de prédiction de leur comportement s'ils sentent que cela va à l'encontre de leurs intérêts. Ce n'est pas le cas des acides aminés impliqués dans le pliage des protéines.
Une fois encore, ces défis pratiques sont bien documentés dans le domaine de l'investissement. La négociation de titres est un jeu à somme nulle : le gain en capital d'un investisseur est la perte en capital d'un autre. Par conséquent, il existe une incitation puissante et automatique pour le reste du marché à s'adapter et à annuler les règles de négociation qui ont fait leurs preuves dans le passé dès qu'elles sont identifiées. La loi de Goodhart explique pourquoi les rendements excédentaires des stratégies d'investissement systématiques s'érodent généralement avec le temps. La question de savoir si l'IA parviendra mieux à échapper à sa gravité reste ouverte.
Les investisseurs seraient bien en peine d'ignorer les résultats spectaculaires que l'IA a produits jusqu'à présent. Mais lorsqu'il s'agit d'applications plus larges, ils doivent faire preuve de prudence. L'intelligence artificielle pourrait avoir plus en commun avec la stupidité naturelle que les humains - ou les machines - ne le pensent actuellement.
Le texte montre que l’intelligence artificielle (IA) est un phénomène majeur qui transforme l’économie et les marchés financiers, mais qui comporte aussi des dangers et des défis. Il invite les investisseurs à ne pas se laisser emporter par l’enthousiasme irrationnel pour l’IA, mais à adopter une approche plus critique et plus prudente, en tenant compte des facteurs psychologiques, émotionnels et sociaux qui influencent leurs choix. Il suggère que l’économie comportementale, qui étudie la bêtise naturelle, peut être un outil utile pour mieux comprendre et exploiter l’IA.
Sources : Bill Gates, DT NEXT
Et vous ?
« L'essor de l'IA pourrait révéler la stupidité naturelle des investisseurs », partagez-vous cet avis ?
Quel est votre avis sur le sujet ?
Voir aussi :
Bill Gates affirme que l'essor de l'IA menace les bénéfices que Google tire de son moteur de recherche, mais la recherche via Bing Chat et Bard entraîne plusieurs milliards de dollars de surcoûts
Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir
Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies.
« En l'absence de réglementation, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes », a déclaré Massimilano Cimnaghi, expert européen en gouvernance des données au sein du cabinet de conseil BIP. « S'il s'agit de protéger des données personnelles, ils appliquent les lois sur la protection des données, s'il s'agit d'une menace pour la sécurité des personnes, il existe des réglementations qui n'ont pas été spécifiquement définies pour l'IA, mais elles sont toujours applicables. »
En avril, les organismes nationaux de surveillance de la vie privée en Europe ont mis en place un groupe de travail pour traiter les problèmes liés à ChatGPT après que le régulateur italien Garante a fait mettre le service hors ligne, accusant OpenAI de violer le GDPR de l'UE, un régime de protection de la vie privée de grande envergure promulgué en 2018. ChatGPT a été rétabli après que l'entreprise américaine a accepté d'installer des fonctions de vérification de l'âge et de laisser les utilisateurs européens bloquer leurs informations pour qu'elles ne soient pas utilisées pour entraîner le modèle d'IA.
L’IA serait le seul moteur qui anime les marchés boursiers « déprimés » par la montée historique des taux d’intérêt américains
La semaine dernière, Manish Kabra, analyste chez SocGen, a calculé que sans les profits liés à l’IA, l’indice S&P 500 (.SPX) aurait chuté de 2 % depuis le début de l’année. Au contraire, il a progressé de 8 %. Le boom a même des impacts macroéconomiques.
Toujours la semaine dernière, le ministre irlandais des Finances, Michael McGrath, a dévoilé les plans d’un nouveau fonds souverain de 90 milliards d’euros, nourri en grande partie par une manne fiscale provenant des géants de la technologie comme Apple et Microsoft, qui ont leur siège dans le pays. Pour d’autres entreprises, les lacunes perçues face à l’IA peuvent être mortelles. Les actions de Chegg se sont effondrées au début du mois lorsque le fabricant de matériel d’étude a admis que les modèles de langage à grande échelle, comme ChatGPT, lui faisaient perdre des parts de marché.
Les modèles classiques d’évaluation des actifs suggèrent que ces variations excessives reflètent des évaluations fluctuantes, mais raisonnables de la rentabilité future. Mais l’économie comportementale offre depuis longtemps une autre explication en listant une série de biais systématiques dans la prise de décision humaine. Ces biais vont du comportement moutonnier et de la surconfiance au biais de confirmation et à la crainte de rater. C’est le moment pour les investisseurs d’être particulièrement vigilants à la tendance de la bêtise naturelle à pousser les valorisations boursières à des niveaux irréalistes - et donc finalement non rentables.
Cependant, les leçons les plus importantes de l'économie comportementale concernent une question plus fondamentale : la nouvelle génération d'IA tiendra-t-elle ses promesses ? La technologie a déjà obtenu des résultats impressionnants. En novembre 2020, AlphaFold de Google DeepMind a stupéfié le monde scientifique en réalisant une avancée dans l'un des grands défis de la biologie moléculaire. Il a prédit les structures dans lesquelles les protéines se "plient" en se basant uniquement sur les séquences des acides aminés qui les composent. Venki Ramakrishnan, lauréat du prix Nobel et président de la Royal Society britannique à l'époque, a qualifié cette avancée de « changement fondamental dans la recherche biologique ».
AlphaFold a démontré ce qui est généralement considéré comme la plus grande force de l'IA : sa capacité à reconnaître des modèles qui échappent à la fois à l'intuition humaine et à l'analyse statistique traditionnelle, puis à exploiter ces modèles à des fins prédictives. C'est cette même capacité qui a permis à l'IA de vaincre des adversaires humains dans des jeux stratégiques tels que les échecs et le go, et au ChatGPT de produire une prose étrangement cohérente.
La grande inconnue est de savoir si l'IA sera capable de reproduire cette extraordinaire possibilité de prédiction dans des domaines de la vie commerciale, financière et politique où les règles sont plus floues. L'économie comportementale propose quelques mises en garde contre les tentatives d'application sauvage de l'IA.
L'un des écueils potentiels est le problème du « biais d'échantillonnage » lors de la construction de modèles prédictifs basés sur l'apprentissage statistique. Le problème réside dans le fait que les ensembles de données utilisés pour former les modèles peuvent omettre des événements rares, mais importants. Par exemple, les rendements des marchés boursiers peuvent être influencés par un petit nombre de mouvements rares.
C'est pourquoi les sociétés de trading quantitatif ont souvent renoncé aux stratégies d'exploration de données pures au profit d'approches dans lesquelles la probabilité de ce que l'on appelle les risques de queue est supposée plutôt qu'apprise. Les investisseurs moins avertis sur le plan technique adoptent leur propre version de la même tactique lorsqu'ils déploient de simples heuristiques telles que la "marge de sécurité" du légendaire investisseur Benjamin Graham.
Les économistes comportementaux ont décrit le problème du biais d'échantillonnage en étudiant la manière dont les humains apprennent. Mais les réseaux neuronaux pourraient souffrir de défauts similaires. Les machines intelligentes, tout comme les humains naturellement stupides, devront faire face au fait irritant que l'absence de preuve n'est presque jamais une preuve d'absence.
Et puis il y a peut-être le problème le plus frustrant de tous lorsqu'il s'agit de modéliser et de manipuler le comportement humain : la loi de Goodhart. Il s'agit du paradoxe, énoncé pour la première fois par Charles Goodhart, fonctionnaire de la Banque d'Angleterre, en 1975, selon lequel lorsqu'une mesure devient un objectif politique, elle cesse d'être une mesure fiable. Par exemple, les agrégats monétaires étaient autrefois de bons indicateurs de l'inflation. Mais lorsque les banques centrales ont adopté des objectifs basés sur ces chiffres, la corrélation stable a disparu.
L'origine de ce problème réside dans le fait que les systèmes humains sont intrinsèquement adaptatifs, ce qui n'est pas le cas des systèmes physiques. Les gens comprennent et tentent de déjouer les efforts de prédiction de leur comportement s'ils sentent que cela va à l'encontre de leurs intérêts. Ce n'est pas le cas des acides aminés impliqués dans le pliage des protéines.
Une fois encore, ces défis pratiques sont bien documentés dans le domaine de l'investissement. La négociation de titres est un jeu à somme nulle : le gain en capital d'un investisseur est la perte en capital d'un autre. Par conséquent, il existe une incitation puissante et automatique pour le reste du marché à s'adapter et à annuler les règles de négociation qui ont fait leurs preuves dans le passé dès qu'elles sont identifiées. La loi de Goodhart explique pourquoi les rendements excédentaires des stratégies d'investissement systématiques s'érodent généralement avec le temps. La question de savoir si l'IA parviendra mieux à échapper à sa gravité reste ouverte.
Les investisseurs seraient bien en peine d'ignorer les résultats spectaculaires que l'IA a produits jusqu'à présent. Mais lorsqu'il s'agit d'applications plus larges, ils doivent faire preuve de prudence. L'intelligence artificielle pourrait avoir plus en commun avec la stupidité naturelle que les humains - ou les machines - ne le pensent actuellement.
Le texte montre que l’intelligence artificielle (IA) est un phénomène majeur qui transforme l’économie et les marchés financiers, mais qui comporte aussi des dangers et des défis. Il invite les investisseurs à ne pas se laisser emporter par l’enthousiasme irrationnel pour l’IA, mais à adopter une approche plus critique et plus prudente, en tenant compte des facteurs psychologiques, émotionnels et sociaux qui influencent leurs choix. Il suggère que l’économie comportementale, qui étudie la bêtise naturelle, peut être un outil utile pour mieux comprendre et exploiter l’IA.
Sources : Bill Gates, DT NEXT
Et vous ?
Voir aussi :
-
schlebeMembre actifLa moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.
Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.
Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.
Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.le 08/06/2023 à 19:26 -
Jon ShannowMembre extrêmement actifHeu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...le 09/06/2023 à 14:59
-
totozorMembre expertC'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)
Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient
Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.le 09/06/2023 à 15:48 -
e-ricMembre expertSalut à tous
Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.
tchüssle 16/06/2023 à 9:42 -
petitoursMembre chevronnéUne fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.le 31/01/2024 à 8:42 -
chrtopheResponsable SystèmesPas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public
Je modifierais par :
Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises
pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics
en gros effondrement de notre modèle.
Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.
Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.
Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.le 09/06/2023 à 13:53 -
xavier-PierreMembre éclairéSelon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecinele 21/07/2023 à 8:10
-
calvaireExpert confirménon, le full remote n'a jamais été l'avenir.
c'est le travail hybride qui était l'avenir et clairement ca prends, je trouve aucune boite en it qui impose du 100% en présentiel (et heureusement sinon ils trouverait personne), c'est 2-3j de télétravail/semaines.
capgemini (la plus grosse esn) c'est 4 jours de télétravail/semaines par exemple.
tu raisonnes en mode "l'état me le finance gratos ou hj'ai les moyens de me le payer"
dans les pays anglo-saxons, les populations s'appauvrisses avec l'inflation, ils a des grande coupe budgétaire à faire. éduquer ces enfants par chatgpt et se faire soigner par chatgpt c'est leurs seul solution pour survivre hélas.
dans les pays disons plus "socialiste" comme la France, les gens sont pauvres aussi mais peuvent encore avoir accès a ces services gratos. Mais la dette explose et quand faudra la rembourser, l'état va devoir bien tailler dans les dépenses, donc les flics ce seront des drones de combats autonomes, les profs remplacer par des bots et les docteurs (y'a déjà une pénurie) remplacer par chatgpt.
Faut bien payer la dette.
les pays comme la Roumanie, la France leurs volent leurs médecins, eux n'ont donc plus le choix c'est chatgpt ou crève.
La 5G ou les voitures électriques sont des fiascos industriels car les gens n'ont pas les moyens de se payer ces technos. Je me demande qui va acheter les batteries qu'ils vont produire dans le nord. La moyenne d'âge pour l'achat une voiture neuve en france c'est...57ans
donc la relance par l'industrie c'est juste une grosse blague.
et en 2027 ce sera la taxe carbone ne qui va venir (450€/ans)
donc les gens n'ont plus les moyens d'aller voir un médecin, de se payer un avocat ou d'aller a l'école, aujourd'hui beaucoup de francais peuvent juste acheter des pates le soir (le midi ils sautent le repas) pour se nourrir et acheter une tablette wiko pour lancer chatgpt pour s'instruire et se soigner.
C'est extrême ce que je dis mais lentement et surement on y va. Actuellement l'état est tellement dans la merde niveau finance qu'il en est a réfléchir a devenir copropriétaire de tous les bien immobilier de France pour déduire la dette. Donc de t'expropriée à terme.
Les entreprises doivent absolument alimenter la croissance pour les actionnaires, a n'importe quel prix, donc licenciements massifs obligatoire, même si la qualité est mauvaise.le 07/06/2023 à 9:40 -
kain_tnExpert éminentFaux. ChatGPT, comme toutes les IA génératives est capable de te raconter un tissu de mensonges. Tu as même un article aujourd'hui sur l'exploitation de ces IA pour inciter les devs à intégrer des packages malveillants dans leurs projets...
Les données, il faut les classer correctement. L'argument des données, c'est celui utilisé par Tesla pour dire que leurs voitures autonomes sont au top, et plus sûres qu'une voiture conventionnelle. Et pourtant, il suffit de chercher sur ce forum (avec le leak Tesla récent) pour voir que ce n'est pas vrai et qu'ils cachent les problèmes sous le tapis...
Pas besoin. Une IA générative = une grosse société derrière. Ils feront simplement des partenariats financiers et leur IA dira ce qu'il faudra. Pour le prochain scandale du Mediator, ce sera plus simple de corrompre quelqu'un de chez OpenAI (ou autre), que tout un tas de médecins.le 08/06/2023 à 15:41 -
PomFritzMembre confirméJe n'ai aucune idée des références de ce monsieur. Mais, avec toutes les prédictions sur les voitures autonomes, les cryptos, le métavers, les objets connectés, etc... , on voit qu'on est toujours ratrappé par la complexité de la réalité.le 08/06/2023 à 20:21