IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le conseil d'administration d'OpenAI, composé de six membres, décidera « quand nous aurons atteint l'IAG »
Que la société définit comme « un système hautement autonome qui surpasse les humains »

Le , par Stéphane le calme

0PARTAGES

14  0 
OpenAI a annoncé la formation d’un conseil d’administration de six membres qui aura le pouvoir de décider quand l’organisation aura atteint son objectif ultime: l’intelligence artificielle générale (IAG), que l'entreprise définit comme « un système hautement autonome qui surpasse les humains dans le travail le plus économiquement rentable ». Grâce à une branche à but lucratif qui est « légalement tenue de poursuivre la mission de l'organisation à but non lucratif », une fois que le conseil d'administration aura décidé que l'IAG a été atteinte, un tel système sera « exclu des licences de propriétés intellectuelles et autres conditions commerciales avec Microsoft », qui ne s’appliquent qu’à la technologie pré-IAG.

L'IAG est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.

OpenAI considère que l’IAG est une technologie potentiellement révolutionnaire, mais aussi très risquée, qui nécessite une gouvernance et une supervision rigoureuses. C’est pourquoi OpenAI a mis en place un conseil d’administration composé de six membres, qui a le pouvoir de décider quand l’organisation a atteint l’IAG (en se basant sur des critères objectifs et mesurables) et comment elle doit la gérer. Le conseil d’administration a la responsabilité de définir la vision, la stratégie et les principes d’OpenAI, ainsi que d’approuver les projets, les budgets et les embauches.

Selon la structure d’OpenAI, l’IAG est exclue des licences de propriété intellectuelle et des autres termes commerciaux avec Microsoft, qui ne s’appliquent qu’à la technologie pré-IAG.


La branche à but lucratif est soumise à la mission à but non lucratif d'OpenAI

L'information a été incluse dans un fil de discussion sur X ce week-end par Logan Kilpatrick, Developer Relations pour le compte d'OpenAI. Kilpatrick répondait à un commentaire du président de Microsoft, Brad Smith, qui, lors d'un récent panel avec le scientifique en chef de Meta, Yann LeCun, a tenté de présenter OpenAI comme étant plus fiable en raison de son statut « à but non lucratif » (même si le Wall Street Journal a récemment rapporté qu'OpenAI recherche une nouvelle valorisation pouvant atteindre 90 milliards de dollars dans le cadre d'une vente d'actions existantes).

Smith a déclaré : « Meta appartient aux actionnaires. OpenAI appartient à une organisation à but non lucratif. En quoi auriez-vous le plus confiance ? Obtenir votre technologie auprès d’une entreprise à but non lucratif ou à but lucratif entièrement contrôlée par un seul être humain*?*»

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">"Meta is owned by shareholders. OpenAI is owned by a non-profit. Which would you have more confidence in? Getting your technology from a non-profit or a for profit company that is entirely controlled by one human being" -- Brad Smith, Microsoft <br><br>... absolutely ridiculous <a href="https://t.co/ubpblmdut5">pic.twitter.com/ubpblmdut5</a></p>— martin_casado (@martin_casado) <a href="https://twitter.com/martin_casado/status/1723112508234539270?ref_src=twsrc%5Etfw">November 10, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Dans son fil de discussion, Kilpatrick a cité la page « Notre structure » sur le site Web d’OpenAI, qui offre des détails sur la structure complexe à but non lucratif/à profit plafonné d’OpenAI. Selon la page, la filiale à but lucratif d’OpenAI est « entièrement contrôlée » par l’organisation à but non lucratif OpenAI (qui est enregistrée dans le Delaware). Alors que la filiale à but lucratif OpenAI Global, LLC – qui semble avoir quitté la société en commandite OpenAI LP, précédemment annoncée en 2019, environ trois ans après la création de l'organisation à but non lucratif OpenAI originale – est « autorisée à réaliser et à distribuer des bénéfices, » elle est soumise à la mission de l'association.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">If you are skeptical of <a href="https://twitter.com/OpenAI?ref_src=twsrc%5Etfw">@OpenAI</a>’s non-profit / capped profit structure, please consider reading this page which goes into the detail. <br><br>I see so many people confused about how the structure works, share it with a skeptic! <a href="https://t.co/Apo5vamsIX">https://t.co/Apo5vamsIX</a></p>— Logan.GPT (@OfficialLoganK) <a href="https://twitter.com/OfficialLoganK/status/1723383548428591312?ref_src=twsrc%5Etfw">November 11, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Il semble certainement qu'une fois qu'OpenAI aura atteint sa mission déclarée d'atteindre l'IAG, Microsoft sera hors du coup et ce même si lors de l'OpenAI Dev Day de la semaine dernière, le PDG d'OpenAI, Sam Altman, a déclaré au PDG de Microsoft, Satya Nadella, que « je pense que nous avons le meilleur partenariat dans le domaine de la technologie… Je suis ravi que nous puissions construire l'IAG ensemble ».

Et dans une nouvelle interview avec Altman dans le Financial Times, Altman a déclaré que le partenariat OpenAI/Microsoft « fonctionnait très bien » et qu'il espérait « récolter beaucoup plus au fil du temps ». Et lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ». « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'IAG... les dépenses de formation sont tout simplement énormes », a-t-il ajouté.

Dès le début, selon les détails de la structure d’OpenAI, Microsoft « a accepté notre offre d’actions plafonnée et notre demande de laisser les technologies et la gouvernance IAG à l’organisation à but non lucratif et au reste de l’humanité ».

Le conseil d'administration d'OpenAI

Un porte-parole d’OpenAI a déclaré que « la mission d’OpenAI est de créer une IAG sûre et bénéfique pour tous. Notre conseil d'administration dirige l'entreprise et consulte divers points de vue d'experts externes et de parties prenantes pour l'aider à éclairer sa réflexion et ses décisions. Nous nommons et nommons les membres du conseil d’administration en fonction de leurs compétences, de leur expérience et de leur point de vue sur la technologie, la politique et la sécurité de l’IA.

Actuellement, le conseil d'administration à but non lucratif d'OpenAI est composé du président et président Greg Brockman, du scientifique en chef Ilya Sutskever et du PDG Sam Altman, ainsi que des non-employés Adam D'Angelo, Tasha McCauley et Helen Toner.

D'Angelo, PDG de Quora, ainsi que l'entrepreneur technologique McCauley et Honer, directeur de la stratégie du Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, ont tous été liés au mouvement de l'altruisme efficace – qui a été critiqué. plus tôt cette année pour ses liens avec Sam Bankman-Fried et FTX, ainsi que pour sa vision « dangereuse » de la sécurité de l'IA. Et OpenAI entretient depuis longtemps ses propres liens avec EA : par exemple, en mars 2017, OpenAI a reçu une subvention de 30 millions de dollars d'Open Philanthropy, financée par Effective Altruists. Et Jan Leike, qui dirige l’équipe de superalignement d’OpenAI, se serait identifié au mouvement EA.

Le porte-parole d'OpenAI a déclaré « qu'aucun des membres de notre conseil d'administration n'est un altruiste efficace », ajoutant que « les membres non salariés du conseil d'administration ne sont pas des altruistes efficaces ; leurs interactions avec la communauté EA sont axées sur des sujets liés à la sécurité de l’IA ou pour offrir le point de vue d’une personne non étroitement impliquée dans le groupe ».


La prise de décision du conseil d’administration en matière d’IAG est « inhabituelle »

Suzy Fulton, qui propose des services juridiques externalisés aux startups et aux entreprises émergentes du secteur technologique, a déclaré que même si dans de nombreuses circonstances, il serait « inhabituel » qu'un conseil d'administration prenne cette décision sur l'IAG, Le conseil d’administration à but non lucratif d’OpenAI a son devoir fiduciaire de soutenir sa mission de fournir « une IAG sûre et largement bénéfique ».

« Ils croient que le bénéficiaire du conseil d’administration à but non lucratif est l’humanité, alors que le conseil d’administration à but lucratif sert ses investisseurs », a-t-elle expliqué. « Une autre garantie qu'ils tentent d'instaurer est d'avoir un conseil d'administration majoritairement indépendant, où la majorité des membres n'ont pas de participation dans Open AI ».

Était-ce la bonne façon de mettre en place une structure d’entité et un conseil d’administration pour prendre cette décision cruciale*? « Nous ne connaîtrons peut-être pas la réponse jusqu'à ce que leur conseil d'administration la prenne », a déclaré Fulton.

Anthony Casey, professeur à la faculté de droit de l'Université de Chicago, convient que le fait que le conseil d'administration décide de quelque chose d'aussi spécifique sur le plan opérationnel que l'IAG est « inhabituel », mais il ne pense pas qu'il y ait d'obstacle juridique.

« Cela devrait être une bonne chose d'identifier spécifiquement certaines questions qui doivent être soulevées au niveau du Conseil d'administration », a-t-il déclaré. « En effet, si une question est suffisamment importante, le droit des sociétés impose généralement aux administrateurs l’obligation d’exercer une surveillance sur cette question », en particulier sur les « questions critiques pour la mission ».

C'est peut-être cette question d'indépendance qui a poussé le PDG d'OpenAI à ne pas céder le contrôle d'OpenAI à une puissante entreprise technologique.

« Lorsque nous développerons la superintelligence, nous prendrons probablement des décisions que les investisseurs des marchés publics verraient de manière très étrange », a déclaré Sam Altman lors d'un événement à Abu Dhabi plus tôt cette année, selon Bloomberg. « J'aime ne pas être en conflit, et je pense que la possibilité que nous devions prendre un jour une décision très étrange n'est pas triviale », a-t-il ajouté lorsqu'il a été interrogé sur sa décision de ne prendre aucune participation dans OpenAI.

D'accord, mais l'IAG arrive-t-elle bientôt ?

Du côté des experts, la réponse n'est pas unanime : si certains en doute, d'autres se demandent si cela est même possible.

Merve Hickok, qui est à la tête du Center for AI and Digital Policy, ne veut même pas débattre sur la taille ou la diversité du conseil d'administration d'OpenAI dans le contexte de savoir qui doit déterminer si OpenAI a « atteint » ou non l'IAG, affirmant que cela détourne l'attention des discussions sur la légitimité de leur mission et de leurs revendications sous-jacentes. « Cela modifierait l’orientation et légitimerait de facto les affirmations selon lesquelles l’IAG est possible », a-t-elle déclaré.

Plus tôt cette année, elle indiquait que leur concentration sur l’IAG « a ignoré l’impact actuel » des modèles et des outils d’IA.

Il faut dire qu'il n'a pas tardé à se faire ressentir. Par exemple, dans le domaine des travailleurs indépendants, l'arrivée de ChatGPT a entraîné une baisse de 2 % des offres d'emploi et de 5,2 % des revenus mensuels des freelances.

Sources : structure OpenAI, LoganGPT, Planification pour l'IAG et au-delà (OpenAI)

Et vous ?

Comment définiriez-vous l'IAG ? Ce niveau d'IA vous semble-t-il proche d'être atteint ou même réalisable ? Pourquoi ?
Que pensez-vous du fait qu'OpenAI voudrait que six personnes que la structure a désigné décide si l'IAG a été atteinte par leur boîte ou non ? Cela vous semble-t-il raisonnable ? Dans quelle mesure ?
Qui devrait, selon vous, décider qu'une IA a atteint le niveau d'IAG ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 03/06/2024 à 12:03
Citation Envoyé par Jules34 Voir le message
C'est hallucinant non ?P
Ben, non.

Le monsieur prépare juste sa défense quand il finira devant un tribunal parce que son "IA machin" a entrainé des catastrophes.

Rappelez-vous du charmant fondateur de Facebook Mark Zuckerberg mis en accusation par des sénateurs lors d'auditions organisées par les autorités américaines: Il a beaucoup pleuré, a dit qu'il ne savait pas et... s'est excusé platement de ne pas avoir fait plus pour éviter les dérives...

Et après? Ben rien! Il a déposé sa cravate et son costard (cela servira pour les prochaines auditions), il a remis son jeans et son T-shirt sale puis a continué comme avant sa vie de milliardaire
5  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 18/11/2023 à 11:32
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!" reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
5  1 
Avatar de nefelpitto
Membre du Club https://www.developpez.com
Le 19/11/2023 à 6:50
Citation Envoyé par Anselme45 Voir le message
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!" reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
Faut arreter avec le délire du vilain capitalisme
Le défenestrage de Sam Altman a été orchestré par Ilya Sutskever, un autre co-fondateur, qui lui est scientifique en chef de l'entreprise. En gros, le Technicien, celui qui comprend vraiment le produit, a viré le Commercial. Il me semble que l'année dernière des employés sous couvert d'anonymat avaient déja critiqué Altman pour n'avoir qu'une compréhension superficielle des LLMs. Ce n'est finalement pas tres different de ce qu'avait fait John Carmack a John Romero. Franchement perso je préfère ca que le contraire.
4  1 
Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 16/10/2024 à 15:09
Tant que les réponses ne seront pas plus fiables qu’actuellement, pourquoi payer ?
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 03/06/2024 à 9:50
C'est hallucinant non ? C'est comme si le Président de Ferrrari expliquait calmement qu'il ne savait même plus comment ses voitures avancent mais que c'est pas grave tant qu'elles avancent !

Je caricature mais c'est un peu flippant quand même.

Et je pense tout de suite au début de l'IA, comme le walk out d'amazon, qui en fait sont juste des milliers de travailleurs sous payés en Inde, donc effectivement vu sous cet angle c'est mieux si le PDG dit qu'il sait même plus comment ça fonctionne, il risque moins gros
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 4:06
Citation Envoyé par kain_tn Voir le message
Il existe encore, ce type là? Je croyais que la bulle des IA génératives était en train d'éclater et que les investisseurs commençaient enfin à douter et à retirer leurs billes... Oh wait! C'est pour ça qu'il continue de raconter n'importe quoi
Les annonces d'altman ressemble de plus en plus à celle de musk. ça me fais pensé à Bubka, le spécialiste du saut à la perche dans les années 80. Il ne battait jamais son propre record que d'un centimetre à la fois, car à chaque fois qu'il battait ce record, il touchait un max de l'organisateur d'un meeting. S'il avait battu son record de 5 cm quand il avait la condition et la possibilité de le faire, il ne le faisait pas. Je crois qu'il a augmenté son record une bonne vingtaine de fois. Il était malin.

BàT et Peace & Love
2  0 
Avatar de d_d_v
Membre éprouvé https://www.developpez.com
Le 17/10/2024 à 10:14
Je dirais que le minimum serait d'avoir un score d'évaluation de la fiabilité de la réponse. Et si l'IA est réellement intelligente, elle devrait pouvoir estimer qu'elle n'a pas assez de données pour répondre et dire "je ne sais pas" ou au moins "je ne suis pas sûr" comme un humain répondrait (sauf un politique).
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 16/11/2023 à 0:23
Je verrais plutôt cette question:


Que pensez-vous des communications à outrance de OpenIA, ces temps?
Je pense que toutes ces déclarations de Altman et la diarrhée d'articles qui s'en suit un peu partout dans les médias sert uniquement à demander plus d'argent aux actionnaires.
2  1