IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI : «l'IAG sera atteinte lorsque nous aurons développé un système d'IA qui va générer au moins 100 milliards de dollars de bénéfices»
Des documents divulgués montrent sa définition contractuelle de l'IAG

Le , par Stéphane le calme

161PARTAGES

12  0 
OpenAI : « l'IAG sera atteinte lorsque nous aurons développé un système d'IA capable de générer au moins 100 milliards de dollars de bénéfices »,
des documents divulgués montrent que l'entreprise a une définition claire de l'IAG

Selon des documents, OpenAI et Microsoft ont défini conjointement l'intelligence générale artificielle (IAG) comme un système pouvant générer 100 milliards de dollars de bénéfices. Cette définition faisait partie d'un accord conclu en 2023 entre les deux entreprises technologiques. Cependant, la définition publique de l'IAG donnée par OpenAI sur son site web est différente, la décrivant comme « un système hautement autonome qui surpasse les humains dans la plupart des travaux économiquement valables ».

Il n'existe pas de définition fixe de ce qu'est l'IAG et il y a donc des différends sur la question de savoir si elle a été atteinte ou non ; certaines personnes pensent même que nous avons atteint l'IAG, tandis que d'autres estiment qu'il faudra encore des décennies pour s'en approcher.


Selon un rapport de The Information, Microsoft et OpenAI ont une définition interne très précise de l'intelligence artificielle générale (IAG), basée sur les bénéfices de la startup. Selon cette définition, OpenAI est encore loin de l'atteindre. Les deux entreprises auraient signé l'année dernière un accord stipulant qu'OpenAI n'atteindra l'IAG que lorsqu'elle développera des systèmes d'IA capables de générer au moins 100 milliards de dollars de bénéfices. On est bien loin de la définition technique et philosophique rigoureuse de l'IAG que beaucoup attendent.

Cette année, OpenAI devrait perdre des milliards de dollars, et la startup annonce aux investisseurs qu'elle ne dégagera pas de bénéfices avant 2029.

Il s'agit d'un détail important, car Microsoft va perdre l'accès à la technologie d'OpenAI lorsque la startup va atteindre l'IAG, un terme nébuleux qui a une signification différente pour chacun. Certains ont émis l'hypothèse qu'OpenAI déclarerait l'IAG plus tôt que tard afin d'évincer Microsoft, mais cet accord signifie que Microsoft pourrait avoir accès aux modèles d'OpenAI pendant une décennie ou plus.

La semaine dernière, certains se sont demandé si le modèle o3 d'OpenAI constituait un pas significatif vers l'IAG. Si o3 est plus performant que d'autres modèles d'IA, il s'accompagne également de coûts de calcul importants, ce qui n'augure rien de bon pour OpenAI et la définition de l'IAG centrée sur le profit de Microsoft.

Quoiqu'il en soit, il est très important de disposer d'une définition mesurable de l'IAG car, une fois atteinte, Microsoft n'aura plus accès aux modèles d'OpenAI et devra développer les siens pour être compétitif.

Le conseil d'administration d'OpenAI déterminera l'atteinte de l'IAG

C'est le conseil d'administration de l'OpenAI, organisme à but non lucratif, qui décidera si l'IAG a été réalisée. La société a expliqué sur son site web « qu'un tel système est exclu des licences de propriété intellectuelle et des autres conditions commerciales avec Microsoft, qui ne s'appliquent qu'à la technologie pré-AGI ». Il est donc clair que les technologies pré-AGI et AGI sont clairement séparées dans leurs accords commerciaux avec Microsoft.


Projections financières de l'OpenAI et calendrier de l'AGI

Malgré la définition ambitieuse de l'AGI, OpenAI s'attend à subir des pertes importantes dans les années à venir. L'entreprise s'attend à être déficitaire de quelque 44 milliards de dollars entre 2023 et 2028, avec la possibilité d'atteindre un chiffre d'affaires de 100 milliards de dollars d'ici à 2029. Ces prévisions ont été rapportées par The Information en octobre, citant des documents financiers auxquels il avait eu accès.

Les perspectives optimistes du PDG d'OpenAI sur le développement de l'IAG

Le PDG d'OpenAI, Sam Altman, s'est montré optimiste sur le développement de l'IAG lors d'une interview au New York Times DealBook Summit au début du mois.

« Je pense que nous atteindrons l'IAG plus tôt que ne le pensent la plupart des gens dans le monde et que cela aura beaucoup moins d'importance », a-t-il déclaré lors d'une interview avec Andrew Ross Sorkin.

« Et une grande partie des préoccupations en matière de sécurité que nous et d'autres avons exprimées ne se posent pas au moment de l'IAG. L'IAG peut être construite, le monde continue à peu près de la même manière, les choses se développent plus rapidement, mais il y a ensuite une longue suite entre ce que nous appelons l'IAG et ce que nous appelons la superintelligence ».

Ce n'est pas la première fois qu'Altman minimise l'arrivée apparemment imminente de l'IAG, qui, selon la charte d'OpenAI, sera capable « d'automatiser la grande majorité du travail intellectuel ». Il a récemment laissé entendre qu'elle pourrait arriver dès 2025 et qu'elle serait réalisable sur du matériel existant.

Lors du sommet DealBook, Altman a donné l'impression que la définition de l'IAG par OpenAI est désormais moins grandiose qu'elle ne l'était auparavant. « Je m'attends à ce que la perturbation économique prenne un peu plus de temps que les gens ne le pensent parce qu'il y a beaucoup d'inertie dans la société », a-t-il déclaré. « Ainsi, au cours des deux premières années, il n'y aura peut-être pas beaucoup de changements. Ensuite, il se peut que beaucoup de choses changent ».


Microsoft n'attend pas ce délai pour réduire sa dépendance à l'égard des modèles d'OpenAI qui alimentent Copilot

Selon un nouveau rapport, Microsoft prévoit de réduire sa dépendance à l'égard des modèles OpenAI qui alimentent son Microsoft 365 Copilot. L'entreprise souhaite notamment diversifier les modèles d'IA utilisés dans le Copilot 365 et intégrer ses propres modèles d'IA ainsi que ceux d'autres fournisseurs. Ce rapport fait suite à l'annonce d'une importante mise à jour de l'interface utilisateur de Microsoft 365. Ce changement de stratégie en matière d'IA vise à résoudre les problèmes de coût et de performance auxquels sont confrontés les utilisateurs de Microsoft 365 Copilot.

Lorsque Microsoft a annoncé 365 Copilot en mars 2023, son intégration avec GPT-4 d'OpenAI était un argument de vente clé. Cependant, les coûts élevés et les vitesses lentes associés au modèle auraient incité Microsoft à réduire sa dépendance à l'égard d'OpenAI et à rechercher d'autres solutions d'IA pour améliorer les performances et l'accessibilité financière pour les utilisateurs professionnels. Microsoft a confirmé que son partenariat avec OpenAI restait intact, ajoutant que la société « incorpore divers modèles d'OpenAI et de Microsoft en fonction du produit et de l'expérience ».

Microsoft forme également ses modèles, tels que le nouveau Phi-4, et ses autres modèles open-weight pour rendre 365 Copilot plus rapide et plus efficace. Cette approche vise à réduire les coûts opérationnels et à faire bénéficier ses clients des mêmes économies. Non seulement cela, mais Microsoft a appliqué une stratégie similaire dans d'autres domaines de son activité. GitHub, acquis par Microsoft en 2018, a récemment intégré des modèles d'IA d'Anthropic et de Google au-dessus du GPT-4 d'OpenAI.

En outre, le chatbot Copilot de Microsoft utilise désormais lui aussi un modèle d'IA interne aux côtés de la technologie d'OpenAI. Selon des sources proches du dossier, le PDG de Microsoft, Satya Nadella, et d'autres dirigeants de l'entreprise suivent de près les efforts déployés pour renforcer l'offre de Microsoft en matière d'IA, améliorer le rapport coût-efficacité et rester compétitifs sur le marché. Tout cela témoigne de leur importance pour la stratégie à long terme de l'entreprise.

Open weight contre open source pour les modèles de langage

Lorsqu'un modèle de langage de grande taille (LLM) est rendu public, il convient de faire une distinction importante entre la fourniture "open weights" et le fait de rendre le modèle "open source".

L'expression "open weights" signifie que seuls les paramètres ou les poids pré-entraînés du modèle de réseau neuronal lui-même sont rendus publics. Cela permet à d'autres d'utiliser le modèle à des fins d'inférence et de mise au point. Toutefois, le code d'entraînement, l'ensemble de données d'origine, les détails de l'architecture du modèle et la méthodologie d'entraînement ne sont pas fournis.

La confusion vient du fait que certaines personnes qualifient à tort l'IA "open weights" d'open source, alors qu'il ne s'agit pas d'un code source. Cette situation est problématique car elle conduit à des malentendus sur la nature de ces deux composants différents.

Pour simplifier :
  • Code source : Le code source est lisible par l'homme, débogable et modifiable. Il s'agit des instructions relatives à la création d'un logiciel ou d'un algorithme. Dans le contexte de l'IA, le terme "open source" fait référence à la disponibilité du code source pour modification et distribution.
  • Weights (littéralement poids en français) : Les poids sont les résultats de l'entraînement sur les données et ne sont pas lisibles par l'homme ou déboguables. Ils représentent les connaissances qu'un réseau neuronal artificiel a apprises. Dans le contexte de l'IA, l'expression "open weights" fait référence à la disponibilité de ces poids à des fins d'utilisation ou de modification.

La publication en "open weights" permet un accès plus large à des modèles puissants, mais limite la transparence, la reproductibilité et la personnalisation. Les personnes qui utilisent des modèles "open weights" s'appuient sur les représentations et les jugements des créateurs du modèle original sans être en mesure d'inspecter ou de modifier entièrement le modèle.

En revanche, la publication d'un modèle en tant qu'open source impliquerait la fourniture de l'ensemble du code source et des informations nécessaires au réentraînement du modèle à partir de zéro. Cela comprend le code de l'architecture du modèle, la méthodologie d'apprentissage et les hyperparamètres, l'ensemble de données d'apprentissage d'origine, la documentation et d'autres détails pertinents.

Source : OpenAI, Microsoft

Et vous ?

Que pensez-vous de la définition de l’IAG par un objectif de profit de 100 milliards de dollars ? D'ailleurs, qu'est-ce qui pourrait expliquer cette barre de 100 milliards de dollars à franchir ?

Au vue de la situation financière actuelle d'OpenAI et de ses attentes de rentabilité à partir de 2029, ce contrat la liant à Microsoft est-il prêt de se rompre selon vous ?

Quelle lecture faites-vous de l'évolution de cette société sur le plan juridique ?
Vous avez lu gratuitement 244 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de r0d
Expert éminent https://www.developpez.com
Le 30/12/2024 à 10:02
Citation Envoyé par Mat.M Voir le message
ça c'est un truc bien français la technophobie.
Et si un jour vous avez une pathologie et que votre médecin interroge un système d'I.A. pour établir un diagnostic afin de guérir rapidement ?
C'est un truc bien français de mépriser les français. Intéressante proposition récursive... J'ai l'impression que c'est dû au fait que nous nous croyons au centre du monde, un peu comme les américains: Non les français ne sont pas plus technophobes que les autres, mais il faudrait s'intéresser aux autres pour s'en rendre compte.
J'ai vécu dans plusieurs pays, et je peux t'assurer que l'immense majorité des poncifs sur les français sont faux.

Je ne suis pas technophobe, mais je suis critique.
De toutes façons, je pense qu'il y a quiproquo: Je critiquais l'utilisation des LLM, pas de l'IA en général.
4  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 07/07/2025 à 22:15
Citation Envoyé par Artemus24 Voir le message
Si je prends le cas de ChatGPT, il se sert de l'internet comme base de données pour effectuée une recherche. Rien à voir avec un quelconque apprentissage. Il peut même retourner de fausses informations puisqu'il est incapable de comprendre le sens même de la question posée. C'est en cela que je dis que pour l'instant, l'IA est une fumisterie, car ce que l'on nous présente n'est pas une IA générative et n'a aucune capacité d'apprentissage, juste une recherche améliorée.
Si si, c'est de l'apprentissage, mais tu es tombé dans le piège marketing de l'IA. Ce que l'IA générative apprend, ce n'est pas le savoir que tu trouves sur internet. C'est comment écrire du contenu qui ressemble à ce que tu trouves sur internet. C'est très différent et ça éclaire beaucoup de choses.

ChatGPT, Mistral, Claude, Gemini, et des milliers d'autres LLM qu'on peut trouver sur Hugging Face, y compris des équivalents des modèles commerciaux précédents, sont bel et bien basé sur l'apprentissage. Quand tu fais une requête, le principe de base du LLM n'est pas de faire une recherche sur internet. Il ne l'utilise pas lors de ta requête. Le LLM a été entrainé auparavant sur le contenu internet, comme AlphaGo a été entrainé sur des parties existantes de Go avant de jouer ses matchs. Mais là où AlphaGo a appris à jouer au Go, les LLM apprennent à générer du texte humain : ce qui vient après "le chat a mangé la" est de toute évidence "souris", parce que c'est ça le plus probable dans un texte humain. Peu importe que ce soit vrai ou pas, c'est statistiquement le plus probable. Un LLM génère du texte cohérent, et non pas vrai, c'est fondamental à comprendre car c'est la raison pour laquelle il peut fournir de fausses informations. On appelle ça des illusions mais ça n'a rien de spécial : c'est la limite fondamentale d'un LLM. La ressemblance à du texte humain est tout ce qui compte, la vérité il ne la connais pas. Internet sert à l'entrainement, mais à l'usage il génère une réponse sur la base de ce qu'il en a retenu, sans l'utiliser à nouveau.

Maintenant les LLM peuvent être augmentés par différents outils, et pour comprendre comment ça fonctionne il faut comprendre que plus on donne de contexte et plus le LLM pourra générer une réponse orientée. Par exemple, si tu ajoute comme contexte "Dans un monde où les plus petits mangent les plus gros" ce qui vient après "le chat a mangé la" pourrais bien être autre chose que "souris", genre "vache", car ça ne serait pas cohérent avec ce qui a été écrit avant. Ainsi, apporter du contexte permet d'orienter la réponse pour que le LLM génère une réponse cohérente qui va dans le sens qui nous intéresse. Cela reste statistique, on n'aura pas forcément ce qu'on veut, mais les chances augmentent.

Une fois qu'on sait exploiter le contexte, on peut utiliser des outils du genre récupération de données sur internet. On les ajoute au contexte avant de demander de répondre. La réponse sera donc influencée par ce qu'on a ajouté au contexte. Toujours dans le but de générer du texte cohérent, et non pas vrai. Tu peux ajouter des pages Web, des PDFs, des images (pour les modèles qui savent les traiter) et autres données au format textuel (CSV, Markdown, XML, JSON, etc.). Si tu demandes "Décrit moi les caractéristiques d'un transistor BD777", il te sortira quelque chose qui ressemble à une description technique de transistor, mais si tu compares à la datasheet ça sera surement du pur bullshit. Si tu lui donnes la datasheet en contexte, la même question te retournera quelque chose de bien plus proche de la réalité, peut-être même parfaitement correct. Pas parce que c'est ce qui est vrai (il peut toujours sortir du bullshit) mais parce que c'est cohérent avec le contexte donné avec la requête.

Une fois qu'on a compris ça, on a compris qu'il ne faut jamais faire aveuglément confiance à un LLM. Il faut soit lui demander des trucs où on se fiche de l'aspect véridique (e.g. role play, création d'histoire, etc.) soit lui demander des trucs dont on sait pertinement qu'on passera derrière pour vérifier (ou un tiers de confiance, genre une suite de tests valides pour du code généré par IA). On peut être surpris de voir quelque chose qui semble fonctionner à la perfection, mais on n'est jamais à l'abri d'un dérapage complet.

Tout comme AlphaGo est très bon pour jouer au Go, les LLM sont très bon pour générer du texte cohérent. Mais comme on ne demandera pas à AlphaGo d'expliquer ses coups, on ne demandera pas au LLM de dire des choses factuellement vraies. Il n'en sont juste pas capables car pas entraînés pour ça. La phase de fine tuning qui vient après l'apprentissage oriente le type de discours du LLM, mais ça ne corrige pas complètement ses lacunes fondamentales.

À voir ce qu'il en sera avec ce que Yann Lecun nous sortira.
4  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 07/07/2025 à 13:19
Citation Envoyé par Artemus24 Voir le message
Si je prends le cas de ChatGPT, il se sert de l'internet comme base de données pour effectuée une recherche.
C’est assez différent… Demande à ton IA de faire une analyse grammaticale de cette phrase, il te la fera alors que personne n’a anticipé ta phrase, puis fait l’analyse grammaticale pour en permettre l’indexation

Ainsi, ChatGPT a intuité les notions de conjonction de subordination, de sujet, de verbe, etc.

Donc, oui, il s’est servi d’internet, mais pas pour bêtement l’indexer, mais tisser des relations entre les mots, leur usage, etc de la même manière que j’ai appris en écoutant mon entourage.Et dans les deux cas, cela se traduit par des relations entres neurones.

Bon, les capacités ne sont pas les mêmes (nombres de neurones…), les modes de conception différents (des ingénieurs sur quelques décénnie vs. sélection naturelle sur des millions d’années), la base pour apprendre n’est pas la même. Mais d’une certaine manière on a des propriétés émergentes de même nature (sans pour autantqu’il soit question d’égalité). Bon forcément avec les limitations, il n’est pas anormal d’avoir des hallucinations (comparables à mes difficultés à retenir certains prénoms ou autres…). Il faut juste intégrer cette lacune selon l’importance du résultat (vérifier les sources).
3  0 
Avatar de Mat.M
Expert éminent sénior https://www.developpez.com
Le 27/12/2024 à 20:04
Citation Envoyé par mclane1 Voir le message
Chatgpt s'est bon pour ceux qui savent super bien ce qu'ils veulent..
là je viens de poser une question en anglais "how to create a customer management project in java ?" sur ChatGPT,je suis bluffé ça me sort tout le code en Java, la connection sur base de données , la création de table, l'interface utilisateur etc...
c'est pareil pour utiliser Direct3d que ce soit version 9 ou ver 11,ça me sort tout le code dont j'ai besoin

Citation Envoyé par r0d Voir le message
Et encore...
L'IA dans le médical, pour faire court, ce sont des milliards de milliards de dollars investis pour permettre à une poignée de gens très riches de vivre un peu plus longtemps.
.
ça c'est un truc bien français la technophobie.
Et si un jour vous avez une pathologie et que votre médecin interroge un système d'I.A. pour établir un diagnostic afin de guérir rapidement ?
2  0 
Avatar de stigma
Membre expérimenté https://www.developpez.com
Le 30/12/2024 à 8:39
Cette hyper technologie aux mains d'un gouvernement totalitaire (mondial ? ) fait déjà froid dans le dos. Ceux qui pensent que tout cela fera le bonheur des humains se trompent lourdement.
2  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 30/12/2024 à 15:09
Citation Envoyé par Ryu2000
Ces outils seront payants.
Normalement, l'accès à la connaissance doit être gratuite pour tout le monde.

Citation Envoyé par Ryu2000
Si 1 travailleur aidé par une IA réalise le travail de 3 travailleurs, alors l'entreprise pourrait dépenser l'équivalent du salaire d'un travailleur pour payer l'IA et ce serait toujours très rentable pour elle.
Le problème ne se situe pas là, mais dans la capacité des chômeurs de continuer à participer à l'économie de leur pays.
Si tout le monde se retrouve au chômage, la rentabilité de l'entreprise risque de s'effondrer.
En fait, l'IA va produire l'effet inverse de ce que recherche les entreprises, c'est-à-dire une opposition (ou divergence d'approche) entre la macroéconomie, celle de l'état, et la microéconomie, celle des entreprises.

Citation Envoyé par Ryu2000
Il y a des chances que les IA et les robots remplacement les humains.
Pas dans tous les domaines. Je ne crois pas qu'un robot pourra enfanter un humain, enfin pas encore.

Citation Envoyé par Ryu2000
Il y a plein de facteurs qui peuvent faire diminuer la population mondiale.
C'est ce que j'avais déjà indiqué dans mes précédents propos.
A cause de l'IA, la population mondiale va obligatoirement diminuée. Pourquoi ?
Parce que tout le monde n'aura pas la chance d'avoir un revenu qui puisse faire vivre décemment leur famille.
Et la richesse va se concentrer encore plus dans un petit nombre qui va détenir tous les pouvoirs.

Citation Envoyé par Ryu2000
Il peut y avoir des épidémies, il y a peut y avoir des maladies comme le cancer, il peut y avoir des guerres, il y a le fait que les gens sont de moins en moins fertile (enfin ce problème touche surtout l'occident).
Qu'est-ce qui te dit que ce n'est pas le but recherché par les états pour diminuer la population ?
Cela va se faire par une sélection génétique où les plus forts seront les seuls aptes à survivre.

Citation Envoyé par Ryu2000
Si ça se trouve dans 150 ans il n'y aura pas 8 milliards d'humains, mais peut-être 3 milliards.
Je dirais plutôt moins de 500 millions si je me refère à cet ancien monument qui est nommé Georgia Guidestones. Je sais, c'est sujet à la théorie du complot, mais n'empêche que cela prend une tournure prophétique.

Citation Envoyé par Ryu2000
Mais c'est vrai que ça pourrait aider les médecins et leur faire gagner beaucoup de temps.
A la limite, le médecin ne sert plus rien car face à une de ces bornes, un IA peut produire une ordonnance médicale.

@ r0d : moi non plus, je ne comprends pas cette remarque de la part de "Mat.M" comme si le fait de ne pas vouloir consulter une IA était nécessairement de la technophobie. Ben non, je préfère un vrai médecin.

Parce que ce faire tripoter par un homme spécialisé en gynécologie est nécessairement une phobie que les femmes ont. Certaines femmes préfèrent un médecin femme, voilà tout. On peut simplement laissé le choix aux gens et d'arrêter de cataloguer ceux désirant autre chose que la majorité. C'est juste du bon sens.
2  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 31/12/2024 à 21:55
Tu as du pot, tu es jeune, ça fait que les médecins, tu ne les vois pas souvent.

Celui que le sort m'a fourgué est à la pointe du dépistage du cancer. Donc dans ce domaine, il faut lui reconnaître ça, il n'a pas besoin de déléguer. Il faut avouer que c'est appréciable d'être vite rassuré quand on a des symptômes inquiétants.

Pour l'hypertension en revanche, il n'y connaît rien, et il paraît le revendiquer.
Pour lui, le soin, c'est le médicament.

Alors effectivement, il fallait un spécialiste, mais ça a été à moi de savoir lequel.

L'ORL a prescrit un traitement anti-histaminique, trois semaines. Encore un peu de temps pour que ça réagisse vraiment, et je me réveille à présent avec une tension normale, sans médicament.
Sauf si un jour je fais un effort délirant, enfin ça c'est une autre question.

Là il faudra voir un médecin du sport, mais là encore le généraliste n'y aura pas été pour grand chose.
2  0 
Avatar de Mat.M
Expert éminent sénior https://www.developpez.com
Le 01/01/2025 à 13:55
@Gluups si on fait de l'hypertension il faut faire de l'exercice quotidien ça permet de faire baisser la tension artérielle.
Simplement 30 minutes de marche c'est bon pour la santé plutôt que de prendre des béta-bloquants
2  0 
Avatar de
https://www.developpez.com
Le 02/01/2025 à 16:49
Citation Envoyé par Artemus24 Voir le message
@ Fluxgraveon : tu es bien le seul à savoir ce que c'est car par Intelligence Artificielle se cache plusieurs techniques de programmation qui n'ont rien d'intelligent.
si c'est le cas "je suis bien le seul à savoir ce qu'est l'intelligence" alors c'est une étrangeté ; cela dit, ça n'est pas inconfortable.

Le commentaire précédent est fait d'humour "pince sans rire". D'ailleurs, si de l'humour algorithmique apparaît (spontanément) c'est que quelque chose bouge (c'est mon test de Turing perso en fait, un peu comme dans "Interstellar"). De mon point de vue, un humain qui n'a pas ou a perdu le sens de l'humour est assez proche d'un robot.
Et puis si tout n'est que technique de programmation alors inévitablement la machine prendra le relais (c'est "logique").

Enfin depuis des siècles (cf. le conte des savants et de l'éléphant), il se dit que le savoir n'est pas intelligence : l'intelligence se vit et elle est favorable à la vie du reste. Si ce n'était pas ou si ça n'est plus le cas alors nous sommes tous morts.
Joyeuse année 2025 !
2  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 08/07/2025 à 15:34
En 2024, Elon Musk, PDG de xAI, a déclaré : « je pense que l’AGI pourrait arriver d’ici 2025
Bon, ben, si Elon Musk le dit, c'est qu'on est pas prêt d'avoir une AGI !
2  0