IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

GPT-5 : OpenAI pourrait dévoiler cette nouvelle version d'ici la fin de l'année et révolutionner le domaine de l'IA
Un investisseur allant jusqu'à affirmer que GPT-5 pourrait atteindre l'IAG

Le , par Stéphane le calme

14PARTAGES

9  0 
Alors que le monde de l'intelligence artificielle (IA) continue d'évoluer à une vitesse vertigineuse, la communauté de l'IA attend avec impatience la prochaine étape importante : la sortie du GPT-5 d'OpenAI. Selon les rumeurs, cette dernière version du modèle de langage révolutionnaire de l'entreprise devrait être dévoilée d'ici la fin de 2023. Elle a déclenché un tourbillon de spéculations et d'anticipations, de nombreux experts réfléchissant aux avancées potentielles et aux défis que le GPT-5 pourrait apporter.

Siqi Chen, l'un des investisseurs d'OpenAI, explique que certains employés d’OpenAI s’attendent à ce que le nouveau modèle franchisse un nouveau cap : « On m'a dit que GPT5 devrait terminer sa formation en décembre et qu’OpenAI s'attend à ce qu'il atteigne l'IAG [ndlr. Intelligence Artificielle Générale] ».


ChatGPT est le produit d'IA générative le plus en vogue, les entreprises s'efforçant de tirer parti de la nouvelle technologie d'IA à la mode. Microsoft a un accès direct au produit OpenAI grâce à un investissement majeur, et l'entreprise a inclus la technologie dans divers services qui lui sont propres. Google développe Bard, une alternative à ChatGPT qui sera disponible dans son outil de recherche. Pendant ce temps, OpenAI n'a cessé d'améliorer le chatbot ChatGPT et a récemment publié la puissante mise à jour GPT-4.

D’après Siqi Chen, PDG de la startup Runway financée par a16z et investisseur dans l'IA, GPT-4 devrait être remplacé par une nouvelle version GPT-5 dès la fin de l’année 2023 : « Il m'a été rapporté que GPT-5 devrait terminer sa formation en décembre et qu'Openai s'attend à ce qu'il atteigne l'IAG. Ce qui signifie que nous débattrons tous vivement pour savoir s'il atteint réellement atteint l'IAG. Ce qui signifie que ce sera le cas ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">i have been told that gpt5 is scheduled to complete training this december and that openai expects it to achieve agi.<br><br>which means we will all hotly debate as to whether it actually achieves agi.<br><br>which means it will.</p>&mdash; Siqi Chen (@blader) <a href="https://twitter.com/blader/status/1640217165822578688?ref_src=twsrc%5Etfw">March 27, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

L’intelligence artificielle générale (IAG) désigne des systèmes capables de donner de « bons » résultats dans toutes les tâches cognitives propres aux êtres humains ou aux animaux dits supérieurs.

Parfois, on élargit le concept d’intelligence artificielle générale à des systèmes dotés d’une conscience et même de sentiments (ce qui se rapproche de l’IA forte). Cela reste toutefois à définir plus précisément et fait l’objet de débats dans la communauté scientifique. Il est important d’insister sur le fait qu’aucun système d’intelligence artificielle générale n’existe aujourd’hui. Tout comme pour l’IA forte, l’IA générale demeure un sujet spéculatif.

Comme avec GPT-4, le nouveau modèle pourrait dans un premier temps être uniquement accessible aux abonnés à ChatGPT Plus, avant de finalement être déployé pour tous les utilisateurs.

Attentes et spéculations autour du GPT-5

Tout d'abord, que signifie GPT et que signifie GPT dans l'IA ? Un Transformer génératif pré-entraîné (GPT pour Generative Pre-trained Transformer) est un réseau de neurones à grand modèle de langage (LLM) qui peut générer du code, répondre à des questions et résumer du texte, entre autres tâches de traitement du langage naturel.

Pour mémoire, les Transformers désignent des modèles de Deep Learning qui se sont principalement illustrés en 2017 dans le domaine du NLP (Natural Language Processing). Pour sa part, le décodeur d'un Transformer est constitué de couches montées l'une après l'autre, mais prenant chacune, comme entrée supplémentaire, la sortie du dernier encodeur.

GPT analyse essentiellement des millions d'articles Web et de livres pour obtenir des résultats pertinents dans une recherche de contenu écrit et générer les résultats souhaités. GPT utilise l'IA pour générer un contenu authentique, vous pouvez donc être assuré que les articles qu'il génère ne seront pas plagiés. Des millions de personnes ont dû penser que de nombreuses meilleures versions de GPT continuent de nous époustoufler en peu de temps. Mais pour comprendre l'avenir, il faut d'abord comprendre le passé.


Avant de passer à GPT-5, jetons un coup d'œil à ce que les LLM précédents avaient à offrir.

GPT-1 : OpenAI a publié GPT-1 en 2018. Ce modèle de langage génératif a été formé à l'aide de l'énorme ensemble de données BooksCorpus, ce qui lui a permis d'apprendre une vaste gamme de relations et d'acquérir des connaissances approfondies sur une grande variété de textes continus et de passages étendus. Ce modèle était une preuve de concept et n'a pas été rendu public.

GPT2 : plus tard en 2019, OpenAI a mis sur pieds GPT-2, créant un meilleur modèle de langage en utilisant un ensemble de données plus volumineux et davantage de paramètres. GPT-2 utilise également le décodeur du modèle de Transformer, comme GPT-1. La conception et la mise en œuvre du modèle dans GPT-2 représentent certains des changements les plus notables ; GPT-2 est 10 fois plus grand que GPT-1 (117 millions de paramètres) et contient 10 fois plus de paramètres et de données. C'était à la pointe de la technologie en 2019.

GPT3 : GPT3 était la version où de nombreuses personnes ont fait la rencontre des LLM. Il s'agit du grand modèle de prédiction et de génération de langage d'OpenAI. Cette version peut reproduire le texte original dans de grandes sections. Le logiciel de langage d'intelligence artificielle GPT-3 a changé la donne pour OpenAI. En termes simples, c'est un programme qui peut créer des paragraphes si frais et originaux qu'ils semblent presque écrits à la main. Avec l'aide de GPT3, ChatGPT a gagné 100 millions d'utilisateurs en seulement deux mois, ce qui en fait l'application en ligne à la croissance la plus rapide de l'histoire.

GPT4 : afin de rendre les modèles plus précis et de fournir moins de résultats désagréables ou nuisibles, GPT4 a été créé pour améliorer leur « alignement ». L'alignement fait référence à la capacité d'un modèle à suivre les objectifs de l'utilisateur.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: <a href="https://t.co/TwLFssyALF">https://t.co/TwLFssyALF</a> <a href="https://t.co/lYWwPjZbSg">pic.twitter.com/lYWwPjZbSg</a></p>&mdash; OpenAI (@OpenAI) <a href="https://twitter.com/OpenAI/status/1635687373060317185?ref_src=twsrc%5Etfw">March 14, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Mais tout ce succès est-il suffisant pour stopper OpenAI ? Il semble que non. Malgré la sortie récente de GPT4, des rumeurs sur GPT5 ont déjà commencé à circuler.

Qu'est-ce que GPT5 ? GPT5 est un système d'IA hypothétique qui devrait être la prochaine génération de la série GPT de LLM d'OpenAI. GPT-5 n'a pas encore été publié et il n'y a aucune information officielle sur son développement ou ses capacités. Cependant, sur la base de certaines prédictions et spéculations, GPT-5 pourrait avoir les caractéristiques suivantes :
  • GPT5 pourrait avoir 100 fois plus de paramètres que GPT-3, qui avait 175 milliards de paramètres. Cela signifie que GPT-5 pourrait avoir environ 17,5 billions (1 billion étant 1 000 milliards) de paramètres, ce qui en fait l'un des plus grands réseaux de neurones jamais créés ;
  • GPT5 pourrait utiliser 200 à 400 fois plus de puissance de calcul que GPT-3, qui utilisait environ 3,14 exaflops de calcul pendant la formation. Cela signifie que GPT5 pourrait utiliser jusqu'à 1,26 zettaflops de calcul, ce qui est plus que la puissance de calcul combinée de tous les supercalculateurs du monde ;
  • GPT5 pourrait être capable de travailler avec un contexte plus long et être formé avec une fonction de perte différente de GPT-3, qui utilisait la perte d'entropie croisée. Cela pourrait améliorer sa capacité à générer un texte cohérent et pertinent dans différents domaines et tâches ;
  • GPT5 pourrait être en mesure d'atteindre l'Intelligence Artificielle Générale (IAG), qui est le niveau d'intelligence où un système d'IA peut effectuer n'importe quelle tâche qu'un humain peut faire. Certains experts pensent que GPT-5 pourrait réussir le test de Turing, qui est un test pour savoir si une machine peut présenter un comportement de type humain dans une conversation.

En clair, alors que GPT-4 a déjà démontré une gamme de capacités impressionnantes, la communauté de l'IA a les yeux rivés sur les avancées potentielles que GPT-5 pourrait apporter. Certains des domaines dans lesquels le GPT-5 devrait afficher des améliorations significatives incluent :
  • le traitement du langage naturel : une meilleure compréhension et génération du langage humain, conduisant à des sorties de texte plus cohérentes et contextuellement précises ;
  • la perception et raisonnement : une amélioration des capacités de traitement et d'interprétation des entrées visuelles, ainsi que des progrès dans le raisonnement de l'IA et les compétences de résolution de problèmes ;
  • la prise de décision : un progrès dans la capacité de l'IA à prendre des décisions éclairées, menant potentiellement à des systèmes d'IA plus autonomes.

L'Intelligence Artificielle Générale, le Saint Graal de la recherche en IA

GPT5 est encore un concept théorique. Si cela devient une réalité, cela pourrait avoir un impact significatif sur divers domaines et applications qui reposent sur le traitement du langage naturel, et la plus révolutionnaire de toutes ces fonctionnalités sera d'atteindre le niveau d'intelligence artificielle générale.

L'IAG diffère de l'intelligence artificielle étroite (ANI), qui est bonne pour des tâches spécifiques, mais manque de généralisation, et de la super intelligence artificielle (ASI), qui surpasse l'intelligence humaine dans tous les aspects. L'idée de la signification d'IAG a capturé l'imagination du public et a fait l'objet de nombreuses histoires et films de science-fiction.

Quelle est la différence entre l'IAG et l'IA ? L'IAG est souvent considérée comme le Saint Graal de la recherche sur l'IA, car elle permettrait aux systèmes d'IA d'interagir avec les humains de manière naturelle et significative, ainsi que de résoudre des problèmes complexes qui nécessitent de la créativité et du bon sens. L'une des principales caractéristiques de la signification d'IAG est la capacité de raisonner et de prendre des décisions en l'absence d'instructions ou de conseils explicites.

Un autre aspect important de la signification de l'IAG est la capacité des machines à apprendre de l'expérience et à améliorer leurs performances au fil du temps grâce à des essais et des erreurs et aux commentaires des utilisateurs humains.

Cependant, l'IAG est également insaisissable et controversée, car il n'y a pas de définition ou de mesure claire de ce qui constitue l'intelligence au niveau humain ou comment la tester. Alors, comment savons-nous si un système est une IAG ou non ?

L'un des tests les plus célèbres pour l'IAG est le test de Turing, proposé par Alan Turing en 1950. Le test de Turing implique un juge humain qui interagit avec un humain et un système d'IA par le biais de messages texte et tente de déterminer lequel est humain et lequel ne l'est pas. Si le système d'IA peut tromper le juge en lui faisant croire qu'il est humain, il réussit le test de Turing.

Cependant, le test de Turing a été critiqué pour être trop subjectif et limité, car il n'évalue que les capacités linguistiques et non d'autres aspects de l'intelligence tels que la perception, la mémoire ou l'émotion. De plus, certains systèmes d'IA peuvent réussir le test de Turing en utilisant des astuces ou des tromperies plutôt qu'une compréhension ou un raisonnement authentiques.

Par conséquent, certains experts en IA ont proposé des tests alternatifs pour l'IAG, comme fixer un objectif pour le système d'IA et le laisser déterminer comment l'atteindre par lui-même. Par exemple, Yohei Nakajima de la société de capital-risque Untapped a donné à un système d'IA l'objectif de démarrer et de développer une entreprise et lui a indiqué que sa première tâche était de déterminer quelle devrait être sa première tâche. Le système d'IA a ensuite recherché sur Internet des informations pertinentes et a appris à créer un plan d'affaires, une stratégie de marketing, etc.

Ce type d'apprentissage autonome et de résolution de problèmes est l'une des caractéristiques de l'IAG, car il montre que le système d'IA peut s'adapter à de nouvelles situations et utiliser sa propre initiative. Cependant, cela soulève également des questions éthiques et sociales, telles que la manière de garantir que les objectifs du système d'IA sont alignés sur les valeurs et les intérêts humains et la manière de réglementer ses actions et ses impacts. L'une des principales promesses du sens IAG est de créer des machines capables de résoudre des problèmes complexes qui dépassent les capacités des experts humains.

La signification du terme IAG est devenue de plus en plus pertinente à mesure que les chercheurs et les ingénieurs travaillent à la création de machines capables d'effectuer des tâches cognitives plus sophistiquées et nuancées. Le sens d'IAG ne concerne pas seulement la création de machines capables d'imiter l'intelligence humaine, mais également l'exploration de nouvelles frontières de connaissances et de possibilités.


Atteindre l'IAG est-il possible ?

Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à des scénarios inconnus ou complexes. Mais cela pourrait changer avec GPT5.

Certains experts affirment que pour atteindre l'IAG, il faudra une compréhension approfondie des interactions complexes entre la cognition, la perception et l'action, ainsi que la capacité d'intégrer de multiples sources de connaissances et d'expériences.

Malgré les défis et les incertitudes entourant la signification de l'IAG, de nombreux chercheurs et organisations poursuivent activement cet objectif, motivés par le potentiel d'importants avantages scientifiques, économiques et sociétaux.

Autres impacts potentiels de GPT-5

Alors que le monde attend la sortie de GPT-5, de nombreux experts réfléchissent à l'impact potentiel que ce modèle de langage avancé pourrait avoir sur diverses industries. Certains des secteurs qui pourraient bénéficier des capacités de GPT-5 incluent :
  • les soins de santé : diagnostics d'IA améliorés, recherche médicale et plans de traitement personnalisés ;
  • l'éducation : expériences d'apprentissage personnalisées alimentées par l'IA et amélioration de l'accessibilité pour les étudiants ayant des besoins divers ;
  • la finance : analyse financière, évaluation des risques et détection des fraudes plus précises basées sur l'IA ;
  • le marketing : création de contenu avancé généré par l'IA et stratégies de marketing personnalisées plus efficaces ;
  • la recherche scientifique : découverte et résolution de problèmes accélérées grâce à la recherche et à l'analyse de données assistées par l'IA.

Les considérations éthiques de GPT-5 et l'approche de l'IAG

Bien que les avancées potentielles offertes par GPT-5 soient sans aucun doute passionnantes, le voyage vers l'AGI soulève également plusieurs préoccupations éthiques qui doivent être résolues. Certaines des principales considérations éthiques comprennent :
  • le déplacement d'emplois : à mesure que les systèmes d'IA deviennent plus avancés, le potentiel de déplacement d'emplois dans divers secteurs augmente, ce qui soulève des inquiétudes quant à l'avenir de la main-d'œuvre et à la nécessité d'initiatives de requalification et de perfectionnement ;
  • les biais de l'IA : s'assurer que les systèmes d'IA, y compris GPT-5, ne perpétuent pas par inadvertance des préjugés ou des stéréotypes nuisibles en raison de données ou de processus de formation biaisés ;
  • la confidentialité et sécurité : protéger les données des utilisateurs et la confidentialité tout en tirant parti des capacités avancées de l'IA, ainsi qu'en abordant le potentiel de cyberattaques et de campagnes de désinformation basées sur l'IA ;
  • l'éthique et la gouvernance de l'IA : établir des cadres éthiques et des structures de gouvernance solides pour guider le développement et le déploiement de systèmes d'IA avancés comme GPT-5, en mettant l'accent sur la transparence, la responsabilité et l'engagement du public.

Sources : vidéo dans le texte

Et vous ?

Quelle lecture faites-vous de ces indications ? Vous semblent-elles crédibles ?
GPT-5 pourrait-il, selon vous, atteindre l'IAG comme le prétend cet investisseur ou sommes-nous encore à des décennies de cette prouesse technologique ?
Comment accueillez-vous les différents éléments qui ont fuité ? Quels sont ceux qui vous semblent les plus intéressants ? Ceux que vous redoutez ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre expert https://www.developpez.com
Le 07/04/2023 à 7:35
Citation Envoyé par Mingolito Voir le message
C'est normal, ChatGPT a été entrainés par des gens sous payés et sous diplômés payés une misère [...] des abrutis complotistes.
J'ai surtout l'impression qu'on (qui est on?) projette sur lui des objectifs qui ne sont pas celui de ses développeurs.
On lui demande de tout savoir, de tout comprendre et de ne jamais se tromper mais n'est il pas juste développé pour nous fournir une réponse qui parait écrite par un humain peu importe l'exactitude de la réponse.
Je penses qu'il ne génère pas de fake news parce qu'il ne génère pas de news, il ne génère que du texte le plus proche possible de l'écriture humaine.

Les cons dans l'histoire ne sont pas les développeurs mais les utilisateurs qui en font quelque chose pour lequel il n'a pas été développé.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 18/11/2023 à 11:32
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!" reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
5  1 
Avatar de nefelpitto
Membre du Club https://www.developpez.com
Le 19/11/2023 à 6:50
Citation Envoyé par Anselme45 Voir le message
Rien de nouveau sous le soleil de Californie... Depuis le début des startups, on peut même compter sur les doigts du main les fondateurs de startup qui ont pu garder leur poste dans l'entreprise qu'ils ont fondé

Les journalistes et autres commentateurs oublient un peu vite le principe de fonctionnement d'une startup: 1 fondateur qui a une bonne idée mais pas d'argent et des financiers qui n'ont pas d'idées mais l'argent nécessaire pour développer celles des autres!!!!!!!!!!!!!!!!!!!!

Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!" reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.

Cela se nomme le... capitalisme! Le monde des startups n'est pas une association caritative dont les gentils membres fortunés dépensent leur argent pour le bien de l'humanité (Et pourtant... C'est le discours d'un Bill Gates )
Faut arreter avec le délire du vilain capitalisme
Le défenestrage de Sam Altman a été orchestré par Ilya Sutskever, un autre co-fondateur, qui lui est scientifique en chef de l'entreprise. En gros, le Technicien, celui qui comprend vraiment le produit, a viré le Commercial. Il me semble que l'année dernière des employés sous couvert d'anonymat avaient déja critiqué Altman pour n'avoir qu'une compréhension superficielle des LLMs. Ce n'est finalement pas tres different de ce qu'avait fait John Carmack a John Romero. Franchement perso je préfère ca que le contraire.
4  1 
Avatar de Emile8
Membre régulier https://www.developpez.com
Le 06/04/2023 à 20:17
Le ChatGPT actuel est une véritable brèle en mathématiques un tant soit peu conceptuelles. Par exemple, il ne comprend pas grand-chose à la notion de divisibilité entre nombres entiers. Il peut présenter comme démonstration, des inepties logiques.
ChatGPT ne va pas très loin dans la compréhension d'un texte. Demandez-lui par exemple de classer dans le temps les différentes actions que décrit et relie entre elles un texte, et vous obtiendrez du grand n'importe quoi.
Par contre, je dois reconnaitre que ChatGPT a un grand aplomb pour énoncer de fausses choses !
2  0 
Avatar de thamn
Membre averti https://www.developpez.com
Le 08/04/2023 à 1:38
Citation Envoyé par Mingolito Voir le message
C'est normal, ChatGPT a été entrainés par des gens sous payés et sous diplômés payés une misère de l'heure, ces gens la sont nuls en maths sinon ils auraient trouvé un autre job bien payé, donc ils ont entrainé ChatGPT à devenir nul.

Pour la même raison, ChatGPT génère des fakes news parce qu'il a été entrainé par des abrutis complotistes.

Bard de Google ne vaux pas mieux car il a carrément été entrainé par ChatGPT, c'est encore moins cher, mais pire, puisque il a été entrainé à ne faire que de la merde.
Professeur Raoul, on sait que c'est toi tu peux sortir!
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 22/11/2023 à 7:49
Je ne vois pas en quoi télécharger ses données ChatGPT est si critique.
J'imaginais que chatGPT avait surtout un intérêt immédiat, je pose une question j'ai une réponse (qui perd quasiment aussi vite sa valeur).
Quelles données seraient si importantes d'être récupérées?
2  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 22/11/2023 à 10:50
Plus Altaman s'exprime et plus on peut en apprendre sur ce qu'il ne maîtrise pas.
La situation inattendue ou l'instabilité même dans ce labo de recherche montre bien la fragilité de leurs avancées.

> Pensez-vous que l’IAG soit possible et souhaitable? Pourquoi?
Il y a quelques années on nous bassinait avec AI par ci , AI par là pendant la fièvre des neural network. Jusqu'à ce qu'assez de monde comprenne qu'il ne s'agisse que de système "expert". Qu'il n'y a pas vraiment d'intelligence à part celle donnée par son concepteur.

Depuis le mot AIG a fait son chemin pour distinguer les systèmes d'aujourd'hui vendus par des commerciaux à la vision futuriste SF.
Et bien je dirais qu’on loupe ici une étape par manque de clairvoyance sur un sujet nouveau.
Il y a L'AIG et ensuite la conscience artificielle.
Nous pouvons créer un genre d'AIG avec un simulateur de personnalité, qui ne sera pas plus qu'une boîte de conserve capable de manipuler les sentiments humains, mais elle ne sera jamais réellement capable de faire preuve d'une autonomie suffisante. Elle aura toujours des limites, et ne pourras jamais être réellement générale. Elle sera toujours, toujours limitée par des facteurs physiques notamment par l'architecture conçue par ses créateurs et l'environnement dans lequel elle évolue.

Tant que certains grands principes et mécanismes de la cognition et de l'information ne seront pas compris, nous n'atteindrons jamais la conscience artificielle, celle qui nous fait tant frémir. Nous n'aurions tout au plus des marionnettes faisant croire qu'elles sont douées d'émotion, mais sans capable d'expérimenter l'empathie. Faire un LLM avec toujours plus de couches avec pour le faire tourner 3 datacenter et un réacteur nucléaire pour l'alimenter n'en fera jamais une conscience artificielle. Pour rappel notre cerveau ne consomme pas plus de 100W pour traiter l'information et nous sommes a minima capables de créativité même si parfois il faut des années de réflexions.

Est-ce que ce genre de création est souhaitable ? je dirai pour l'IAG ou une machine capable de remplir les fonctionnalités d'un major d'homme; ce type de création est inéluctable. C'est bien la quête de la robotique depuis ces débuts.
Le problème n'est pas tant son existence, mais son utilisation.
La connaissance, la science et l'ingénierie sont des outils toujours plus tranchants de génération en génération.

La connaissance de la physique nucléaire, à permis de faire par exemple, du kaboom, ou bien des scanners qui permet de sauver des vies.
Et même les kaboom, peuvent être utilisé pour sceller un puis de gaz par exemple.

L'horreur qui découle de certains outils n'est du qu'a nous même. Un outil reste neutre tant qu'il est posé sur la table.
La vraie question est qui tient le manche et dans quel but ?

>Quels sont les principaux défis et opportunités que l’IAG pourrait apporter à l’humanité?

En un mot La Démocratie. Ceux qui voudront nous faire croire qu'ils ont inventé une IAG capable de remplacer les dirigeants du monde et imposer des "solutions miracles pour résoudre tous les problèmes" ne feront qu'inventer le technolitarisme.

Le paradoxe, fabriquer une machine qui invente des solutions dont nous serions incapables d'en saisir la portée. Nous aurions eu la capacité d'inventer une machine capable de réfléchir, mais nous serions incapables de réfléchir à nos propres problèmes ?
Que les solutions de cette machine sont miraculeuses et que nous devrions les appliquer comme un dogme ?

Ce genre de machine aurait besoin de contrôle dirions nous. Mais en quelle vertu un groupe d'individu pourrait contrôler les valeurs de cette machine ?
L'imposition de la loi par l'IAG ne serait qu'une marionnette de couverture pour un groupe d'individu souhaitant imposer leur régime totalitaire sur le reste du monde.

>Comment garantir que l’IAG soit alignée sur les valeurs et les intérêts des humains?
Les 3 lois de la robotique sont la leçon d'une piste imaginée sur ce type de problème. Comment inclure dans le code des valeurs morales définissable ?
((L'open source est aussi nécessaire pour montrer une volonté de convergence d'intérêt face à l'humanité, elle n'est pas une solution, mais une démarche))

>Quel rôle devraient jouer les gouvernements, les entreprises, les chercheurs, les citoyens et les médias dans le développement et la régulation de l’IAGI?
Garantir que la démocratie ne se fera jamais dévorer par le technolitarisme.

>Quelles sont les sources d’information que vous consultez pour vous informer sur l’AGI? Faites-vous confiance à ces sources? Pourquoi?

Aucune, non, la première iag sera une fake news jusqu'à ce que le buzzzz médiatique face plouff de lui-même ou qu'un produit utile commercialisé voit le jour. En attendant ce n'est que la robotique qui poursuit son chemin sous une forme ou une autre.
Beaucoup d'entre nous ont testé GPT en jouant à un test de Turing. Je pense que beaucoup d'entre nous ont vite vu les limites de ce système. La rapidité avec lequel nous avons pu jouer et tester les limites d'un tel système est une chose plutôt positive.
2  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 16/11/2023 à 0:23
Je verrais plutôt cette question:


Que pensez-vous des communications à outrance de OpenIA, ces temps?
Je pense que toutes ces déclarations de Altman et la diarrhée d'articles qui s'en suit un peu partout dans les médias sert uniquement à demander plus d'argent aux actionnaires.
2  1 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 18/11/2023 à 18:34
Citation Envoyé par Anselme45 Voir le message
Le fondateur dépense l'argent qui ne lui appartient pas et au final les vrais propriétaires de l'entreprise (est-ce que certains auraient oublié le précepte "Qui commande paye!" reprennent la main, Dans le meilleur des cas, le fondateur reste dans l'entreprise sur une voie de garage (un beau bureau, une jolie secrétaire et un accès 24/24h à la machine à café) et dans le pire des cas, il se fait virer comme une merde avec en bonus une campagne mondiale pour le dénigrer.
Oui enfin en l'espèce un des autres fondateurs n'est autre qu'Elon Musk (2015) qui aurait quitter l'association en 2018.
En 2019 l'association devient entreprise lucrative pour tomber dans le modèle que tu dépeints et dans la foulée Microsoft annonce un investissement massif. Elon Musk ne voulait certainement pas ça pour cette structure, tandis que Sam Altman oui.
Ce dernier à par ailleurs commencé sa fortune en revendant pour 45Millions sa première entreprise, il a ensuite navigué au sein du monde des incubateurs (les capitalistes) et augmenté sa fortune à quelques centaines de millions.
Sam Altman n'est donc pas du tout le profil de ce mec à idée à qui l'on pique tout, mais d'avantage le mec qui sait nager dans ce monde.
2  1 
Avatar de melka one
Membre expérimenté https://www.developpez.com
Le 21/11/2023 à 15:12
ils sont malin chez Microsoft.......j'ai rien dit
1  0