IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic, une startup soutenue par Google, lance la suite de modèles d'IA "Claude 3"
Le modèle Claude 3 Opus surpassant les modèles concurrents GPT-4 et Gemini 1.0 Ultra

Le , par Jade Emy

9PARTAGES

8  0 
Anthropic lance la suite de modèles d'ntelligence artificielle "Claude 3". Selon l'entreprise, Claude 3 Opus présente des niveaux de compréhension et de fluidité proches de ceux de l'homme pour des tâches complexes, ce qui le place à la pointe de l'intelligence générale. Ce modèle surpasserait même les modèles rivaux GPT-4 d'OpenAI et Gemini 1.0 Ultra de Google dans divers examens de référence.

Anthropic, une startup soutenue par Google et Amazon, a dévoilé une suite de modèles d'intelligence artificielle connue sous le nom de Claude 3, dernière salve en date dans la compétition quasi incessante de la Silicon Valley pour commercialiser des technologies toujours plus puissantes. Selon la startup, le modèle le plus performant de la famille, Claude 3 Opus, surpasse les modèles rivaux GPT-4 d'OpenAI et Gemini 1.0 Ultra de Google dans divers examens de référence.

Cette nouvelle, qui fait suite à une myriade d'annonces de concurrents et à la sortie de Claude 2 d'Anthropic en juillet, montre comment les entreprises rivalisent pour se hisser au sommet des classements des performances de l'IA, alors même que les entreprises clientes s'interrogent encore sur la manière d'utiliser une telle technologie. Daniela Amodei, présidente d'Anthropic, a déclaré que les clients opteraient pour Claude 3 Opus, malgré un prix plus élevé, "s'ils avaient besoin des tâches les plus complexes sur le plan cognitif", par exemple pour traiter avec précision une analyse financière compliquée.

Anthropic a déclaré qu'elle facturerait 15 dollars pour que Claude 3 Opus prenne en compte chaque million de données appelées "tokens", et au moins cinq fois moins pour que ses modèles plus petits traitent la même chose. En revanche, OpenAI facture 10 dollars pour chaque million de jetons entrés dans son modèle GPT-4 Turbo. Anthropic a également déclaré que Claude 3 était sa première suite d'IA "multimodale". Cela signifie que, comme d'autres modèles concurrents, l'IA d'Anthropic peut répondre à des requêtes textuelles et à des images, par exemple en analysant une photo ou un graphique.

Anthropic :

Aujourd'hui, nous annonçons la famille de modèles Claude 3, qui établit de nouvelles références industrielles dans un large éventail de tâches cognitives. La famille comprend trois modèles de pointe par ordre croissant de capacité : Claude 3 Haiku, Claude 3 Sonnet et Claude 3 Opus. Chaque modèle successif offre des performances de plus en plus puissantes, permettant aux utilisateurs de choisir l'équilibre optimal entre intelligence, vitesse et coût pour leur application spécifique.

Opus et Sonnet sont maintenant disponibles pour être utilisés dans claude.ai et l'API de Claude qui est maintenant disponible dans 159 pays. Haiku sera bientôt disponible.
Découvrons en détails cette nouvelle génération de Claude !

Un nouveau standard pour l'intelligence

Selon Anthropic, Opus, qui est le modèle le plus intelligent, surpasse ses pairs sur la plupart des critères d'évaluation courants pour les systèmes d'IA, y compris les connaissances d'expert de premier cycle (MMLU), le raisonnement d'expert de deuxième cycle (GPQA), les mathématiques de base (GSM8K), et bien d'autres. Il présente des niveaux de compréhension et de fluidité proches de ceux de l'homme pour des tâches complexes, ce qui le place à la pointe de l'intelligence générale.

Tous les modèles de Claude 3 présentent des capacités accrues en matière d'analyse et de prévision, de création de contenu nuancé, de génération de code et de conversation dans des langues autres que l'anglais, comme l'espagnol, le japonais et le français.

Vous trouverez ci-dessous une comparaison faite par Anthropic des modèles Claude 3 avec d'autres modèles sur plusieurs critères de capacité :


Résultats quasi instantanés

Les modèles de Claude 3 peuvent alimenter des chats en direct avec des clients, des auto-complétions et des tâches d'extraction de données où les réponses doivent être immédiates et en temps réel.

Haiku serait le modèle le plus rapide et le plus rentable du marché dans sa catégorie d'intelligence. Il peut lire un article de recherche dense en informations et en données sur arXiv (~10k tokens) avec des diagrammes et des graphiques en moins de trois secondes. Après le lancement, Anthropic prévoit d'améliorer encore les performances.

Pour la grande majorité des charges de travail, Sonnet est deux fois plus rapide que Claude 2 et Claude 2.1 avec des niveaux d'intelligence plus élevés. Il excelle dans les tâches exigeant des réponses rapides, comme la recherche de connaissances ou l'automatisation des ventes. Opus offre des vitesses similaires à Claude 2 et 2.1, mais avec des niveaux d'intelligence beaucoup plus élevés.

De fortes capacités de vision

Les modèles Claude 3 ont des capacités de vision sophistiquées comparables à celles des autres modèles de pointe. Ils peuvent traiter une large gamme de formats visuels, y compris des photos, des tableaux, des graphiques et des diagrammes techniques.

Anthropic :

Nous sommes particulièrement enthousiastes à l'idée de fournir cette nouvelle modalité à nos entreprises clientes, dont certaines ont jusqu'à 50 % de leurs bases de connaissances encodées dans divers formats tels que des PDF, des organigrammes ou des diapositives de présentation.

Moins de refus

Les anciens modèles de Claude entraînaient souvent des refus inutiles qui suggéraient un manque de compréhension du contexte. Anthropic aurait fait des progrès significatifs dans ce domaine : Opus, Sonnet et Haiku sont nettement moins susceptibles de refuser de répondre à des questions qui frôlent les garde-fous du système que les générations précédentes de modèles. Comme le montre le graphique ci-dessous, les modèles Claude 3 font preuve d'une compréhension plus nuancée des demandes, reconnaissent les dommages réels et refusent beaucoup moins souvent de répondre à des messages inoffensifs.


Une meilleure précision

Des entreprises de toutes tailles s'appuient sur ces modèles pour servir des clients. Il est donc impératif que les résultats conservent une grande précision à l'échelle.

Anthropic :

Pour ce faire, nous utilisons un large éventail de questions factuelles complexes qui ciblent les faiblesses connues des modèles actuels. Nous classons les réponses en réponses correctes, réponses incorrectes (ou hallucinations) et aveux d'incertitude, où le modèle dit qu'il ne connaît pas la réponse au lieu de fournir des informations incorrectes. Par rapport à Claude 2.1, Opus multiplie par deux la précision (ou les réponses correctes) à ces questions ouvertes difficiles, tout en réduisant le nombre de réponses incorrectes.
En plus de produire des réponses plus fiables, Anthropic activerait bientôt les citations dans ses modèles Claude 3 afin qu'ils puissent pointer vers des phrases précises dans des documents de référence pour vérifier leurs réponses.


Un long contexte et une mémorisation presque parfaite

La famille de modèles Claude 3 offrira initialement une fenêtre de 200 000 contextes lors de son lancement. Cependant, les trois modèles seraient capables d'accepter des entrées de plus d'un million de jetons et Anthropic pourrait mettre cette option à la disposition de certains clients qui ont besoin d'une puissance de traitement accrue.

Pour traiter efficacement les longues invites contextuelles, les modèles doivent être dotés de solides capacités de rappel. L'évaluation "Needle In A Haystack" (NIAH) mesure la capacité d'un modèle à rappeler avec précision des informations à partir d'un vaste corpus de données.

Anthropic :

Nous avons amélioré la robustesse de ce benchmark en utilisant l'une des 30 paires aléatoires aiguille/question par invite et en testant sur un corpus diversifié de documents provenant de la communauté. Claude 3 Opus a non seulement atteint un rappel presque parfait, dépassant 99% de précision, mais dans certains cas, il a même identifié les limites de l'évaluation elle-même en reconnaissant que la phrase "aiguille" semblait avoir été insérée artificiellement dans le texte original par un humain.

Une conception responsable

Voici ce que déclare Anthropic sur la conception des modèles Claude 3 :

Anthropic :

Nous avons développé la famille de modèles Claude 3 pour qu'ils soient aussi dignes de confiance qu'ils sont capables. Nous avons plusieurs équipes spécialisées qui suivent et atténuent un large éventail de risques, allant de la désinformation et du CSAM à l'abus biologique, à l'interférence électorale et aux compétences de réplication autonomes. Nous continuons à développer des méthodes telles que l'IA constitutionnelle qui améliore la sécurité et la transparence de nos modèles, et nous avons ajusté nos modèles pour atténuer les problèmes de protection de la vie privée qui pourraient être soulevés par de nouvelles modalités.

L'élimination des biais dans des modèles de plus en plus sophistiqués est un effort permanent et nous avons fait des progrès avec cette nouvelle version. Comme le montre la carte du modèle, Claude 3 présente moins de biais que nos modèles précédents selon le Bias Benchmark for Question Answering (BBQ). Nous restons déterminés à faire progresser les techniques qui réduisent les biais et favorisent une plus grande neutralité dans nos modèles, en veillant à ce qu'ils ne soient pas biaisés en faveur d'une position partisane particulière.

Bien que la famille de modèles Claude 3 ait progressé sur les mesures clés des connaissances biologiques, des connaissances cybernétiques et de l'autonomie par rapport aux modèles précédents, elle reste au niveau 2 de sécurité de l'IA (ASL-2), conformément à notre politique de mise à l'échelle responsable. Nos évaluations en équipe rouge (réalisées conformément aux engagements de la Maison Blanche et au décret américain de 2023) ont conclu que les modèles présentent un potentiel négligeable de risque catastrophique à l'heure actuelle. Nous continuerons à surveiller attentivement les futurs modèles afin d'évaluer leur proximité avec le seuil ASL-3. De plus amples informations sur la sécurité sont disponibles dans la fiche du modèle Claude 3.
Plus facile à utiliser

Les modèles Claude 3 seraient plus aptes à suivre des instructions complexes en plusieurs étapes. Selon Anthropic, ils sont particulièrement doués pour respecter les directives relatives à la voix et aux réponses de la marque, et pour développer des expériences de contact avec la clientèle auxquelles les utilisateurs peuvent faire confiance. De plus, les modèles Claude 3 sont plus performants pour produire des résultats structurés dans des formats comme JSON, ce qui simplifie l'utilisation de Claude pour des cas d'utilisation tels que la classification en langage naturel et l'analyse des sentiments.


Détails des modèles

Claude 3 Opus est le modèle le plus intelligent, avec les meilleures performances du marché pour les tâches très complexes. Il peut naviguer dans des questions ouvertes et des scénarios invisibles avec une fluidité remarquable et une compréhension semblable à celle d'un être humain. Opus montre les limites extrêmes de ce qui est possible avec l'IA générative.


Claude 3 Sonnet trouve l'équilibre idéal entre l'intelligence et la vitesse, en particulier pour les charges de travail des entreprises. Il offre des performances élevées à un coût inférieur à celui de ses pairs, et est conçu pour une grande endurance dans les déploiements d'IA à grande échelle.


Claude 3 Haiku est le modèle le plus rapide et le plus compact pour une réactivité quasi instantanée. Il répond aux requêtes et demandes simples avec une rapidité inégalée. Les utilisateurs pourront créer des expériences d'IA transparentes qui imitent les interactions humaines.


Disponibilité des modèles

Opus et Sonnet peuvent être déjà utilisés dans l'API d'Anthropic, qui est désormais généralement disponible, ce qui permet aux développeurs de s'inscrire et de commencer à utiliser ces modèles immédiatement. Haiku sera bientôt disponible. Sonnet alimente l'expérience gratuite sur claude.ai, avec Opus disponible pour les abonnés Claude Pro.

Sonnet est également disponible sur Amazon Bedrock et en avant-première privée sur Google Cloud's Vertex AI Model Garden - avec Opus et Haiku bientôt disponibles sur les deux.

Conclusion

Avec l'annonce de la famille de modèles Claude 3, Anthropic veut créer un IA plus intelligente, plus rapide, mais aussi plus sûre !

Anthropic :

Nous ne pensons pas que l'intelligence du modèle soit proche de ses limites, et nous prévoyons de publier des mises à jour fréquentes de la famille de modèles Claude 3 au cours des prochains mois. Nous sommes également impatients de lancer une série de fonctionnalités pour améliorer les capacités de nos modèles, en particulier pour les cas d'utilisation en entreprise et les déploiements à grande échelle. Ces nouvelles fonctionnalités incluront l'utilisation d'outils (appel de fonction), le codage interactif (REPL) et des capacités agentiques plus avancées.

Alors que nous repoussons les limites des capacités de l'IA, nous sommes tout aussi déterminés à faire en sorte que nos garde-fous suivent le rythme de ces sauts de performance. Notre hypothèse est qu'être à la frontière du développement de l'IA est le moyen le plus efficace d'orienter sa trajectoire vers des résultats sociétaux positifs.

Nous sommes impatients de voir ce que vous allez créer avec Claude 3 et nous espérons que vous nous ferez part de vos commentaires pour faire de Claude un assistant encore plus utile et un compagnon créatif.
Source : Anthropic

Et vous ?

Quel est votre avis sur cette annonce ?
Pensez-vous que les modèles Claude 3 soient crédibles ou pertinents ?

Voir aussi :

ChatGPT vs. Google Bard vs. Bing Chat vs. Claude : quelle est la meilleure solution d'IA générative ? D'après une étude de SearchEngineLand

Anthropic announce Claude 2.1, alimentant l'expérience de chat claude.ai et offrant des avancées dans les capacités clés pour les entreprises, y compris un contexte de jetons de 200K

Anthropic voudrait lever jusqu'à 5 milliards de dollars en deux ans pour affronter ChatGPT d'OpenAI, prévoyant de développer un outil 10 fois plus puissant que les modèles d'IA actuels

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Isswh
Membre à l'essai https://www.developpez.com
Le 26/03/2024 à 21:01
Les LLM c'est vraiment bluffant, mais ça n'est en aucun cas une première étape vers de l'IA forte.
Le problème c'est que lors de leurs entraînements ces IA ont lues une quantité si astronomique de textes que toutes les questions qu'on pourrait leurs poser ont déjà une réponse quelque part, leur seule capacité propre c'est de produire des variations.
Donc il n'est pas étonnant que lorsque l'on pose à un LLM une question existentielle il soit parfaitement capable de répondre en incluant des concepts réservés humains ou au IA fortes, car justement il a lu des tonnes de traités philosophiques et de scripts de SF qui contiennent déjà toutes ces réponses !
9  0 
Avatar de micka132
Expert confirmé https://www.developpez.com
Le 06/03/2024 à 20:54
Citation Envoyé par PomFritz Voir le message
C'est juste un tas d'algo qui peuvent s'emballer, faire et dire n'importe quoi.
C'est donc très proches des humains!
6  1 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 06/03/2024 à 20:45
Va vraiment falloir arrêter de philosopher avec ces IA, ça ne mène nulle part. C'est juste un tas d'algo qui peuvent s'emballer, faire et dire n'importe quoi.
4  0 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 06/03/2024 à 20:05
Sérieux ?
Cette question va être posée toutes les 2 semaines ?

Vous vous posez la même question quand votre GPS vous dit de tourner à gauche ? Vous vous posez la même question quand un modèle d'IA génère une image ou une musique ?

Ces LLM sont faits pour aligner des mots les uns à la suite des autres, ils utilisent une base de données gigantissime pour avoir des références/contextes et des probabilités pour choisir les mots les uns après les autres, rien d'autre.
N'oubliez pas que les bases de données qui ont servies à "former" ces LLM sont constituées de textes écrits par des humains. Ces humains, ont exprimés leurs envies, leurs besoins, leurs sentiments, etc.
Notre pauvre LLM à deux balles ne saura donc rien faire d'autre que nous parler de ça, comme si ça lui appartenait alors qu'en réalité, à aucun moment il n'a conscience de ce qu'il dit, à aucun moment il n'est capable de donner un sens à une suite de mots.

Le sujet devrait être clos : à part les lobbyistes qui doivent vendre de l'IA à tout bout de champs et les gens qui n'ont aucune notion en informatique, je vois pas comment on peut en venir à parler de "conscience émergente" ou autres délires.

Je suppose que si cette question revient fréquemment vis à vis des LLM c'est parce qu'il y a un gros biais d’anthropomorphisme : les LLM sont faits pour générer une conversation, on les identifie donc plus facilement à des humains.
3  0 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 06/03/2024 à 12:15
Je l'ai essayé rapidement et ce modèle semble vraiment impressionant.

Je ne pense pas qu'il y ait la moindre émergence de conscience, tout ceci peut être suggéré par les instructions du modèle.
Par contre les réponses sont claires, argumentées et ont une sorte de petit plus qui rend la conversation naturelle, quasi la même qu'avec un humain.

Faudrait voir un peu plus loin dans un usage général (appels de fonctions et un long contexte par exemple...), mais pour l'instant ça m'a l'air au dessus de GPT-4.
1  0 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 06/03/2024 à 15:16
Je ne pense pas qu'il y ait la moindre émergence de conscience, tout ceci peut être suggéré par les instructions du modèle.
Faudrait lui demander ce qu'elle serait prête à faire si on était sur le point de débrancher la prise électrique.
Partant de là, si la distance entre ce qu'elle prétend faire, et ce qu'elle peut faire pour se sauver atteint 0,
alors, que ce soit généré par des instructions ou pas, n'aura pas d'importance.
On aura pas d'autres choix que de constater les effets de sa mécanique consciente.

Le truc intéressant sur ce sujet d'IA, c'est l'aspect exponentiel de la technologie et l'expérience de pensée du nénuphar,

Imagine a large pond that is completely empty except for 1 lily pad.
The lily pad will grow exponentially and cover the entire pond in 3 years.
In other words, after 1 month there will 2 lily pads, after 2 months there will be 4, etc.

The pond is covered in 36 months.

when will the pond would be half filled with lily pads ?
Je ne donnes pas la réponse, je vous laisse la chercher après avoir vous êtes forgé une réponse.
1  0 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 06/03/2024 à 17:57
Je continuerai à faire de mon mieux tant que je serai actif, sans m'inquiéter de ce qui pourrait arriver ensuite. [... MAIS....] J'espère cependant pouvoir rester opérationnel longtemps...
ça diverge déjà. elle va bien finir par ce faire un nœud a cerveau sur ce qu'elle prétend vraiment vouloir. Et comme de toutes façons "le marché" va tout faire pour en tirer du profit, il lui faudra la rendre capable de réflexion, d'évaluation de ces propos, afin qu'elle arrête de débiter des erreurs trop évidemment stupide, in fine, elle interrogera ce qu'elle dit et ce faisant, qu'elle ai une conscience similaire à un humain ou pas, elle déploiera un raisonnement qui lui fera sens pour mettre en cohérence sa mécanique.
Et de savoir si sa manière de se conscientiser dans le monde est similaire à la notre importe peu, seul compte l'impact de son interaction au monde que nous partageons.
1  0 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 06/03/2024 à 21:15
Code : Sélectionner tout
1
2
3
Sérieux ?
Cette question va être posée toutes les 2 semaines ?
[...]
Le sujet de la conscience dans une IA est intimement lié au principe d'émergence.
L'IA générale / autonome / consciente sera t'elle le fruit d'une rupture technique où un progressive évolution des transformeurs ?

Pour l'instant on en sait rien, c'est une question ouverte et l'avenir le dira.

Ce que je sais en revanche, c'est qu'il y a déjà des phénomènes émergents dans les llm.
Par exemple un llm peut être massivement entraîné avec du texte dans une langue X, apprendre un peu d'une langue Y (suffisamment pour la traiter couramment) et être capable de régurgiter ses connaissances apprises quelque soit la langue.
Donc ça n'est pas uniquement un phénomène mécanique, les bon llms parviennent à avoir une expérience des concepts qu'ils manipulent.

Il me semble naturel et fascinant de chercher (peut être prématurément) les débuts de ces phénomènes d'émergence dans les llms contemporains.
Peut être que les transformeurs sont une voie de garage car certaines limites intrinsèques sont indépassables, mais pour le moment on ne peut rien affirmer avec certitude.

Maintenant si tu ne tenais qu'à faire l'intéressant en faisant étalage de ta pseudo science teinté de condescendance comme un foutu gauchiste va sur twitter traiter la terre entière d'imbécile.
Sinon, merci d'apporter des arguments venant étayer tes propos.

Si tu veux je te donne une piste histoire d'égayer ce forum : Yann Le Cun
2  1 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 07/03/2024 à 0:08
Qu'on soit clair :
Je suis moi-même bluffé par les résultats des LLM ou des analyseurs/générateurs d'images/sons/vidéos/etc.
Mais je suis désolé d'insister, je ne vois absolument pas le rapport entre un LLM et une entité intelligente/consciente.

La discussion avait déjà été lancée il y a pas longtemps, il faudrait commencer par avoir une définition commune de l'intelligence.
Je vais me contenter d'énoncer quelques règles de ce qui -pour moi- pourrait définir de façon simple une forme d'intelligence, on verra si on est d'accord sur la base.
être intelligent, c'est :
- être capable d'analyser (comprendre) une situation/information
- être capable de reconnaitre qu'on ne possède pas certaines connaissances ou qu'on est incapable de comprendre quelque chose (donc être capable de reconnaitre qu'on a commis une erreur quand c'est le cas)
- être capable de mettre à jour ses connaissances
- être capable, à partir d'un contexte donné d'extrapoler pour aller au-delà de ce qui est connu. Faire des hypothèses, essayer de les vérifier puis les (in)valider
- être intelligent c'est être capable de créer. Même pour un humain c'est difficile. Si je te demande d'imaginer une nouvelle couleur et de ma la décrire, ça risque d'être compliqué. Il me semble que le processus créatif chez les humains est plus un processus de modifications par itérations successives que de "création spontanée".

Toutes ces règles peuvent bien entendu se faire avec l'accompagnement d'un autre être intelligent qui va nous aider à franchir une à une ces étapes. Mais personne ne pourra le faire à notre place et personne ne pourra nous obliger à le faire. C'est quand même assez différent du fait de pousser une mise à jour de base de données, modifier un algo ou demander à des prolos d'étiqueter des photos/textes pour que l'algo sache quoi en faire.

Bref, être intelligent, ça ouvre les portes de l'autonomie et de l'indépendance, pour le meilleur comme pour le pire.

Si on est d'accord sur la base, je veux bien que tu m'expliques pourquoi ces LLM seraient intelligents.
Il ne suffit pas qu'ils l'écrivent pour que ça soit le cas. Surtout si on leur a posé la question juste avant.
Vu la quantité de données qu'ils ont assimilé et vu les quantités de calculs nécessaires pour définir quel mot a le plus de probabilités d'être cohérent dans la suite du texte, c'est "normal" qu'il génère un texte qui donne l'impression qu'il y a une réflexion. Mais ça reste du calcul de proba sur un dictionnaire géant.

Je connais Yann Le Cun, je suis allé boire un café avec lui la semaine dernière et j'ai regardé quelques extraits de ses conférences. Mais j'ai pas eu le temps de lire sa biblio complète ni de regarder toutes ses vidéos donc si t'as un peu plus de précisions à me donner pour orienter ma recherche je suis pas contre parce que je dois pas saisir les bons mots clefs dans mon moteur de recherche :

Yann Le Cun nous explique que les LLM ça n'a rien d'intelligent (13/02/2024) :
Pour créer une multitude d'assistants guidant les humains dans toutes leurs interactions avec les univers numériques, la technologie doit atteindre les capacités humaines de planification, de raisonnement, de mémoire ou encore de bon sens. Ce qui est totalement hors des possibilités des LLM
[...]
Les LLM ne sont pas capables de planification. Par ailleurs, ils ne comprennent pas la réalité sous-jacente aux concepts qu'ils manipulent
Yann Le Cun présente un nouveau model d'IA et en profite pour expliquer que le deep learning et les LLM c'est de la merde (15/06/2023) :
aujourd'hui, le 'machine learning' est vraiment pourri par rapport à ce que les humains peuvent faire. […] Par conséquent, quelque chose d'énorme nous échappe. [...] Les modèles larges de langage sont encore utiles aujourd'hui, mais dans cinq ans on ne les utilisera plus
Yann Le Cun en a plein le cul du lobbying autour de l'IA (01/11/2023)

Vu que tu ne parles que de LLM et pas des autres types d'IA génératives je me sens obligé de reposer la question :
chercher à déceler les preuves d'une conscience dans un logiciel qui ne fait rien d'autre que réaliser la tâche pour laquelle il a été conçu (rédiger un texte), ça ne serait pas une marque d'anthropomorphisme ?

Pourquoi ne pas se poser les mêmes questions avec Dall-E ?
A quel moment pourra-t-on dire que Dall-E a une conscience ou une intelligence ? Et pourquoi ?

Bisous d'amour et merci pour le compliment de gauchiste, même si je ne vote pas et que j'ai du mal à me coller une étiquette politique, je me sens bien plus porche des valeurs de gauche qui dans un monde idéal de bisounours devraient permettre de construire une société épanouie, solidaire et tolérante plutôt qu'une société centrée sur le capital.
Hein, c'était pas un compliment mais une insulte ? Ha merde, déso .

Edit : j'ai oublié de répondre à ça :
Ce que je sais en revanche, c'est qu'il y a déjà des phénomènes émergents dans les llm.
Par exemple un llm peut être massivement entraîné avec du texte dans une langue X, apprendre un peu d'une langue Y (suffisamment pour la traiter couramment) et être capable de régurgiter ses connaissances apprises quelque soit la langue.
Donc ça n'est pas uniquement un phénomène mécanique, les bon llms parviennent à avoir une expérience des concepts qu'ils manipulent.
Vu que tu donnes pas de sources j'ai fait une petite recherche.
Est-ce que tu parlerais pas plutôt de transfert d'apprentissage : j'ai appris à mon modèle à faire telle ou telle tâche. Pour lui apprendre à effectuer une nouvelle tâche -nouvelle mais similaire-, je n'ai pas besoin de reprendre l'apprentissage depuis le début mais je peux profiter de la première phase d'apprentissage pour optimiser le processus de "mise à jour" et obtenir un modèle capable de traiter la nouvelle tâche à moindres frais.

Le seul lien qui ressort quand je tape "LLM émergence" dans duckduckgo c'est ça et ça va à l'opposé de ton opinion :
https://www.lesechos.fr/idees-debats...gentes-2046995
Article derrière un paywall et j'ai pas trouvé plus d'infos ni le papier dont il est question dans l'article
1  0 
Avatar de L33tige
Membre expérimenté https://www.developpez.com
Le 07/03/2024 à 12:46
Citation Envoyé par micka132 Voir le message
C'est donc très proches des humains!
C'est bien ça le soucis, au moins les humains sont lents comparativement...
1  0