IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Jonathan Marcus, d'Anthropic, affirme que les modèles d'IA ne se contentent pas de répéter des mots, mais qu'ils découvrent des connexions sémantiques entre des concepts de manière inattendue et stupéfiante

Le , par Anthony

10PARTAGES

4  0 
Jonathan Marcus, de la société Anthropic, souligne les capacités inattendues des modèles d'IA dans une interview récente. M. Marcus a affirmé lors de cet échange que les modèles d'IA ne se contentent pas de répéter des mots, mais qu'ils découvrent de profondes connexions sémantiques, mettant ainsi en évidence leur remarquable potentiel.

L'intelligence artificielle (IA), dans son sens le plus large, est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis. Ces machines peuvent être appelées des IA.

Anthropic PBC est une startup américaine d'intelligence artificielle (IA) d'intérêt public, fondée en 2021. Elle recherche et développe l'IA pour "étudier ses propriétés de sécurité à la frontière technologique" et utiliser cette recherche pour déployer des modèles sûrs et fiables pour le public. Anthropic a développé une famille de grands modèles de langage (LLM) nommée Claude pour concurrencer ChatGPT d'OpenAI et Gemini de Google.

[tweet]
<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Jonathan Marcus of Anthropic says AI models are not just repeating words, they are discovering semantic connections between concepts in unexpected and mind-blowing ways <a href="https://t.co/FjdPmOxkeS">pic.twitter.com/FjdPmOxkeS</a></p>&mdash; Tsarathustra (@tsarnick) <a href="https://twitter.com/tsarnick/status/1801404160686100948?ref_src=twsrc%5Etfw">June 13, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>
[/tweet]

Citation Envoyé par Jonathan Marcus

Je me souviens quand j'ai découvert pour la première fois la fonction sur le véganisme, c'était vraiment cool. Je ne m'attendais pas à voir cela. Ce n'était même pas le modèle le plus grand. Mais c'était vraiment intéressant de voir que le même modèle pouvait identifier le concept de ne pas manger de viande, de se préoccuper de l'élevage industriel et de ne pas porter de cuir, mais également dans un grand nombre de langues différentes.

Et le fait qu'il ait pu relier tous ces concepts, je n'arrivais pas à croire ce que je voyais : le modèle ne se contente pas de répéter des motifs, il ne se contente pas de répéter des mots arbitraires de manière aléatoire et instrumentale, il a vraiment, très concrètement, ce modèle, cette connexion était déjà intégrée dans le modèle, et nous l'avons juste découverte à ce moment-là. Cela m'a vraiment époustouflé.
Source : Jonathan Marcus, Anthropic

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les propos de M. Marcus crédibles ou pertinents ?

Voir aussi :

"L'entraînement du caractère" d'Anthropic, pour son chatbot IA Claude 3, permet d'inculquer à l'IA des traits de caractère nuancés et riches, tels que la curiosité, l'ouverture d'esprit et la réflexion

Les capacités émergentes dans les grands modèles linguistiques ne sont-elles qu'un apprentissage en contexte ? Aucune preuve de capacités émergentes de raisonnement dans les LLM, selon une étude

Des chercheurs ont donné à l'IA un "monologue intérieur" qui a permis d'améliorer considérablement ses performances : Quiet-STaR, les modèles de langage peuvent apprendre à réfléchir avant de parler

Une erreur dans cette actualité ? Signalez-nous-la !