L'intelligence artificielle (IA), dans son sens le plus large, est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis. Ces machines peuvent être appelées des IA.
Anthropic PBC est une startup américaine d'intelligence artificielle (IA) d'intérêt public, fondée en 2021. Elle recherche et développe l'IA pour "étudier ses propriétés de sécurité à la frontière technologique" et utiliser cette recherche pour déployer des modèles sûrs et fiables pour le public. Anthropic a développé une famille de grands modèles de langage (LLM) nommée Claude pour concurrencer ChatGPT d'OpenAI et Gemini de Google.
[tweet]
<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Jonathan Marcus of Anthropic says AI models are not just repeating words, they are discovering semantic connections between concepts in unexpected and mind-blowing ways <a href="https://t.co/FjdPmOxkeS">pic.twitter.com/FjdPmOxkeS</a></p>— Tsarathustra (@tsarnick) <a href="https://twitter.com/tsarnick/status/1801404160686100948?ref_src=twsrc%5Etfw">June 13, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>
[/tweet]
Envoyé par Jonathan Marcus
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les propos de M. Marcus crédibles ou pertinents ?
Voir aussi :
"L'entraînement du caractère" d'Anthropic, pour son chatbot IA Claude 3, permet d'inculquer à l'IA des traits de caractère nuancés et riches, tels que la curiosité, l'ouverture d'esprit et la réflexion
Les capacités émergentes dans les grands modèles linguistiques ne sont-elles qu'un apprentissage en contexte ? Aucune preuve de capacités émergentes de raisonnement dans les LLM, selon une étude
Des chercheurs ont donné à l'IA un "monologue intérieur" qui a permis d'améliorer considérablement ses performances : Quiet-STaR, les modèles de langage peuvent apprendre à réfléchir avant de parler