Samuel Altman est un entrepreneur et investisseur américain surtout connu comme PDG d'OpenAI depuis 2019 (il a été brièvement licencié et réintégré en novembre 2023). Altman est considéré comme l'une des figures de proue du boom de l'IA.
OpenAI est une organisation de recherche sur l'intelligence artificielle (IA) basée aux États-Unis. Fondée en décembre 2015, elle effectue des recherches sur l'intelligence artificielle dans le but de développer une intelligence générale artificielle "sûre et bénéfique, qu'elle définit comme des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux économiquement utiles". Son lancement de ChatGPT, un grand modèle de langage, a été crédité du démarrage du boom de l'IA.
L'intelligence artificielle (IA), dans son sens le plus large, est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis.
Voici ce qu'il avait écrit en 2014 sur son blog :
Hier, lors d'un déjeuner, un ami m'a demandé quelle était la tendance technologique à laquelle il devrait prêter attention, mais qu'il ignorait probablement.
Sans trop réfléchir, j'ai répondu "l'intelligence artificielle", mais après y avoir réfléchi un peu plus, je pense qu'il a probablement raison.
Pour être clair, l'IA (selon la définition scientifique courante) ne fonctionnera probablement pas. On peut dire cela de n'importe quelle nouvelle technologie, et c'est une affirmation généralement correcte. Mais je pense que la plupart des gens sont beaucoup trop pessimistes quant à ses chances - l'IA n'a pas fonctionné pendant si longtemps qu'elle a acquis une mauvaise réputation. Les professeurs d'informatique la mentionnent avec un sourire en coin. Les réseaux neuronaux ont échoué la première fois, dit la logique, et ils ne fonctionneront donc pas cette fois-ci non plus.
Mais l'intelligence artificielle générale pourrait fonctionner, et si c'est le cas, il s'agira du plus grand développement technologique de tous les temps.
Je dirais que nous nous en sommes rapprochés dans de nombreux domaines spécifiques - par exemple, les ordinateurs sont aujourd'hui meilleurs que les humains dans de nombreux domaines impressionnants, comme jouer aux échecs ou piloter des avions. Mais plutôt que de qualifier ces exemples d'IA, nous nous contentons de dire qu'ils n'étaient pas si difficiles que cela au départ. Et pour être honnête, aucun de ces exemples ne ressemble vraiment à un ordinateur capable de penser comme un humain.
Un certain nombre d'entreprises privées (ou récemment acquises), ainsi que quelques grandes entreprises publiques, réalisent des progrès impressionnants dans le domaine de l'intelligence artificielle générale, mais les bonnes entreprises sont très discrètes à ce sujet.
Il y a certainement des raisons d'être optimiste. Andrew Ng, qui a travaillé ou travaille sur l'IA de Google, a déclaré qu'il pensait que l'apprentissage provenait d'un algorithme unique - la partie de votre cerveau qui traite les données provenant de vos oreilles est également capable d'apprendre à traiter les données provenant de vos yeux. Si nous parvenons à comprendre cet algorithme à usage général, les programmes pourraient être capables d'apprendre des choses à usage général.
Les premiers résultats prometteurs de ce type de travaux ont été publiés, mais comme le cerveau est un système tellement complexe et dépendant d'un comportement émergent, il est difficile de dire à quel point nous sommes proches de l'objectif. Nous comprenons assez bien le fonctionnement des neurones individuels, et il est possible que ce soit tout ce que nous ayons besoin de savoir pour modéliser le fonctionnement de l'intelligence. Mais le comportement émergent de 100 milliards d'entre eux travaillant ensemble sur les mêmes principes devient extraordinairement complexe et difficile à modéliser dans un logiciel. Ou, comme le dit Nick Sivo, "c'est comme faire de la rétro-ingénierie sur le dernier processeur Intel avec seulement la connaissance de base du fonctionnement d'un transistor". Il est également possible qu'un autre phénomène soit à l'origine de l'intelligence et que les personnes qui travaillent sur ce sujet fassent fausse route.
Pour moi, la plus grande question n'est pas celle de l'intelligence artificielle, mais plutôt celle de la conscience artificielle, ou de la créativité, ou du désir, ou de tout autre nom que vous voudrez lui donner. Je suis convaincu que nous serons en mesure de créer des programmes informatiques capables d'exécuter très efficacement des tâches complexes spécifiques. Mais comment créer un programme informatique qui décide de ce qu'il veut faire ? Comment faire pour qu'un ordinateur décide de lui-même d'apprendre à conduire une voiture ? Ou d'écrire un roman ?
Il est possible, voire probable, que cette sorte de créativité soit une propriété émergente de l'apprentissage d'une manière non intuitive. Quelque chose s'est produit au cours de l'évolution pour que le cerveau humain soit différent du cerveau reptilien, qui est plus proche d'un ordinateur qui joue au ping-pong. (À l'origine, j'allais dire un ordinateur qui joue aux échecs, mais les ordinateurs jouent aux échecs sans intuition ni instinct - ils se contentent de rechercher très rapidement un gigantesque espace de solutions).
Et peut-être que nous ne voulons pas construire des machines qui sont conscientes dans ce sens. L'issue la plus positive à laquelle je puisse penser est celle où les ordinateurs deviennent vraiment bons à faire, et où les humains deviennent vraiment bons à penser. Si nous ne parvenons jamais à rendre les ordinateurs créatifs, il y aura une division très naturelle du travail entre l'homme et la machine.
Sans trop réfléchir, j'ai répondu "l'intelligence artificielle", mais après y avoir réfléchi un peu plus, je pense qu'il a probablement raison.
Pour être clair, l'IA (selon la définition scientifique courante) ne fonctionnera probablement pas. On peut dire cela de n'importe quelle nouvelle technologie, et c'est une affirmation généralement correcte. Mais je pense que la plupart des gens sont beaucoup trop pessimistes quant à ses chances - l'IA n'a pas fonctionné pendant si longtemps qu'elle a acquis une mauvaise réputation. Les professeurs d'informatique la mentionnent avec un sourire en coin. Les réseaux neuronaux ont échoué la première fois, dit la logique, et ils ne fonctionneront donc pas cette fois-ci non plus.
Mais l'intelligence artificielle générale pourrait fonctionner, et si c'est le cas, il s'agira du plus grand développement technologique de tous les temps.
Je dirais que nous nous en sommes rapprochés dans de nombreux domaines spécifiques - par exemple, les ordinateurs sont aujourd'hui meilleurs que les humains dans de nombreux domaines impressionnants, comme jouer aux échecs ou piloter des avions. Mais plutôt que de qualifier ces exemples d'IA, nous nous contentons de dire qu'ils n'étaient pas si difficiles que cela au départ. Et pour être honnête, aucun de ces exemples ne ressemble vraiment à un ordinateur capable de penser comme un humain.
Un certain nombre d'entreprises privées (ou récemment acquises), ainsi que quelques grandes entreprises publiques, réalisent des progrès impressionnants dans le domaine de l'intelligence artificielle générale, mais les bonnes entreprises sont très discrètes à ce sujet.
Il y a certainement des raisons d'être optimiste. Andrew Ng, qui a travaillé ou travaille sur l'IA de Google, a déclaré qu'il pensait que l'apprentissage provenait d'un algorithme unique - la partie de votre cerveau qui traite les données provenant de vos oreilles est également capable d'apprendre à traiter les données provenant de vos yeux. Si nous parvenons à comprendre cet algorithme à usage général, les programmes pourraient être capables d'apprendre des choses à usage général.
Les premiers résultats prometteurs de ce type de travaux ont été publiés, mais comme le cerveau est un système tellement complexe et dépendant d'un comportement émergent, il est difficile de dire à quel point nous sommes proches de l'objectif. Nous comprenons assez bien le fonctionnement des neurones individuels, et il est possible que ce soit tout ce que nous ayons besoin de savoir pour modéliser le fonctionnement de l'intelligence. Mais le comportement émergent de 100 milliards d'entre eux travaillant ensemble sur les mêmes principes devient extraordinairement complexe et difficile à modéliser dans un logiciel. Ou, comme le dit Nick Sivo, "c'est comme faire de la rétro-ingénierie sur le dernier processeur Intel avec seulement la connaissance de base du fonctionnement d'un transistor". Il est également possible qu'un autre phénomène soit à l'origine de l'intelligence et que les personnes qui travaillent sur ce sujet fassent fausse route.
Pour moi, la plus grande question n'est pas celle de l'intelligence artificielle, mais plutôt celle de la conscience artificielle, ou de la créativité, ou du désir, ou de tout autre nom que vous voudrez lui donner. Je suis convaincu que nous serons en mesure de créer des programmes informatiques capables d'exécuter très efficacement des tâches complexes spécifiques. Mais comment créer un programme informatique qui décide de ce qu'il veut faire ? Comment faire pour qu'un ordinateur décide de lui-même d'apprendre à conduire une voiture ? Ou d'écrire un roman ?
Il est possible, voire probable, que cette sorte de créativité soit une propriété émergente de l'apprentissage d'une manière non intuitive. Quelque chose s'est produit au cours de l'évolution pour que le cerveau humain soit différent du cerveau reptilien, qui est plus proche d'un ordinateur qui joue au ping-pong. (À l'origine, j'allais dire un ordinateur qui joue aux échecs, mais les ordinateurs jouent aux échecs sans intuition ni instinct - ils se contentent de rechercher très rapidement un gigantesque espace de solutions).
Et peut-être que nous ne voulons pas construire des machines qui sont conscientes dans ce sens. L'issue la plus positive à laquelle je puisse penser est celle où les ordinateurs deviennent vraiment bons à faire, et où les humains deviennent vraiment bons à penser. Si nous ne parvenons jamais à rendre les ordinateurs créatifs, il y aura une division très naturelle du travail entre l'homme et la machine.
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous que cet avis de Sam Altman est crédible ou pertinent ?
Voir aussi :
« GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4 », affirme Sam Altman qui appelle une nouvelle fois à une réglementation mondiale sur l'IA
Découvrez Sam Altman, PDG d'OpenAI, qui a appris à programmer à l'âge de 8 ans et qui se prépare également à l'apocalypse avec une réserve d'or, des armes et des masques à gaz
Enjeux et avantages de l'IA générale : Sam Altman, PDG d'OpenAI, appel au changement de gouvernance, pour éviter la concentration du contrôle