Nick Bostrom est un philosophe connu pour ses travaux sur le risque existentiel, le principe anthropique, l'éthique de l'amélioration humaine, l'émulation du cerveau entier, les risques de superintelligence et le test d'inversion. Il a été le directeur fondateur de l'Institut du futur de l'humanité, aujourd'hui dissous, à l'université d'Oxford et est aujourd'hui chercheur principal à la Macrostrategy Research Initiative.
Bostrom pense que les progrès de l'intelligence artificielle (IA) peuvent conduire à la superintelligence, qu'il définit comme « toute intelligence qui dépasse largement les performances cognitives des humains dans pratiquement tous les domaines d'intérêt ». Il y voit une source majeure d'opportunités et de risques existentiels.
L'intelligence artificielle (IA), dans son sens le plus large, est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques. L'intelligence générale, c'est-à-dire la capacité d'accomplir toute tâche réalisable par un humain à un niveau au moins égal, fait partie des objectifs à long terme du domaine.
L'utilisation croissante de l'intelligence artificielle entraîne une évolution sociétale et économique vers une automatisation accrue, une prise de décision fondée sur les données et l'intégration de systèmes d'IA dans divers secteurs économiques et domaines de la vie. Cela soulève des questions sur les effets à long terme, les implications éthiques et les risques de l'IA, suscitant des discussions sur les politiques réglementaires visant à garantir la sécurité et les avantages de la technologie.
Nick Bostrom estime que peu de temps après que l'IA sera capable de faire toutes les choses que le cerveau humain peut faire, elle apprendra à les faire beaucoup mieux et plus vite, et l'intelligence humaine deviendra obsolète.
Une fois que l'IA aura réussi et sera capable de faire toutes les choses que le cerveau humain peut faire ; cela inclura comme un cas spécial : le processus d'inventer des choses, c'est-à-dire la recherche scientifique et technologique. C'est l'une des choses que le cerveau humain peut faire et lorsque l'IA pourra faire tout ce que le cerveau humain peut faire, elle pourra également inventer, découvrir, concevoir et fabriquer des produits.
Et si, comme je le pense, peu de temps après que nous aurons des machines capables de faire tout ce que le cerveau humain peut faire, nous aurons des machines capables de le faire beaucoup mieux et beaucoup plus vite. Alors nous serons confrontés à une sorte d'obsolescence dans l'espace intellectuel. En particulier, je pense que nous pouvons nous attendre à une augmentation spectaculaire du taux de progrès technologique à ce moment-là, lorsque le progrès est mené par ces superintelligences.
Et si, comme je le pense, peu de temps après que nous aurons des machines capables de faire tout ce que le cerveau humain peut faire, nous aurons des machines capables de le faire beaucoup mieux et beaucoup plus vite. Alors nous serons confrontés à une sorte d'obsolescence dans l'espace intellectuel. En particulier, je pense que nous pouvons nous attendre à une augmentation spectaculaire du taux de progrès technologique à ce moment-là, lorsque le progrès est mené par ces superintelligences.
Et vous ?
Pensez-vous que les propos de Nick Bostrom sont crédibles ou pertinents ?
Quel est votre avis sur le sujet ?
Voir aussi :
« La partie est terminée » : DeepMind de Google estime avoir fait une percée en IA qui se rapproche de l'intelligence humaine, grâce à son « agent généraliste » baptisé Gato
Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain
Quand arrivera l'intelligence artificielle supérieure AGI, quand les humains seront totalement remplacés par l'IA, la fin du monde par l'IA : Découvrez toutes les prédictions de 2,778 chercheurs