Stephen Hawking (1942-2018) est un physicien théoricien, cosmologiste et auteur britannique qui a apporté d'importantes contributions au domaine de la physique, en particulier dans l'étude des trous noirs et de la nature du temps. Il est également connu pour son livre à succès "Une brève histoire du temps", qui explique des concepts scientifiques complexes à un public populaire. Il a appris à 21 ans qu'il souffrait d'une sclérose latérale amyotrophique (SLA), une forme rare de maladie des neurones moteurs qui l'a progressivement laissé paralysé et incapable de parler. Mais malgré ses limitations physiques, il a continué à travailler et à communiquer.
Bien sûr, tout cela a été rendu possible grâce à des outils issus des premières années de l'IA : il s'est appuyé sur un dispositif de génération de la parole, qu'il utilisait pour donner des conférences et écrire des livres. Cet appareil, appelé "Equalizer", a été mis au point par une société californienne appelée Words Plus. Pour faire court, le gadget permettait à Hawking de sélectionner des mots et des phrases sur un écran d'ordinateur à l'aide d'un commutateur manuel, qu'il pouvait actionner grâce à ses fonctions motrices limitées. Une fois qu'il avait sélectionné un mot ou une phrase, l'appareil générait une voix synthétique qui prononçait les mots à haute voix.
Stephen Hawking
Hawking a pu expérimenter l'un des cas d'utilisation de l'IA, mais quelques années avant sa mort, il a mis en garde contre les dangers potentiels que la technologie pourrait représenter pour l'humanité. Dans une interview accordée à la BBC en 2014, Hawking a déclaré que le développement d'une IA complète pourrait "sonner le glas de l'espèce humaine". Bien qu'il utilisait lui-même une forme élémentaire d'IA, il a averti que la création de systèmes intelligents qui rivalisent avec l'intelligence humaine ou la surpassent pourrait être désastreuse pour l'homme. Rappelons qu'il a utilisé son dispositif de communication de 1985 à sa mort le 14 mars 2018.
« Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient supplantés », a ajouté Hawking. Dans son dernier livre, "Brief Answers to the Big Questions", publié après sa mort en 2018, Hawking a affirmé que les ordinateurs "dépasseront probablement les humains en matière d'intelligence" d'ici 100 ans. « Nous pourrions être confrontés à une explosion de l'intelligence qui aboutirait finalement à des machines dont l'intelligence dépasserait la nôtre de plus que la nôtre ne dépasse celle des escargots », a-t-il écrit dans son livre. Il a appelé à former l'IA pour qu'elle s'aligne systématiquement sur les objectifs humains.
En outre, il a averti que ne pas prendre au sérieux les risques associés à l'IA pourrait être "la pire erreur que l'humanité ait jamais faite". Les remarques d'Hawking font écho aux préoccupations des leaders technologiques Elon Musk et Steve Wozniak, qui ont appelé à une pause dans la construction de systèmes d'IA plus puissants que le grand modèle de langage (LLM) GPT-4 d'OpenAI dans une lettre ouverte publiée en mars 2023. La lettre a été publiée par l'organisation à but non lucratif Future of Life Institute, une association qui cherche à diminuer les risques existentiels menaçant l’humanité, et évoque des "risques existentiels" pour l'humanité.
« Les systèmes d'IA dotés d'une intelligence compétitive avec celle des humains peuvent présenter des risques profonds pour la société et l'humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d'IA. Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Et devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? », peut-on lire dans la lettre. Mais beaucoup ont rejeté le moratoire.
Les signataires de la lettre ont invoqué les risques d'un emballement de l'IA pour la civilisation humaine. Cependant, d'autres acteurs de l'industrie, dont Bill Gates et LAION, ont trouvé l'idée d'une pause "ridicule". Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind (filiale d'Alphabet), et d'autres experts de l'IA comme Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine. Selon le registre de transparence de l'Union européenne, l'association Future of Life Institute est principalement financé par la Fondation Musk.
Les autres bailleurs de fonds de l'association sont le groupe Founders Pledge, basé à Londres, et la Silicon Valley Community Foundation. La lettre est arrivée quelques jours après qu'Europol, la police de l'UE, a fait part lundi 27 mars 2023 de ses préoccupations éthiques et juridiques sur les modèles d'IA avancés tels que ChatGPT et Bard. Elle a mis en garde contre l'utilisation abusive potentielle du système dans des tentatives de phishing, de désinformation et de cybercriminalité. Dans le même temps, le gouvernement britannique a dévoilé des propositions en vue d'élaborer un cadre réglementaire adaptable autour de l'IA.
L'approche du gouvernement britannique répartirait la responsabilité de la gestion de l'IA entre les organismes de réglementation des droits de l'Homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie. Par ailleurs, l'UE pourrait introduire prochainement une réglementation très stricte en ce qui concerne le développement et le déploiement des chatbots d'IA. Les nouvelles règles, qui seraient en cours de préparation au Parlement européen, proposeraient d'obliger les fabricants de chatbots d'IA à révéler s'ils utilisent du matériel protégé par des droits d'auteur.
Cela pourrait permettre aux créateurs de contenu de bénéficier d'une redevance de droit d'auteur. L'IA générative a donné lieu à de nombreuses plaintes en matière de violation de droit d'auteur et l'UE veut y mettre un terme. À mesure que la loi sur l'IA évolue, les chatbots pourraient faire l'objet d'une surveillance accrue.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des mises en garde de Stephen Hawking ?
Voir aussi
Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société
Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative au sein de Twitter, des critiques suggèrent qu'il souhaitait une "pause" afin de rattraper son retard sur OpenAI
Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA, dont la désinformation et l'élimination des humains par les robots
L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur