L'idée d'envoyer des ambassadeurs interstellaires à la rencontre des formes de vie extraterrestres potentielles n'est pas nouvelle. Il y a eu des initiatives historiques comme le message Arecibo (un message radio envoyé de la Terre à l'amas globulaire Messier 13 en 1974) et le disque d'or des sondes Voyager I et II (deux disques d'or identiques envoyés par les deux sondes Voyager en 1977). Aujourd'hui, des chercheurs, comme Andrej Karpathy, proposent d'envoyer un nouveau type de messager interstellaire : l'IA. Cette dernière sera chargée d'interagir avec de potentielles espèces extraterrestres à notre place.
« Il est clair que les LLM doivent un jour fonctionner dans l'espace », a écrit Karpathy dans un billet sur X au début du mois. Il détaille dans son billet un processus en deux étapes. La première consiste à développer un modèle d'IA "robuste" qui répond aux normes de sécurité rigoureuses qui régissent les communications dans l'espace, à l'instant de celles développer par la NASA pour les logiciels destinés à l'espace. La seconde étape consiste à intégrer les "poids" d'un grand modèle d'IA dans un fichier binaire qui pourrait alors se "réveiller" et interagir avec toute technologie extraterrestre potentielle susceptible de le déchiffrer.
Clearly LLMs must one day run in Space
— Andrej Karpathy (@karpathy) May 2, 2024
Step 1 we harden llm.c to pass the NASA code standards and style guides, certifying that the code is super safe, safe enough to run in Space.https://t.co/tYGrfdka4X (see the linked PDF)
LLM training/inference in principle should be super…
Pour rappel, Karpathy a obtenu un doctorat à l'université de Stanford sous la direction de l'informaticienne Fei-Fei Li en 2015. Il est ensuite devenu l'un des membres fondateurs d'OpenAI en tant que chercheur scientifique, puis a occupé le poste de directeur principal de l'IA chez Tesla entre 2017 et 2022. En 2023, Karpathy a rejoint OpenAI pour un an, avant de quitter le laboratoire en février dernier. Il a publié sur YouTube de nombreux tutoriels très appréciés traitant de concepts d'IA. Récemment, il a travaillé sur un projet appelé "llm.c" qui met en œuvre le processus de formation pour le LLM GPT-2 d'OpenAI en C pur.
Karpathy tente de démontrer par le biais de ce projet que le travail avec les LLM ne nécessite pas nécessairement des environnements de développement complexes. L'approche simplifiée et la base de code concise du projet ont éveillé l'imagination de Karpathy. Dans son billet sur X, il affirme que la première étape de son plan pourrait consister à renforcer llm.c pour qu'il réponde aux normes de code et aux guides de style de la NASA, certifiant de ce fait que le code est super sûr, suffisamment sûr pour être exécuté dans l'espace. Karpathy explique avoir conçu dès le départ llm.c dans un souci de simplicité et de prévisibilité.
À l'étape 2, une fois que ce LLM a été jugé sûr pour les conditions spatiales, il pourrait théoriquement être utilisé comme ambassadeur interstellaire piloté par l'IA. Mais l'idée semble tout droit tirée d'un film de science-fiction et l'auteur lui-même le reconnaît. Karpathy a écrit : « l'étape 2 n'est clairement pas une proposition sérieuse, c'est juste une idée amusante. L'étape 1 est une proposition sérieuse, car, de toute évidence, les LLM doivent un jour courir dans l'espace ». Et dans une déclaration à Ars, Karpathy a souligné : « je l'envisage comme une possibilité de science-fiction et comme quelque chose d'intéressant à penser ».
Selon les experts, l'idée de diffuser ou de lancer un LLM dans l'espace soulève des questions en matière de sécurité et d'éthique. L'envoi de messages à des civilisations extraterrestres, souvent appelé SETI (Search for Extra-Terrestrial Intelligence) active, a été un sujet de controverse pour certains dans le passé. Les critiques font généralement valoir que le fait de diffuser délibérément notre présence et nos capacités technologiques à des civilisations extraterrestres inconnues pourrait attirer l'attention d'entités hostiles. Selon eux, un tel scénario pourrait mettre notre planète ou notre espèce en danger, avec un risque d'invasion.
Outre une prise de contrôle hostile, un autre risque est que les extraterrestres qui reçoivent le message se fassent une fausse idée de nous à partir du LLM s'il est formé à un large éventail de la culture humaine. Selon certains critiques, en explorant les profondeurs de notre savoir numérique, les potentiels extraterrestres pourraient tomber sur les chapitres les plus sombres de l'histoire de la Terre. Par exemple, ils découvriraient notre talent pour la guerre, notre cupidité et les nombreux outils destructeurs que nous avons créés. Cela pourrait donner une image effrayante, nous faisant apparaître comme des menaces potentielles.
Ainsi, ils pourraient commencer à se demander si le fait de nous donner un appel cosmique est une bonne idée ou une recette pour un désastre, ou si nous devons être retirés de l'échiquier. Les critiques affirment que le fait de penser que des LLM peuvent nous représenter auprès d'autres espèces est une idée "terrifiante". Toute interaction avec une nouvelle espèce serait très délicate et nécessiterait probablement une quantité incroyable de nuances. Mais les LLM ne disposent pas de cette capacité. En outre, de nombreuses études ont prouvé que les LLM hallucinent, notamment lorsque la conversation commence à durer.
Alors, même si nous formions le modèle uniquement sur "les meilleurs attributs de l'humanité", il ne ferait peut-être pas le meilleur diplomate interstellaire en raison des inconvénients techniques et des délicatesses du premier contact. Si les LLM sont appelés à devenir nos ambassadeurs interstellaires, Karpathy plaisante sur l'importance d'envoyer "un code très soigné" pour représenter l'humanité dans l'univers. Dans son message, Karpathy note : « peut-être qu'un jour nous trouverons nous-mêmes des LLM d'extraterrestres là-bas, au lieu de les trouver directement. Peut-être que les LLM se trouveront les uns les autres ».
« Nous devrions nous assurer que le code est vraiment bon, sinon ce serait un peu embarrassant », a-t-il ajouté. Il n'est pas le premier à suggérer d'envoyer des modèles d'IA dans l'espace. En décembre 2022, Josh Bongard, professeur de robotique à l'université du Vermont, a proposé ce qui suit : « nous envoyons ChatGPT dans l'espace, avec des instructions sur la manière dont les extraterrestres peuvent l'interroger pour en savoir plus sur l'humanité ».
Les modèles d'IA représentent une bibliothèque interactive hautement comprimée de connaissances humaines qui pourrait servir à répondre à presque toutes les questions que les extraterrestres pourraient se poser sur la civilisation humaine. Ils pourraient inventer des choses à notre sujet là où il y a des lacunes dans les connaissances, et les extraterrestres ne verraient pas la différence. Mais leurs hallucinations pourraient s'avérer dangereuses dans certains cas.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'idée d'utiliser les modèles d'IA comme messagers interstellaires ?
Cette idée est-elle réaliste ? Que pensez-vous des préoccupations soulevées par cette approche ?
Peut-on créer à l'avenir une IA suffisamment sûre pour jouer d'ambassadeur de l'humanité dans l'univers ?
Selon vous, quelle technologie peut aujourd'hui mener à bien le rôle d'ambassadeur de l'humanité dans l'univers ?
Voir aussi
GPT-4 a obtenu un score supérieur à 100% des psychologues sur un test d'intelligence sociale, le développement de l'IA dans la compréhension des émotions et des comportements sociaux serait très rapide
L'IA générative est la solution d'IA la plus déployée dans les organisations, l'intégration de l'IA générative dans les applications existantes est la meilleure utilisation de l'IA générative, d'après Gartner
Aloha Unleashed de Google DeepMind repousserait les limites de la dextérité des robots, des inquiétudes persistantes sur sa capacité à s'adapter à des situations imprévues dans des environnements réels