Max Tegmark est un physicien suédo-américain, chercheur en apprentissage automatique et auteur. Il est surtout connu pour son livre Life 3.0, qui décrit ce à quoi le monde pourrait ressembler à mesure que l'intelligence artificielle continue de s'améliorer. Tegmark est professeur au Massachusetts Institute of Technology (MIT) et président du Future of Life Institute. Dans son livre, Tegmark soutient que les risques de l'IA ne proviennent pas de la malveillance ou d'un comportement conscient en soi, mais plutôt d'un mauvais alignement des objectifs de l'IA sur ceux des humains.
En effet, l’IA est une avancée technologique majeure qui a le potentiel de transformer les industries, de remodeler les emplois et de stimuler la productivité économique. Cependant, elle n’est pas sans risque. En 2023, pour contrer les effets négatifs de l’IA, Max Tegmark a organisé une lettre ouverte. Cette lettre appelait à une pause de six mois dans les expériences d’IA et a été signée par des milliers de personnalités du secteur technologique, dont Elon Musk et Steve Wozniak, cofondateur d’Apple. Selon Tegmark, le développement incontrôlé de l’IA par quelques entreprises met en péril l’avenir de la société.
Il a souligné que l’IA promet de nombreux avantages incroyables, mais le développement irréfléchi et non contrôlé de systèmes de plus en plus puissants, sans aucune surveillance, met en danger notre économie, notre société et nos vies. Il a appelé à l’urgence de normes de sécurité en matière d’IA pour éviter que cela ne se transforme pas en une course au sommet. La réglementation est essentielle pour garantir la sécurité de l’innovation, afin qu’une poignée d’entreprises spécialisées dans l’IA ne mette pas en péril notre avenir commun.
Dans la ligné de ses propos, récemment, Max Tegmark a affirmé qu'il faut mettre un terme aux progrès de la technologie de l'IA et ne construire que des IA qui ne soient que des outils et non des intelligences artificielles générales (AGI) ou des superintelligences.
Max Tegmark says we need to draw a line in the progress of AI technology and build only AI that is our tool and not AGI or superintelligence pic.twitter.com/XfFkhTQRle
— Tsarathustra (@tsarnick) November 11, 2024
Envoyé par Max Tegmark
Dans le même ordre d'idée, le PDG d'Arm craint également que les humains ne perdent le contrôle de l'IA. Il met en avant l'importance d'avoir un moyen de neutraliser ou d'arrêter le système. Il souligne la nécessité d'un moyen de neutralisation ou d'arrêt du système. Ces avis confirment que l'AGI pourrait être soit une prospérité sans précédent, soit une catastrophe existentielle, et la prudence et la prévoyance sont nécessaires pour guider nos pas dans ce domaine complexe.
Et vous ?
Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?
Voir aussi :
Des scientifiques espèrent accélérer le développement de l'AGI avec un réseau de supercalculateurs dont le premier nœud sera bientôt déployé, mais le projet suscite le scepticisme et plusieurs préoccupations
Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire
Le gouvernement US doit agir «rapidement et de manière décisive» pour éviter les risques de sécurité nationale découlant de l'IA qui pourrait provoquer une « extinction à la hauteur de la menace »
Exode chez OpenAI : près de la moitié du personnel chargé de la sécurité de l'AGI a quitté l'entreprise. Sam Altman, qui a réclamé une réglementation de l'IA, s'y oppose lorsqu'elle est implémentée