Le débat sur la sécurité de l'IA s'est intensifié après la sortie de ChatGPT
Des chercheurs en IA alertent depuis des années sur les risques associés aux systèmes d'IA avancés. Ils craignent notamment l'utilisation abusive de ces systèmes par des entités puissantes et les conséquences sociétales catastrophiques qu'ils pourraient entraîner. Cela n'a toutefois pas empêché OpenAI de publier fin 2022 son chatbot d'IA ChatGPT, qui est devenu rapidement viral. En 2023, les inquiétudes concernant la sécurité de l'IA ont atteint leur paroxysme.
Des personnalités comme Elon Musk et plus de 1 000 technologues ont signé une lettre ouverte appelant à une pause temporaire dans le développement de l'IA pour faire face aux risques. Peu après, des scientifiques d'OpenAI, de Google et d'autres laboratoires ont signé une lettre ouverte affirmant que le risque que l'IA provoque l'extinction de l'humanité devrait être davantage pris en compte. Geoffrey Hinton, lauréat du prix Turing, fait de partie de ce groupe.
Quelques mois plus tard, le président américain Joe Biden a signé un décret dont l'objectif est de protéger les Américains des systèmes d'IA. Puis, en novembre 2023, le conseil d'administration à but non lucratif d'OpenAI a brusquement licencié le PDG Sam Altman, affirmant que ce dernier avait la réputation de mentir et qu'on ne pouvait désormais plus lui faire confiance et lui confier une technologie aussi importante que l'intelligence artificielle générale (AGI).
L'AGI était autrefois l'aboutissement imaginé de l'IA, c'est-à-dire des systèmes dotés d'une véritable conscience d'eux-mêmes. Toutefois, la définition de l'AGI évolue aujourd'hui pour répondre aux besoins commerciaux de ceux qui en parlent. Sam Altman a revu drastiquement à la baisse les attentes à l'égard de l'AGI.
Des documents internes d'OpenAI ayant récemment fait l'objet de fuite ont révélé sa définition contractuelle de l'AGI. Selon les documents, la nouvelle définition d'OpenAI est la suivante : « l'AGI sera atteinte lorsque nous aurons développé un système d'IA qui va générer au moins 100 milliards de dollars de bénéfices ».
La situation a changé radicalement en 2024 et les craintes sont balayées
En 2024, les leaders de l'industrie technologique, y compris des investisseurs en capital-risque comme Marc Andreessen, ont rejeté ces craintes. Ils ont accusé les lanceurs d'alerte d'alarmistes. Dans un essai intitulé « Why AI Will Save the World », Marc Andreessen plaide notamment en faveur d'un développement rapide de l'IA et d'une réglementation minimale afin d'en exploiter tout le potentiel. D'après lui, l'IA pourrait résoudre les crises et sauver le monde.
« L'ère de l'IA est arrivée, et les gens paniquent. Heureusement, je suis là pour apporter la bonne nouvelle : l'IA ne détruira pas le monde et pourrait même le sauver », a écrit Andreessen dans son essai. Bien entendu, cela permettrait aux startups d'IA de Marc Andreessen de gagner beaucoup plus d'argent ; et certains ont trouvé son techno-optimisme grossier à une époque marquée par de fortes disparités de revenus, des pandémies et des crises du logement.
Entre-temps, Elon Musk et d'autres technologues n'ont pas ralenti leurs efforts pour se concentrer sur la sécurité en 2024, bien au contraire : les investissements dans l'IA en 2024 ont dépassé tout ce que nous avions vu auparavant. Sam Altman est rapidement revenu à la tête d'OpenAI, et un grand nombre de chercheurs en sécurité ont quitté la société en 2024, tout en tirant la sonnette d'alarme quant à l'affaiblissement de sa culture en matière de sécurité.
De plus, le décret de Joe Biden sur la sécurité l'IA est largement tombé en disgrâce cette année à Washington. Donald Trump a annoncé son intention d'abroger le décret de Joe Biden, arguant qu'il entrave l'innovation dans le domaine de l'IA. Les analystes s'attendent à une déréglementation massive sous Donald Trump.
Marc Andreessen, PDG de la société de capital-risque a16z, a déclaré avoir conseillé Donald Trump sur l'IA et la technologie au cours des derniers mois, et un investisseur en capital-risque de longue date chez a16z, Sriram Krishnan, est désormais le conseiller principal officiel de Donald Trump en matière d'IA.
L'influence politique de la Silicon Valley s'accroît rapidement depuis 2024
La Silicon Valley a intensifié son lobbying politique pour façonner les politiques publiques en faveur de ses intérêts. La compagne victorieuse de Donald Trump a été largement soutenue par les milliardaires de la Silicon Valley, qui ont dépensé des centaines de millions de dollars. Selon certains rapports, à lui seul, Elon Musk aurait dépensé plus de 250 millions de dollars pour soutenir le candidat républicain. L'influence politique de ces acteurs ne cesse de s'accroître.
Au niveau de l'État, le projet de loi californien SB 1047, qui vise à traiter les risques à long terme liés l'IA, a suscité un débat intense et s'est heurté à l'opposition des géants de la Silicon Valley. Le projet de loi a été adopté par l'Assemblée législative de Californie et est arrivé jusqu'au bureau du gouverneur Gavin Newsom, qui l'a qualifié de « projet de loi à l'impact considérable ». Mais le gouverneur Gavin Newsom a finalement rejeté la législation et a mis son veto.
Les législateurs à l'origine du projet de loi SB 1047 ont laissé entendre qu'ils pourraient revenir en 2025 avec un projet de loi modifié. L'un des parrains du projet de loi SB 1047, Encode, estime que l'attention nationale suscitée par le projet SB 1047 est un signal positif. « Le mouvement pour la sécurité de l'IA a fait des progrès très encourageants en 2024, malgré le veto de SB 1047 », a déclaré Sunny Gandhi, vice-président des affaires politiques d'Encode.
De l'autre côté, Martin Casado, partenaire général d'a16z, est l'une des personnes qui mènent le combat contre la réglementation des risques catastrophiques liés à l'IA. Dans un article d'opinion sur la politique en matière d'IA publié en décembre, Martin Casado affirme que nous avons besoin d'une politique plus raisonnable en matière d'IA pour aller de l'avant, déclarant que « l'IA semble être extrêmement sûre ». Une déclaration vivement controversée.
« La première vague d'efforts politiques stupides en matière d'IA est largement derrière nous. Espérons que nous pourrons être plus intelligents à l'avenir », a écrit Martin Casado dans un post sur X (ex-Twitter) en décembre 2024. Mais dire que « l'IA est extrêmement sûre » et qualifier de « stupides » les tentatives de la réglementer est en quelque sorte une simplification excessive. Certaines entreprises d'IA font l'objet de poursuites pour les risques liés à leurs produits.
Par exemple, Character.AI, une startup dans laquelle a16z a investi, fait actuellement l'objet de poursuites et d'enquêtes concernant la sécurité des enfants. Dans un procès en cours, un garçon de 14 ans de Floride s'est suicidé après avoir confié ses pensées suicidaires à un chatbot de Character.AI avec lequel il avait eu des conversations romantiques et sexuelles. Cette affaire montre que notre société doit se préparer à de nouveaux types de risques liés à l'IA.
Certains chercheurs de renom rejettent les risques existentiels associés à l'IA
Le manque perçu d'intelligence des systèmes d'IA actuels est l'un des facteurs qui contribuent à la diminution de l'attention portée à l'apocalypse de l'IA. Certains chercheurs de renom affirment que, bien qu'avancés, les modèles d'IA tels que GPT-4 d'OpenAI et Gemini de Google sont loin des scénarios apocalyptiques décrits dans la science-fiction. Yann LeCun, responsable de l'IA chez Meta, affirme que ces systèmes sont loin d'être aussi intelligents qu'un chien.
Yann LeCun a qualifié de « grotesque » l'idée d'une IA superintelligente prenant le contrôle de l'humanité, affirmant que nous sommes loin d'avoir créé des systèmes capables de prendre des décisions de manière indépendante. Les entreprises ont présenté des innovations en matière d'IA tout au long de l'année 2024, des fonctions de conversation en temps réel d'OpenAI aux lunettes intelligentes de Meta dotées d'une compréhension visuelle avancée.
Ces développements ont captivé l'imagination du public, éclipsant les craintes d'une mauvaise utilisation potentielle de l'IA. En 2025, le débat sur l'avenir de l'IA va s'intensifier davantage, les décideurs politiques et les chefs d'entreprise s'affrontant sur l'équilibre entre innovation et sécurité. Il reste à voir si les inquiétudes liées au danger de l'IA reprendront le dessus ou si elles continueront d'être éclipsées par l'optimisme de la Silicon Valley.
Conclusion
En 2024, la Silicon Valley a réussi à promouvoir une vision optimiste de l'IA, reléguant au second plan les préoccupations sur ses risques. Cette dynamique a conduit à une résistance accrue aux efforts de réglementation, tout en accentuant l'influence politique de l'industrie technologique. Néanmoins, le débat sur les implications éthiques et sécuritaires de l'IA demeure actif, avec des voix continues appelant à une approche plus prudente et réglementée.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'accroissement de l'influence politique de la Silicon Valley ?
Selon vous, le débat va-t-il se recentrer sur la sécurité des systèmes d'IA avancés en 2025 ? Pourquoi ?
Les projets de loi visant à réglementer l'IA ont-ils des chances d'être votés face au lobbying intense de la Silicon Valley ?
Voir aussi
OpenAI : « l'IAG sera atteinte lorsque nous aurons développé un système d'IA qui va générer au moins 100 milliards de dollars de bénéfices », des documents divulgués montrent sa définition contractuelle de l'IAG
Des experts en IA et des dirigeants d'entreprises ont signé une lettre ouverte appelant à une plus grande réglementation de la création de "deepfakes", évoquant les risques potentiels pour la société
Le responsable de l'IA chez Meta affirme que l'IA ne menacera jamais l'humanité et met en garde contre une réglementation prématurée, qui pourrait empêcher la concurrence dans le secteur