
Le débat sur la sécurité de l'IA s'est intensifié après la sortie de ChatGPT
Des chercheurs en IA alertent depuis des années sur les risques associés aux systèmes d'IA avancés. Ils craignent notamment l'utilisation abusive de ces systèmes par des entités puissantes et les conséquences sociétales catastrophiques qu'ils pourraient entraîner. Cela n'a toutefois pas empêché OpenAI de publier fin 2022 son chatbot d'IA ChatGPT, qui est devenu rapidement viral. En 2023, les inquiétudes concernant la sécurité de l'IA ont atteint leur paroxysme.
Des personnalités comme Elon Musk et plus de 1 000 technologues ont signé une lettre ouverte appelant à une pause temporaire dans le développement de l'IA pour faire face aux risques. Peu après, des scientifiques d'OpenAI, de Google et d'autres laboratoires ont signé une lettre ouverte affirmant que le risque que l'IA provoque l'extinction de l'humanité devrait être davantage pris en compte. Geoffrey Hinton, lauréat du prix Turing, fait de partie de ce groupe.
Quelques mois plus tard, le président américain Joe Biden a signé un décret dont l'objectif est de protéger les Américains des systèmes d'IA. Puis, en novembre 2023, le conseil d'administration à but non lucratif d'OpenAI a brusquement licencié le PDG Sam Altman, affirmant que ce dernier avait la réputation de mentir et qu'on ne pouvait désormais plus lui faire confiance et lui confier une technologie aussi importante que l'intelligence artificielle générale (AGI).
L'AGI était autrefois l'aboutissement imaginé de l'IA, c'est-à-dire des systèmes dotés d'une véritable conscience d'eux-mêmes. Toutefois, la définition de l'AGI évolue aujourd'hui pour répondre aux besoins commerciaux de ceux qui en parlent. Sam Altman a revu drastiquement à la baisse les attentes à l'égard de l'AGI.
Des documents internes d'OpenAI ayant récemment fait l'objet de fuite ont révélé sa définition contractuelle de l'AGI. Selon les documents, la nouvelle définition d'OpenAI est la suivante : « l'AGI sera atteinte lorsque nous aurons développé un système d'IA qui va générer au moins 100 milliards de dollars de bénéfices ».
La situation a changé radicalement en 2024 et les craintes sont balayées
En 2024, les leaders de l'industrie technologique, y compris des investisseurs en capital-risque comme Marc Andreessen, ont rejeté ces craintes. Ils ont accusé les lanceurs d'alerte d'alarmistes. Dans un essai intitulé « Why AI Will Save the World », Marc Andreessen plaide notamment en faveur d'un développement rapide de l'IA et d'une réglementation minimale afin d'en exploiter tout le potentiel. D'après lui, l'IA pourrait résoudre les crises et sauver le monde.
« L'ère de l'IA est arrivée, et les gens paniquent. Heureusement, je suis là pour apporter la bonne nouvelle : l'IA ne détruira pas le monde et pourrait même le sauver », a écrit Andreessen dans son essai. Bien entendu, cela permettrait aux startups d'IA de Marc Andreessen de gagner beaucoup plus d'argent ; et certains ont trouvé son techno-optimisme grossier à une époque marquée par de fortes disparités de revenus, des pandémies et des crises du logement.
Entre-temps, Elon Musk et d'autres technologues n'ont pas ralenti leurs efforts pour se concentrer sur la sécurité en 2024, bien au contraire : les investissements dans l'IA en 2024 ont dépassé tout ce que nous avions vu auparavant. Sam Altman est rapidement revenu à la tête d'OpenAI, et un grand nombre de chercheurs en sécurité ont quitté la société en 2024, tout en tirant la sonnette d'alarme quant à l'affaiblissement de sa culture en matière de sécurité.
De plus, le décret de Joe Biden sur la sécurité l'IA est largement tombé en disgrâce cette année à Washington. Donald Trump a annoncé son intention d'abroger le décret de Joe Biden, arguant qu'il entrave l'innovation dans le domaine de l'IA. Les analystes s'attendent à une déréglementation massive sous Donald Trump.
Marc Andreessen, PDG de la société de capital-risque a16z, a déclaré avoir conseillé Donald Trump sur l'IA et la technologie au cours des derniers mois, et un investisseur en capital-risque de longue date chez a16z, Sriram Krishnan, est désormais le conseiller principal officiel de Donald Trump en matière d'IA.
L'influence politique de la Silicon Valley s'accroît rapidement depuis 2024
La Silicon Valley a intensifié son lobbying politique pour façonner les politiques publiques en faveur de ses intérêts. La compagne victorieuse de Donald Trump a été largement soutenue par les milliardaires de la Silicon Valley, qui ont dépensé des centaines de millions de dollars. Selon certains rapports, à lui seul, Elon Musk aurait dépensé plus de 250 millions de dollars pour soutenir le candidat républicain. L'influence politique de ces acteurs ne cesse de s'accroître.
Au niveau de l'État, le projet de loi californien SB 1047, qui vise à traiter les risques à long terme liés l'IA, a suscité un débat intense et s'est heurté à l'opposition des géants de la Silicon Valley. Le projet de loi a été adopté par l'Assemblée législative de Californie et est arrivé jusqu'au bureau du gouverneur Gavin Newsom, qui l'a qualifié de « projet de loi à l'impact considérable ». Mais le gouverneur Gavin Newsom a finalement rejeté la législation et a mis son veto.
Les législateurs à l'origine du projet de loi SB 1047 ont laissé entendre qu'ils pourraient revenir en 2025 avec un projet de loi modifié. L'un des parrains du projet de loi SB 1047, Encode, estime que l'attention nationale suscitée par le projet SB 1047 est un signal positif. « Le mouvement pour la sécurité de l'IA a fait des progrès très encourageants en 2024, malgré le veto de SB 1047 », a déclaré Sunny Gandhi, vice-président des affaires politiques d'Encode.
De l'autre côté, Martin Casado, partenaire général d'a16z, est l'une des personnes qui mènent le combat contre la réglementation des risques catastrophiques liés à l'IA. Dans un article d'opinion sur la politique en matière d'IA publié en décembre, Martin Casado affirme que nous avons besoin d'une politique plus raisonnable en matière d'IA pour aller de l'avant, déclarant que « l'IA semble être extrêmement sûre ». Une déclaration vivement controversée.
« La première vague d'efforts politiques stupides en matière d'IA est largement derrière nous. Espérons que nous pourrons être plus intelligents à l'avenir », a écrit Martin Casado dans un post sur X (ex-Twitter) en décembre 2024. Mais dire que « l'IA est extrêmement sûre » et qualifier de « stupides » les tentatives de la réglementer est en quelque sorte une simplification excessive. Certaines entreprises d'IA font l'objet de poursuites pour les risques liés à leurs produits.
Par exemple, Character.AI, une startup dans laquelle a16z a investi, fait actuellement l'objet de poursuites et d'enquêtes concernant la sécurité des enfants. Dans un procès en cours, un garçon de 14 ans de Floride s'est suicidé après avoir confié ses pensées suicidaires à un chatbot de Character.AI avec lequel il avait eu des conversations romantiques et sexuelles. Cette affaire montre que notre sociét...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.