Envoyé par L'essentiel de la lettre
[Tweet] <blockquote class="twitter-tweet"><p lang="en" dir="ltr">Many AI company employees came out in favor of SB 1047 (<a href="https://twitter.com/GavinNewsom?ref_src=twsrc%5Etfw">@GavinNewsom</a><a href="https://t.co/WicgvWlrcY">https://t.co/WicgvWlrcY</a> <a href="https://t.co/9WuE5if4RN">pic.twitter.com/9WuE5if4RN</a></p>— Dan Hendrycks (@DanHendrycks) <a href="https://twitter.com/DanHendrycks/status/1833148300934938970?ref_src=twsrc%5Etfw">September 9, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/Tweet]
Certaines entreprises derrière les modèles d’intelligence artificielle les plus en vue reconnaissent ne pas avoir la maîtrise totale de leur fonctionnement
Le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.
« Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'intelligence artificielle, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.
« Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».
Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.
« Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.
C’est la raison des appels de certains manifestants à « Arrêter la course, car les développements de l’IA ne sont pas sûrs »
À Londres, une vingtaine de manifestants se sont postés devant le ministère britannique de la science, de l'innovation et de la technologie, scandant des slogans tels que « arrêtez la course, ce n'est pas sûr » et « l'avenir de qui ? notre avenir », dans l'espoir d'attirer l'attention des décideurs politiques. Les manifestants affirment que leur objectif est d'inciter les gouvernements à réglementer les entreprises qui développent des modèles d'IA d'avant-garde, notamment le Chat GPT d'OpenAI. Ils affirment que les entreprises ne prennent pas suffisamment de précautions pour s'assurer que leurs modèles d'IA sont suffisamment sûrs pour être diffusés dans le monde.
« Les entreprises d'IA ont prouvé à maintes reprises que l'on ne pouvait pas leur faire confiance, à travers la manière dont elles traitent leurs employés et le travail des autres, en le volant littéralement et en le jetant dans leurs modèles », a déclaré Gideon Futerman, un étudiant d'Oxford qui a prononcé un discours lors de la manifestation.
L'une des manifestantes, Tara Steele, rédactrice indépendante qui travaille sur des blogs et des contenus de référencement, a déclaré qu'elle avait constaté l'impact de la technologie sur ses propres moyens de subsistance. « J'ai remarqué que depuis l'apparition de ChatGPT, la demande de travail en freelance a considérablement diminué », explique-t-elle. « Personnellement, j'adore écrire... J'ai vraiment adoré ça. Et c'est un peu triste, émotionnellement ».
Elle explique que sa principale raison de protester est qu'elle craint que les modèles d'intelligence artificielle d'avant-garde n'aient des conséquences encore plus dangereuses à l'avenir. « Nous avons une foule d'experts hautement qualifiés, des lauréats du prix Turing, des chercheurs en intelligence artificielle très cités et les PDG des entreprises d'intelligence artificielle eux-mêmes [qui affirment que l'intelligence artificielle pourrait être extrêmement dangereuse] ».
Elle est particulièrement préoccupée par le nombre croissant d'experts qui mettent en garde contre les conséquences catastrophiques d'une IA mal maîtrisée. Un rapport commandé par le gouvernement américain, publié en mars, met en garde contre « l'essor de l'IA avancée et de l'IAG [intelligence artificielle générale], qui pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». Actuellement, les plus grands laboratoires d'IA tentent de construire des systèmes capables de surpasser les humains dans presque toutes les tâches, y compris la planification à long terme et la pensée critique. S'ils y parviennent, de plus en plus d'aspects de l'activité humaine pourraient être automatisés, qu'il s'agisse de choses banales comme les achats en ligne ou de l'introduction de systèmes d'armes autonomes qui pourraient agir d'une manière que nous ne pouvons pas prédire. Cela pourrait conduire à une « course aux armements » qui augmenterait la probabilité « d'accidents mortels à l'échelle mondiale et à l'échelle des ADM [armes de destruction massive], de conflits interétatiques et d'escalade », selon le rapport.
Source : Lettre
Et vous ?
Quelles sont les principales préoccupations que vous avez concernant le développement rapide de l’intelligence artificielle ?
Comment les gouvernements devraient-ils réguler l’IA pour équilibrer l’innovation et la sécurité publique ?
Quel rôle le public doit-il jouer dans la décision des limites de l’IA ?
Les avantages de l’IA l’emportent-ils sur les risques potentiels pour l’emploi et la vie privée ?
Devrions-nous craindre une ‘course à l’IA’ entre les entreprises et les nations, et si oui, comment pouvons-nous la prévenir ?
Quelles mesures de sécurité spécifiques les entreprises d’IA devraient-elles mettre en place avant de lancer de nouveaux produits ?
Comment l’IA a-t-elle affecté votre vie professionnelle ou personnelle, et quelles sont vos attentes pour l’avenir ?
Quelles sont les responsabilités éthiques des développeurs d’IA, et comment peuvent-ils s’assurer qu’ils les respectent ?
Voir aussi :
Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies