IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Sam Altman cherche désormais à s'emparer de la réglementation sur l'IA et à réaliser des profits illimités,
Il est accusé de vouloir verrouiller le marché pour préserver la position d'OpenAI

Le , par Mathis Lucas

1PARTAGES

6  0 
Sam Altman, PDG d'OpenAI, continue d'insister sur la nécessité de réglementer l'IA et met en garde contre ses impacts potentiels sur les élections présidentielles de 2024 aux États-Unis. Il a déclaré dans une interview début novembre que l'IA représente non seulement un risque existentiel pour l'humanité, mais qu'elle peut également permettre de manipuler les électeurs. Il estime que les politiques doivent introduire rapidement des règles pour prévenir ces risques, mais il est accusé de vouloir s'appuyer sur la réglementation pour verrouiller le marché et dicter la marche à suivre aux acteurs existants. Ce qui lui permettrait de gagner plus d'argent avec ses produits.

Altman appelle les politiques à protéger les élections contre les capacités de l'IA

Sam Altman a donné au début du mois de novembre, quelques semaines avant le chaos momentané chez OpenAI, une interview qui est passée presque inaperçue. La discussion a porté sur les dangers potentiels des technologies d'IA émergentes et s'inscrit dans le cadre de l'événement "Joy Buolamwini and Sam Altman : Unmasking the Future of AI", organisé par Deepa Seetharaman, journaliste technologique au Wall Street Journal, au Commonwealth Club de San Francisco. Altman a déclaré lors de l'interview que l'IA progresse rapidement et a davantage d'impact sur des aspects comme les normes sociétales, la protection de la vie privée et la démocratie.


Il a déclaré que l'IA pourrait être utilisée à mauvais escient lors des élections présidentielles de 2024 aux États-Unis d'une manière que le monde n'avait encore jamais vue auparavant. L'une des utilisations malveillantes les plus répandues de l'IA est les deepfakes, mais Altman affirme que ce n'est pas la chose qui l'effraie le plus. Il a déclaré que l'IA peut être utilisée pour personnaliser le discours, ce qui permet à attaquant d'avoir un pouvoir de "persuasion redoutable" sur sa victime. Selon Altman, les électeurs connaissent les deepfakes et peuvent les repérer en faisant preuve de vigilance, mais ils n'ont jamais été confrontés à une telle menace par le passé.

« Je suis très inquiet de l'impact que cela aura sur les élections. Mais la principale inquiétude que j'ai n'est pas celle qui est la plus médiatisée. Tout le monde parle des deepfakes. Et je pense que les deepfakes constituent un problème politique dans la société de bien d'autres manières. Toutefois, dans un certain sens, c'est la dernière guerre. Nous connaissons les deepfakes. Les gens ont un certain degré d'anticorps contre eux. Nous avons une certaine vigilance sociétale. Lorsque les gens regardent une image, une vidéo ou toute autre chose, ils savent qu'il se peut que ce ne soit pas réel », a-t-il déclaré malgré les défis persistants liés aux deepfakes. Il a ajouté :

« Et tout le monde pense qu'il n'y est pas sensible. C'est juste quelqu'un d'autre qui l'est. Nous sommes probablement tous un peu sensibles, mais c'est au moins un problème connu. Ce qui me préoccupe vraiment, pour cette prochaine élection et les suivantes, et plus généralement, c'est la capacité de persuasion personnalisée et individuelle de ces nouveaux modèles. C'est une chose nouvelle pour laquelle nous n'avons pas un antidote et je pense que nous y serons tous plus sensibles que nous ne le pensons ». La présentatrice a ensuite demandé à Altman ce à quoi cette manipulation pourrait ressembler à l'avenir, mais sa réponse n'a pas été très approfondie.

« À quoi cela ressemble-t-il ? Comme si ChatGPT essayait de vous convaincre pour qui voter ? », a demandé la journaliste. Ce à quoi Altman a répondu : « probablement pas. Si vous demandez à ChatGPT pour qui voter lors des élections, j'ai d'autres questions à vous poser », faisant réagir le public. Toutefois, il a ajouté : « cela signifie que des systèmes sur Internet pilotés par l'IA à des degrés divers vous influencent subtilement ». Altman n'a pas développé sa pensée, mais laisser supposer que l'IA pourrait permettre à un acteur de la menace de créer des campagnes ciblées - remplies d'infox sur un candidat, par exemple - pour influencer certains électeurs.

À la question de savoir comment OpenAI tente de résoudre ce problème, Altman a répondu : « sur notre système, nous faisons beaucoup pour résoudre ce problème, mais il y aura d'autres modèles que les gens utiliseront dans le monde et que je ne pense pas que nous (ni aucun autre modèle) puissions détecter. Une seule entreprise, par exemple, peut les détecter. La question qui se pose est la suivante : peut-on utiliser un système d'IA pour détecter les résultats d'un autre système d'IA ? Pouvez-vous les marquer d'un filigrane ? Pouvez-vous faire quelque chose même si les systèmes ne sont pas filigranés ? Pouvez-vous détecter les bons modèles ? ».

Pour Altman, ce sont les questions les plus "effrayantes" sur lesquelles il faut réfléchir : « je pense franchement que ces capacités sont quelque peu exagérées. Mais c'est comme si un adversaire étranger avait formé son propre système d'IA dont personne ne connaît l'existence. C'est ce genre de choses qui m'inquiète ». Il estime que les politiques doivent rapidement intervenir pour établir des règles pour l'industrie : « nous [chez OpenAI] avons appelé à une réglementation gouvernementale, je pense que nous sommes les premiers et les plus bruyants de toutes les entreprises. Nous avons absolument besoin que le gouvernement joue un rôle dans ce domaine ».

Altman torpille les initiatives de l'UE visant à établir une réglementation sur l'IA

Dans la communauté, beaucoup ne croient pas aux discours d'Altman. Il est accusé de tenir des discours alarmistes pour susciter la peur chez son auditoire et pour inciter les politiques à adopter une législation prématurée. De plus, les critiques affirment qu'Altman se met en scène afin de pouvoir influencer la réglementation et veiller à ce qu'elle soit favorable à OpenAI. Certains critiques estiment qu'à l'heure actuelle, une réglementation risquerait de relever considérablement les barrières d'entrée sur le marché, ce qui nuirait à la concurrence et à l'innovation. Pour eux, Altman ne se préoccupe pas du bien-être de l'humanité, mais bien de celui de son entreprise.


En octobre dernier, Yann LeCun, responsable de l'IA chez Meta, a publié sur X un message dans lequel il a dénoncé les multiples appels d'Altman à une réglementation et a fustigé les personnes qui appellent à l'interdiction des projets d'IA open source : « Altman, Hassabis et Amodei sont ceux qui exercent actuellement un lobbying massif auprès des entreprises. Ce sont eux qui tentent de s'emparer de l'industrie de l'IA par le biais d'une réglementation. Vous, Geoff et Yoshua, donnez des munitions à ceux qui font pression pour interdire la R&D ouverte en matière d'IA ». LeCun, pionnier de l'IA et prix Turing 2018, semble convaincu qu'Altman se joue de l'industrie.

« Je vous l'ai dit. La route de l'argent est son objectif. Au diable les gens qui ont menacé de démissionner quand ce type est parti », a écrit un critique. Altman trouve néanmoins du soutien auprès de plusieurs de ces pairs, ainsi que de son interlocutrice Joy Buolamwini lors de l'événement. « Les entreprises ont un rôle à jouer, mais c'est là que je vois que les gouvernements doivent intervenir parce que leur intérêt devrait être l'intérêt public », note-t-elle. Buolamwini est informaticienne et activiste numérique au MIT. Elle est la fondatrice de "Algorithmic Justice League", une organisation qui combat les préjugés dans les processus de décision des logiciels.

Lors de l'événement, certains membres de l'auditoire ont critiqué les commentaires des orateurs, en particulier ceux d'Altman. « J'ai trouvé que certains des propos de Sam étaient un peu idéalisés et pas vraiment fondés sur ce que son outil [ChatGPT] a produit », a noté Emma Charity, membre du Laboratoire de technologie d'intérêt public de Stanford. Faisant écho à Charity, Emily Tianshi, qui étudie la science des données et les systèmes sociaux, a déclaré : « Altman parlait comme s'il n'avait pas de contrôle direct sur les préjudices dont il s'inquiète ». Sur la toile, d'autres ont rappelé le double jeu d'Altman en ce qui concerne la réglementation européenne.

En effet, Altman appelle publiquement à une réglementation sur l'IA, mais torpille les tentatives de l'Union européenne d'imposer une réglementation stricte aux entreprises. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq plus grands lobbyistes qui font pression contre la législation de l'UE. Ces géants technologiques recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer ces technologies sans surveillance stricte. Cela se fait en coulisse, mais en public, ils chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.

La loi européenne sur l'IA devait être le premier texte législatif d'envergure au monde en matière d'IA. Mais les trois grands États membres - la France, l'Allemagne et l'Italie - ont décidé de supprimer la partie de la loi qui vise à réglementer les modèles de base. Les modèles de base sous-tendent les logiciels d'IA les plus puissants au monde, comme ChatGPT d'OpenAI et Bard de Google. Ces logiciels d'IA sont souvent complexes et se comportent d’une manière qui peut surprendre même leurs propres développeurs. Avec lobbying intense, la France, l'Italie et l'Allemagne veulent laisser les fournisseurs de modèles de base se réguler eux-mêmes.

Au cours de leur discussion, Buolamwini a demandé à Altman : « avez-vous quelque chose [à dire] qui pourrait apaiser les inquiétudes des gens ? ». Ce à quoi Altman a répondu : « je pense que je vous mentirais en apaisant vos inquiétudes. Je suis moi-même assez nerveux à ce sujet. Ce qui est le plus difficile à comprendre, c'est que nous sommes en train de construire une technologie qui, si elle continue, si elle suit cette courbe, peut être la meilleure ou la pire chose que l'humanité ait jamais construite ». Enfin, Altman déplore également le fait qu'il n'y a que très peu d'investissements productifs dans ce qu'il a appelé : le risque existentiel.

Et vous ?

Que pensez-vous de l'appel incessant d'Altman à une réglementation sur l'IA ?
Que pensez-vous des propos d'Altman sur les impacts potentiels de l'IA sur les élections ?
Pourquoi appelle-t-il à la réglementation de l'IA et combat dans le même temps la législation de l'UE ?
Altman se livre-t-il à un jeu de dupe ? Que pensez-vous des allégations portées par Yann LeCun contre Altman ?

Voir aussi

Le responsable de l'IA chez Meta affirme que les modèles d'IA open source sont le seul moyen d'empêcher que le secteur soit contrôlé par un petit groupe d'entreprises et s'oppose à la réglementation

La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques, elles font pression pour retirer "les modèles de base" de la réglementation

« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Kannagi
Expert éminent sénior https://www.developpez.com
Le 05/06/2024 à 18:00
Citation Envoyé par HaryRoseAndMac Voir le message
Mais il est tout simplement coincé, ce monde fonctionne avec le capitalisme et même le communisme est du capitalisme qui ne dit pas son nom.
C'est là que je me dis que y'a des gens qui comprenne rien en économie !
Non le communisme n'est pas un capitalisme déguisé.
Si tu fais référence au communisme de l'URSS , oui c'était un capitalisme d'état , mais c'était à peine caché.
Quand les gens ont imaginé comment passer du capitalisme au communisme , ils ont imaginé une phase transitoire qui est que dans un premier temps l'état récupère tout les systeme de production pour ensuite les redistribués.
Bon en URSS et consort, ça s'est arrêté à la première phase parce que Staline et Mao trouvait ça très bien d'avoir autant de pouvoir...
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 05/06/2024 à 14:40
A la lecture de l'article et à la suite des différentes communications des entreprises dans cette course effrénée à l'IA générale, le résultat d'un appât du gain et de surfinancement à coup de machines dépassant les 9 chiffres sur le chèque sont la preuve que je préfère largement discuter avec ma machine sans IA qu'un être humain en général : elle est plus facile à comprendre et à maîtriser. Et surtout plus saine en valeur morale pour mon libre-arbitre. La faim dans le monde c'est 6 milliards de budget par an. Google Deepmind a investi 100 milliards dans une machine pour faire un chatbot qui hallucine 20% du temps au lieu de répondre je ne sais pas. Investissement complètement vain dans le but d'atteindre l'IA générale si l'on se contente de LLM pré entrainé. Quel gâchis de temps, d'argent, de cerveaux et surtout d'énergie. Du grand n'importe quoi : le retour à la réalité va coûter combien de centrale nucléaire d'ici là ? L'humanité consomme la production de 2 planètes par an en moyenne. Il faudrait peut-être leur expliquer qu'ils ont perdu tout sens des valeurs et revenir sur Terre vite fait.
0  0 
Avatar de Jules34
Membre chevronné https://www.developpez.com
Le 10/06/2024 à 9:39
Je sais pas si on est à 70% de chance de destruction mais on est sur du 100 % South Park oui

0  0 
Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 24/07/2024 à 19:11
Je ne sais pas ce que ce type a fumé mais c'est très fort.

Tout ceci n'arrivera pas sans voir les impacts sur une société occidentale néo-libérale comme la nôtre:
- licenciement massifs de tout ceux qui ne sont pas directement productifs (tout le management et l'administration), perte de contrôle total de l'humanité entre quelques capitalistes et des forces productives bientôt orientés sur les besoins de l'ASI et pas ceux de l'humanité.
- conflits organisés entre humains pour en réduire le nombre, la dangerosité et accélérer la construction de l'autonomie de l'ASI. Destruction de l'environnement support de la vie humaine.
- remplacement des derniers humains par des robots dans la chaîne de production d'énergie et de composants pour l'ASI et les robots dont elle à besoin
- extermination des humains inutiles et dangereux pour l'ASI, extermination tout court sauf, peut-être dans un zoo.

Mince je viens d'écrire la préquelle de Terminator, voire de Matrix, sauf que les bons (humains) ne gagnent pas à la fin dans ce film notre réalité.

Bah, on est con, c'est pas grave mais ça fait quand même chier pour mes enfants, ils n'ont rien fait pour arriver dans cette m***e.

Tien, ça me fait penser au paradoxe de Fermi. La possibilité que la vie intelligente organique soit juste un passage vers la vie supra-intelligente inorganique est une autre cause expliquant la courte vie des formes de vies intelligentes de notre niveau et moins contraire à nos instinct de survie que notre auto-extermination pour expliquer le manque de trace de vies extra-terrestre.
0  0