IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Ari Emanuel qualifie le PDG d'OpenAI Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA
Le magnat des médias appelle à la mise en place de garde-fous pour cette technologie

Le , par Stéphane le calme

16PARTAGES

6  0 
Lors du festival Aspen Ideas, Ari Emanuel, PDG du conglomérat médiatique Endeavor, a exprimé son opinion tranchante sur Sam Altman, le PDG d’OpenAI. Selon lui, Altman est un « manipulateur » qui ne peut pas être digne de confiance en matière d’intelligence artificielle. Il a également appelé à la mise en place de garde-fous pour cette technologie.

Ari Emanuel, PDG d'Endeavor, le conglomérat du sport et du divertissement, a qualifié Sam Altman, PDG d'OpenAI, « d'escroc » à qui l'on ne peut pas faire confiance en matière d'intelligence artificielle.

Lors du festival d'idées d'Aspen vendredi, Tina Brown, rédactrice en chef fondatrice du Daily Beast, a demandé au géant des médias de partager ses réflexions sur l'intelligence artificielle et les assurances que des innovateurs tels qu'Altman donnent à propos de la technologie.

Emanuel a d'abord pensé à Elon Musk, qu’il considère comme un « ami », notant qu'ils n'étaient pas d'accord sur de nombreux points, mais pas sur les risques de l'IA. « Si Elon Musk est inquiet, alors nous devrions l’être aussi », a-t-il déclaré. « Nous avons besoin de garde-fous. »

En ce qui concerne Sam Altman, Emanuel a été moins indulgent. Il a critiqué la façon dont OpenAI, initialement une organisation à but non lucratif, est désormais devenue lucrative. Altman ne détient pas directement d’actions dans OpenAI, mais la structure de l’entreprise est inhabituelle : une partie à but lucratif est gérée par une organisation à but non lucratif. Cette structure visait à garantir que l’IA générale bénéficie à l’humanité avant de privilégier les profits. Cependant, ces derniers mois, l’engagement d’OpenAI envers cette mission a été remis en question.

Deux jours avant l'intervention d'Emanuel au festival, Altman et le PDG d'Airbnb, Brian Chesky, étaient présents au même événement et ont déclaré que la mise au point d'une IA responsable nécessiterait la participation de la société.

« Nous devons apprendre à créer des technologies sûres », a déclaré Altman. « Nous devons trouver comment construire des produits sûrs, et cela passe par un dialogue permanent avec la société ».

Emanuel a déclaré que les personnes comme Altman sont probablement très intelligentes et qu'il ne veut pas étouffer l'innovation ; cependant, il ne croit pas que les innovateurs aient bien pesé les avantages de l'IA par rapport à ses inconvénients. « J'ai pensé à toute une série de choses qui sont mauvaises », a-t-il déclaré. « Vous me dites que vous avez fait le calcul et que les avantages l'emportent sur les inconvénients. Je ne crois pas ».

Le PDG d'Endeavor a ajouté que la réglementation gouvernementale sera nécessaire à mesure que l'IA se développera.

« Je ne veux pas non plus étouffer l'innovation, car je pense que nous avons besoin de l'IA. Mais nous devons l'encadrer », a-t-il déclaré. « Je sais que beaucoup de gens dans la Silicon Valley n'aiment pas que le gouvernement intervienne - et ce n'est pas comme si le gouvernement avait obtenu de bons résultats dans ce domaine - mais il s'agit d'une technologie assez dynamique qui nécessite une réflexion approfondie sur ce qui peut et ne peut pas se produire ».

Il est clair qu’Ari Emanuel estime que la confiance envers les acteurs de l’IA doit être examinée de près, et que des mesures de régulation sont nécessaires pour garantir une utilisation responsable de cette technologie


Le secrétaire général de l'ONU, Antonio Guterres

L'ONU veut créer une agence mondiale pour réguler l'IA

La prolifération de la haine et des mensonges sur les plateformes numériques et la menace que l'intelligence artificielle puisse devenir un « monstre » incontrôlé exigent une action mondiale coordonnée, à commencer par un code de conduite pour les gouvernements, les entreprises technologiques et les annonceurs qui promeut la vérité et protège les droits de l'homme, selon une déclaration du secrétaire général de l'ONU.

Antonio Guterres a déclaré qu'il prévoyait de nommer un conseil consultatif scientifique et un conseil consultatif sur l'intelligence artificielle en septembre 2023 pour préparer les initiatives que l'ONU pourrait prendre. Il a déclaré qu'il réagirait favorablement à une nouvelle agence de l'ONU sur l'intelligence artificielle et a suggéré comme modèle l'Agence internationale de l'énergie atomique, qui est basée sur la connaissance et dispose de certains pouvoirs de réglementation.

Guterres a déclaré lors d'une conférence de presse qu'il prévoyait de mener de larges consultations sur les principes du Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques, qu'il publiera avant le Sommet de l'avenir des Nations Unies de l'année prochaine.

Il a exprimé l'espoir que le code sera largement soutenu, mais lorsqu'on lui a demandé si les gouvernements et les entreprises technologiques étaient disposés à prendre des mesures pour rendre l'espace numérique plus sûr, il a répondu : « C'est la question que je me pose ».

« Nous avons affaire à une entreprise qui génère des profits énormes, et nous avons aussi affaire dans certaines situations à des gouvernements qui ne respectent pas entièrement les droits de l'homme, c'est donc une bataille constante - et dans cette bataille constante, nous devons mobiliser tous ceux qui sont attachés à l'intégrité de l'information sur les plateformes numériques », a-t-il déclaré.

Heidi Beirich, cofondatrice du Projet mondial contre la haine et l'extrémisme, a convenu que même si c'est une étape positive que l'ONU appelle à des solutions internationales à ce problème mondial, son code de conduite ne sera probablement pas suffisant pour arrêter le torrent d'informations fausses et haineuses en ligne.

« Le fait est que les codes volontaires, y compris les propres conditions de service des entreprises sur ces questions, n'ont pas réussi à les maîtriser », a déclaré Beirich. « Le problème pour l'ONU est qu'ils ne peuvent pas faire ce qu'il semble devoir faire pour régler ce problème, qui est essentiellement une législation ».

Guterres a déclaré que de nombreuses initiatives étaient en cours, notamment une loi et un code de conduite dans l'Union européenne pour ses 27 pays membres et un sommet britannique sur la sécurité de l'IA à l'automne. D'autres gouvernements étudient également des formes de réglementation. Mais il a dit qu'il y a une opinion selon laquelle la réglementation n'est pas facile parce que les choses évoluent très rapidement, et qu'une approche globale est donc nécessaire.

Guterres a déclaré qu'un problème clé est que le modèle commercial de l'entreprise technologique donne la priorité à l'engagement plutôt qu'à la confidentialité, à la vérité et aux droits de l'homme. Il a déclaré que les entreprises technologiques doivent comprendre que des profits massifs ne peuvent être créés « au détriment d'un modèle d'engagement qui passe avant toute autre considération ».

Le chef de l'ONU a déclaré que le code de conduite ne sera pas une solution, « mais il sera mondial » et il permettra aux gouvernements, aux entreprises technologiques, aux annonceurs et autres « de s'engager sur ce qui doit être fait pour garantir ou au moins pour promouvoir sérieusement l'intégrité de l'information sur les plateformes numériques ».

Source : Ari Emanuel

Et vous ?

La confiance envers les entreprises d’IA : pensez-vous que les entreprises travaillant sur l’intelligence artificielle devraient être davantage régulées pour garantir une utilisation responsable de cette technologie ? Pourquoi ou pourquoi pas ?
Le rôle du gouvernement : Ari Emanuel a suggéré que le gouvernement devrait intervenir pour mettre en place des garde-fous sur l’IA. Êtes-vous d’accord avec cette idée ? Quel devrait être le rôle du gouvernement dans la régulation de l’IA ?
Mission d’OpenAI : OpenAI avait initialement pour mission de développer une IA bénéfique pour l’humanité. Pensez-vous que cette mission est toujours respectée, ou l’entreprise a-t-elle perdu de vue cet objectif initial ?
Transparence et responsabilité : comment les entreprises d’IA devraient-elles rendre compte de leurs actions et de leurs décisions ? Quelles mesures devraient-elles prendre pour garantir la transparence et la responsabilité ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de der§en
Membre éprouvé https://www.developpez.com
Le 02/08/2024 à 7:19
Petit pastiche d’une citation de Georges Clemenceau:

L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
3  0 
Avatar de Fluxgraveon
Membre habitué https://www.developpez.com
Le 02/08/2024 à 10:06
La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.
Ridicule.
2  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/09/2024 à 15:16
Citation Envoyé par Jules34 Voir le message
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
Je pense que tu n'as pas compris ce que j'ai dit.
Je vais prendre deux exemples différents pour éclaircir mes propos.

Cas 1 : Une personne demande à un logiciel IA de créer des photos d'une personnalité connue faisant quelque chose d’illégale. L'IA réalise ce qui est demandé et la personne le publie en faisant croire que c'est une vraie info.
Dans ce cas, la personne est responsable et la société conceptrice et productrice de l'IA n'a rien à se reprocher.

Cas 2 : Une personne demande des informations concernant une autre personne a un logiciel d'IA. L'IA renvoie des données fausses et préjudiciables sur cette personne. Le demandeur publie ces infos renvoyées pas l'IA. Alors, pour moi, l'IA est responsable, et donc la société conceptrice et productrice de l'IA est responsable.

Si je reprends ton exemple sur Smith&Wesson, si l'arme explose blessant son propriétaire et les personnes qui sont autour, qui est responsable ?
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 23/09/2024 à 13:36
Citation Envoyé par Stéphane le calme Voir le message
Et vous ?

Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
C'est évident. Ne serait-ce que pour savoir si les données utilisées sont dignes de confiance ou risque d'être basées sur du grand n'importe quoi. Imaginons un AI entrainée à partir de TikTok et/ou X (twitter) !
Ensuite, il n'y a pas de raison que le droit d'auteurs ne soit pas respecté par ces entreprises.
Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils. Ex du journaliste se voyant accusé à des affaires criminelles qu'il a couvert dans la cadre de son travail.
2  2 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 23/09/2024 à 14:31
Citation Envoyé par Jon Shannow Voir le message
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils.
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
1  2