IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le patron de Google DeepMind répond au chef de la division IA de Meta qui l'accuse d'entretenir la peur d'un futur où l'IA deviendrait une menace pour l'humain
Afin d'appeler à une réglementation

Le , par Patrick Ruiz

0PARTAGES

6  0 
Le patron de Google Deepmind répond au chef de la division IA de Meta. Ce dernier l’accuse d’entretenir la peur d’un futur où l’intelligence artificielle deviendrait une menace pour l’humain. L’objectif (selon le chef de la division IA de Meta) : appeler à une réglementation mondiale de la filière IA au profit des géants technologiques. L’implication serait alors la prolifération de systèmes d’IA propriétaires au détriment de ceux à code source ouvert. Faut-il ouvrir le code source et opter pour la transparence totale des mécanismes d’entraînement des IA ou opter pour des systèmes fermés pour lesquels les grandes entreprises technologiques prétendent que l’avantage sera d’éviter de mettre de puissants outils entre les mains de monsieur Tout-le-monde ? La question divise.

Demis Hassabis, qui est à la tête de Google Deepmind, estime que le risque lié à l'IA devrait être traité avec la même conviction que les efforts déployés pour lutter contre le changement climatique.

Le chercheur britannique en IA est d’avis qu’il est nécessaire de réglementer davantage l'IA afin de lutter contre les crises existentielles posées par une technologie qui possède des niveaux d'intelligence supérieurs à ceux de l'homme. Il déclare à ce propos que « le monde ne peut pas se permettre de retarder sa réponse. » Le chercheur estime que la réglementation de l'IA commence par la création d'un organisme similaire au GIEC. Hassabis ajoute qu'il est impératif de s'attaquer aux dangers de l'IA, y compris ceux liés à la création d'armes biologiques.

Dans une récente interview, Hassabis souligne que la communauté internationale avait mis beaucoup trop de temps à coordonner une réponse mondiale efficace au changement climatique et que nous vivions les conséquences de ce retard. L'expert en IA a affirmé que le monde ne pouvait plus se permettre un tel retard.

Hassabis a en sus exprimé son souhait de voir un équivalent du CERN (l'Organisation européenne pour la recherche nucléaire) pour la sécurité de l'IA, qui supervise la recherche à l'échelle mondiale. Il souhaite en plus la création d'un équivalent de l'Agence internationale de l'énergie atomique. Ses commentaires interviennent alors que le Royaume-Uni prévoit d'accueillir son sommet mondial sur la gouvernance de l'IA. Cet événement est considéré comme une occasion d'établir un consensus international sur les dangers de l'IA. Sa récente sortie en réponse au chef de la division IA de Meta est une redite de ce positionnement.


C’est un débat open source contre systèmes propriétaires qui se joue en toile de fond

Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels « l'IA n'est pas intelligente et est encore plus bête que les chats », ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence. C’est la raison pour laquelle il milite pour la transparence en matière de développement de l’intelligence artificielle au travers de l’open source.


Au début de l'année, l'entreprise spécialisée en cybersécurité CheckPoint a noté que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. L'IA d'OpenAI pouvait également produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme a rapporté en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint a estimé que ChatGPT ouvrait ces possibilités à des individus avec de très faibles connaissances techniques. Puis OpenAI a amélioré son chatbot IA, lui imposant des limites éthiques et restreignant certaines fonctionnalités. C'était sans compter sur l'ingéniosité de certains intervenants de la sphère qui ont fini par mettre sur pied WormGPT. C’est un chatbot conçu pour aider les cybercriminels à développer des logiciels malveillants. WormGPT représente l’entrée en matière des possibilités qui seront accessibles aux cybercriminels au fur et à mesure de l’évolution des modèles d’intelligence artificielle. C’est la raison pour laquelle la question revient avec acuité sur la table : Faut-il ouvrir le code source et opter pour la transparence totale des mécanismes d’entraînement des IA ou opter pour des systèmes fermés pour lesquels les grandes entreprises technologiques prétendent que l’avantage sera d’éviter de mettre de puissants outils entre les mains de monsieur Tout-le-monde ? Ilya Sutskever explique les avantages et les inconvénients de chacun des points de vue :


Source : Entretien (pièce jointe)

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises

Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 15/11/2023 à 15:18
C'est d'une telle évidence ...
0  0