IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Les entreprises lancées sur des modèles d'IA propriétaires se comportent comme si elles créent Dieu », d'après Marc Zuckerberg
Qui relance le débat sur la nécessité de l'ouverture des modèles d'IA

Le , par Patrick Ruiz

1PARTAGES

11  0 
Mark Zuckerberg, PDG de Meta, déclare dans une récente interview que l'open source est la voie à adopter afin de mettre les outils d'IA à la portée du plus grand nombre. C'était aussi l'occasion pour lui de dénigrer les efforts de concurrents anonymes qui travaillent sur des modèles d'IA propriétaires en pensant qu'ils sont en train de « créer Dieu. » Ses dernières déclarations sont de nature à relancer le débat sur la nécessité de l’ouverture des modèles d’intelligence artificielle.

« Je trouve assez déconcertant que certains intervenants de l'industrie technologique parlent de la mise sur pied d’une “vraie IA". C'est un peu comme s'ils pensaient créer Dieu ou quelque chose dans le genre et ce n'est pas ce que nous faisons », déclare-t-il.

Elon Musk travaille en effet sur un modèle d’intelligence artificielle au nom évocateur : TruthGPT. C’est une alternative à ChatGPT qui agirait comme une « IA maximisant la recherche de la vérité et qui essaie de comprendre la nature de l'univers. » Il a exposé sa vision d'une alternative à ChatGPT lors d'une interview avec Tucker Carlson de Fox News, affirmant qu'une autre approche de la création d'IA est nécessaire pour éviter la destruction de l'humanité. Musk, qui a tenté sans succès ces dernières années de transmettre sa peur de l'intelligence artificielle à tout le monde, a ajouté que « TruthGPT pourrait être le meilleur chemin vers la sécurité qui ne risquerait pas d'anéantir les humains. » Le nom du projet est toutefois critiqué.


L’ex scientifique en chef d’OpenAI semble d’avis que les modèles d’intelligence artificielle doivent rester propriétaires

Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. Le scientifique en chef d’OpenAI est du deuxième groupe. Il craint que l’intelligence artificielle générale ne finisse par traiter les Hommes comme des animaux et ainsi ravive des craintes sur un futur où les robots les domineront.

« Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et l’intelligence artificielle générale (AGI) », souligne-t-il dans un documentaire.


On parle d’un stade d’évolution des machines où elles seront alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent.

« Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'intelligence artificielle. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques.

Il y a aussi la possibilité que les IA deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », souligne Bill Gates.

Ce sont des points de vue qui rejoignent ceux de Michael Osborne et Michael Cohen de l’université d’Oxford : « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »

Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une IA qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. »


Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels « l'IA n'est pas intelligente et est encore plus bête que les chats », ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence. C’est la raison pour laquelle il milite pour la transparence en matière de développement de l’intelligence artificielle au travers de l’open source.


Au début de l'année 2023, l'entreprise spécialisée en cybersécurité CheckPoint a noté que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. L'IA d'OpenAI pouvait également produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme a rapporté en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint a estimé que ChatGPT ouvrait ces possibilités à des individus avec de très faibles connaissances techniques. Puis OpenAI a amélioré son chatbot IA, lui imposant des limites éthiques et restreignant certaines fonctionnalités. C'était sans compter sur l'ingéniosité de certains intervenants de la sphère qui ont fini par mettre sur pied WormGPT. C’est un chatbot conçu pour aider les cybercriminels à développer des logiciels malveillants. WormGPT représente l’entrée en matière des possibilités qui seront accessibles aux cybercriminels au fur et à mesure de l’évolution des modèles d’intelligence artificielle. C’est la raison pour laquelle la question revient avec acuité sur la table : Faut-il ouvrir le code source et opter pour la transparence totale des mécanismes d’entraînement des IA ou opter pour des systèmes fermés pour lesquels les grandes entreprises technologiques prétendent que l’avantage sera d’éviter de mettre de puissants outils entre les mains de monsieur Tout-le-monde ? C’est en réponse à cette question que le scientifique en chef d’OpenAI est d’avis que les grandes entreprises technologiques doivent s’abstenir d’ouvrir le code source de leurs intelligences artificielles afin d’éviter de mettre de puissantes armes entre les mains de tiers malveillants.


Et vous ?

Pour ou contre l’ouverture des modèles d’intelligence artificielle ? Les raisons mises en avant pour justifier la poursuite des développements propriétaires des modèles d'intelligence artificielle vous semblent-elles pertinentes ?
Les modèles d’intelligence artificielle qualifiés d’open source le sont-ils vraiment ?
Partagez-vous les avis selon lesquels la demande de Marc Zuckerberg est un zeste hypocrite étant donné que son entreprise n'a pas ouvert toute la base de code des produits et services de Meta ?

Voir aussi :

« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises

Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

Une erreur dans cette actualité ? Signalez-nous-la !