
L'IAG est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.
Sam Altman a accepté de participer au Hawking Fellowship Award 2023 au nom de l'équipe derrière OpenAI avec les étudiants de Cambridge. À cette occasion, des étudiants ont eu l'opportunité d'échanger avec lui pendant une séance d'une heure environ. Altman a alors affirmé que l’IAG était l’un des plus grands défis de l’humanité, mais aussi l’une des plus grandes opportunités. Il a expliqué que l’AGI pourrait résoudre des problèmes majeurs comme le changement climatique, la pauvreté, la santé ou l’éducation, mais qu’elle pourrait aussi représenter un risque existentiel si elle n’était pas contrôlée.
Suite à l'avancée du débat, un étudiant a voulu savoir si, pour accéder à l'IAG, on pouvait simplement maximiser les modèles de langage ou alors s'il y a une autre percée technologique nécessaire pour trouver le moyen d'accéder à l'IAG (rendez-vous à 1:20 sur la vidéo). Ce à quoi Sam Altman a répondu :

Altman a reconnu que les progrès de l’intelligence artificielle étaient rapides, mais qu’ils étaient encore loin de l’IAG. Il a cité l’exemple de GPT-3, le modèle de génération de texte développé par OpenAI, qui est capable de produire des textes cohérents et variés à partir d’un simple mot-clé ou d’une phrase. Selon Altman, GPT-3 est impressionnant, mais il n’est pas intelligent au sens humain du terme. Il a souligné que GPT-3 ne comprenait pas vraiment le sens des mots qu’il utilisait, qu’il ne pouvait pas raisonner de façon logique ou créative, et qu’il ne pouvait pas apprendre de nouvelles compétences sans être entraîné sur de nouvelles données.
Altman a estimé qu’il faudrait encore des avancées dans les domaines de la compréhension du langage naturel, de la vision par ordinateur, du raisonnement, de la mémoire, de l’apprentissage par renforcement, de l’architecture des réseaux de neurones, de l’optimisation des algorithmes, de la puissance de calcul, de la sécurité et de l’éthique pour parvenir à l’IAG. Il a ajouté qu’il n’y avait pas de consensus sur le temps qu’il faudrait pour y arriver, mais qu’il était optimiste.
Altman a conclu en disant qu’il était important de préparer l’avenir de l’IAG, en impliquant tous les acteurs de la société, et en veillant à ce que l’IAG soit alignée sur les valeurs et les intérêts des humains. Il a affirmé que l’objectif d’OpenAI était de créer une IAG bénéfique pour l’humanité, et de la rendre accessible à tous.
OpenAI a mis sur pieds un conseil d'administration de six membres qui vont décider quand l'IAG sera atteinte
OpenAI considère que l’IAG est une technologie potentiellement révolutionnaire, mais aussi très risquée, qui nécessite une gouvernance et une supervision rigoureuses. C’est pourquoi OpenAI a mis en place un conseil d’administration composé de six membres, qui a le pouvoir de décider quand l’organisation a atteint l’IAG (en se basant sur des critères objectifs et mesurables) et comment elle doit la gérer. Le conseil d’administration a la responsabilité de définir la vision, la stratégie et les principes d’OpenAI, ainsi que d’approuver les projets, les budgets et les embauches.
Selon la structure d’OpenAI, l’IAG est exclue des licences de propriété intellectuelle et des autres termes commerciaux avec Microsoft, qui ne s’appliquent qu’à la technologie pré-IAG.
Il semble certainement qu'une fois qu'OpenAI aura atteint sa mission déclarée d'atteindre l'IAG, Microsoft sera hors du coup et ce même si lors de l'OpenAI Dev Day de la semaine dernière, le PDG d'OpenAI, Sam Altman, a déclaré au PDG de Microsoft, Satya Nadella, que « je pense que nous avons le meilleur partenariat dans le domaine de la technologie… Je suis ravi que nous puissions construire l'IAG ensemble ».
Et dans une nouvelle interview avec Altman dans le Financial Times, Altman a déclaré que le partenariat OpenAI/Microsoft « fonctionnait très bien » et qu'il espérait « récolter beaucoup plus au fil du temps ». Et lorsqu'il lui a été demandé si Microsoft continuerait à investir davantage dans ces entreprises, Altman a répondu au FT : « Je l'espère ». « Il y a un long chemin à parcourir et beaucoup de calcul à réaliser entre notre niveau actuel et l'IAG... les dépenses de formation sont tout simplement énormes », a-t-il ajouté.
Dès le début, selon les détails de la structure d’OpenAI, Microsoft « a accepté notre offre d’actions plafonnée et notre demande de laisser les technologies et la gouvernance IAG à l’organisation à but non lucratif et au reste de l’humanité ».
Atteindre l'IAG est-il possible ?
Jusqu'à présent, aucun système d'IA n'a démontré de manière convaincante les capacités d'IAG, bien que certains aient montré des exploits impressionnants d'ANI dans des domaines spécifiques. Par exemple, GPT-4 peut générer des textes cohérents et diversifiés sur divers sujets, ainsi que répondre à des questions et effectuer des calculs simples basés sur des entrées textuelles ou visuelles. Cependant, GPT-4 repose toujours sur de grandes quantités de données et des invites prédéfinies pour bien fonctionner. Il fait souvent des erreurs ou produit des résultats insensés lorsqu'il est confronté à...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.