Sam Altman, le président de la société d’intelligence artificielle OpenAI, a déclaré qu’il faudrait encore des percées scientifiques et technologiques pour atteindre l’intelligence artificielle générale (IAG), c’est-à-dire une intelligence artificielle capable de réaliser toutes les tâches qu’un humain peut accomplir.L'IAG est le niveau d’intelligence artificielle qui peut accomplir n’importe quelle tâche intellectuelle qu’un humain peut faire. Bien que les chercheurs peinent à trouver une définition universelle, il s’agit d’un objectif ambitieux et controversé, qui soulève de nombreuses questions tant éthiques et sociales que techniques. Certains experts estiment que l’IAG est impossible à atteindre, tandis que d’autres prédisent qu’elle pourrait se produire dans les prochaines décennies.
Sam Altman a accepté de participer au Hawking Fellowship Award 2023 au nom de l'équipe derrière OpenAI avec les étudiants de Cambridge. À cette occasion, des étudiants ont eu l'opportunité d'échanger avec lui pendant une séance d'une heure environ. Altman a alors affirmé que l’IAG était l’un des plus grands défis de l’humanité, mais aussi l’une des plus grandes opportunités. Il a expliqué que l’AGI pourrait résoudre des problèmes majeurs comme le changement climatique, la pauvreté, la santé ou l’éducation, mais qu’elle pourrait aussi représenter un risque existentiel si elle n’était pas contrôlée.
Suite à l'avancée du débat, un étudiant a voulu savoir si, pour accéder à l'IAG, on pouvait simplement maximiser les modèles de langage ou alors s'il y a une autre percée technologique nécessaire pour trouver le moyen d'accéder à l'IAG (rendez-vous à 1:20 sur la vidéo). Ce à quoi Sam Altman a répondu :
Altman a reconnu que les progrès de l’intelligence artificielle étaient rapides, mais qu’ils étaient encore loin de l’IAG. Il a cité l’exemple de GPT-3, le modèle de génération de texte développé par OpenAI, qui est capable de produire des textes cohérents et variés à partir d’un simple mot-clé ou d’une phrase. Selon Altman, GPT-3 est impressionnant, mais il n’est pas intelligent au sens humain du terme. Il a souligné que GPT-3 ne comprenait pas vraiment le sens des mots qu’il utilisait, qu’il ne pouvait pas raisonner de façon logique ou créative, et qu’il ne pouvait pas apprendre de nouvelles compétences sans être entraîné sur de nouvelles données.
Altman a estimé qu’il faudrait encore des avancées dans les domaines de la compréhension du langage naturel, de la vision par ordinateur, du raisonnement, de la mémoire, de l’apprentissage par renforcement, de l’architecture des réseaux de neurones, de l’optimisation des algorithmes, de la puissance de calcul, de la sécurité et de l’éthique pour parvenir à l’IAG. Il a ajouté qu’il n’y avait pas de consensus sur le temps qu’il faudrait pour y arriver, mais qu’il était optimiste.
Altman a conclu en disant qu’il était important de préparer l’avenir de l’IAG, en impliquant tous les acteurs de la société, et en veillant à ce que l’IAG soit alignée sur les valeurs et les intérêts...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

)