Nous avons beaucoup entendu parler du nombre de pionniers du monde de l'IA qui expriment des préoccupations majeures concernant ChatGPT et le domaine de l'IA générative. Il y a également eu des réflexions sur la façon dont ils pourraient conquérir le monde un jour et faire disparaître la race humaine, compte tenu du rythme rapide auquel la formation et les développements se déroulent.
Nous n'en sommes pas encore tout à fait sûrs, mais pour le moment, OpenAI veut que le monde sache qu'il s'en soucie et pour cette raison, il met en place une nouvelle équipe de membres qui se verra confier une tâche très importante et innovante : maitriser et à superviser l’IA. L’équipe, composée de « chercheurs et d’ingénieurs de haut niveau en apprentissage automatique », se concentrera sur l’avènement de la « superintelligence ».
Il s’agit d’une intelligence artificielle, encore au stade hypothétique, capable de surpasser l’esprit humain, explique OpenAI. Cette technologie pourrait aider l’humanité « à résoudre bon nombre des problèmes les plus importants du monde ».
Envoyé par OpenAI
S'exprimant dans l'un de ses articles de blog récemment publiés, la société ajoute qu'il s'agit d'une forme sérieuse de technologie qui aurait un impact sur le monde. Et le fait que les humains l'aient créé signifie que nous ne pouvons pas la laisser nous détruire. L'entreprise a également expliqué en détail comment trouver la bonne solution pourrait aider à résoudre tant de problèmes majeurs qui existent aujourd'hui.
« Le pouvoir immense de la superintelligence pourrait … conduire au déclassement de l’humanité ou même à son extinction », ont écrit dans un billet de blog le co-fondateur d’OpenAI, Ilya Sutskever, et le responsable de l’alignement, Jan Leike. « Actuellement, nous n’avons pas de solution pour orienter ou contrôler une IA potentiellement superintelligente, et l’empêcher de devenir incontrôlable ».
La superintelligence (des systèmes plus intelligents que les humains) pourrait arriver cette décennie, ont prédit les auteurs du billet de blog. Les humains auront besoin de meilleures techniques que celles actuellement disponibles pour pouvoir contrôler la superintelligence, d’où la nécessité de percées dans la recherche sur « l’alignement », qui se concentre sur le fait de garantir que l’IA reste bénéfique aux humains, selon les auteurs.
OpenAI, soutenue par Microsoft, consacre 20 % de la puissance de calcul qu’elle a sécurisée au cours des quatre prochaines années à résoudre ce problème, ont-ils écrit. En outre, la société forme une nouvelle équipe qui s’organisera autour de cet effort, appelée l’équipe Superalignment. L’objectif de l’équipe est de créer un chercheur en alignement d’IA « de niveau humain », puis de la faire évoluer grâce à d’énormes quantités de puissance de calcul.
OpenAI affirme que cela signifie qu’ils formeront des systèmes d’IA en utilisant des retours d’information humains, formeront des systèmes d’IA pour assister à l’évaluation humaine, puis finalement formeront des systèmes d’IA pour faire réellement la recherche sur l’alignement.
Au-delà de l'intelligence artificielle générale
Les co-fondateurs d'OpenAI ont décidé de regarder au-delà de l'intelligence artificielle générale (AGI), qui devrait avoir des niveaux d'intelligence humains, et de se concentrer plutôt sur ce qui vient ensuite. En effet, ils pensent que l'IAG est à l'horizon et que l'IA superintelligente devrait émerger d'ici la fin de cette décennie, cette dernière présentant une menace beaucoup plus grande pour l'humanité.
Les techniques d'alignement de l'IA actuelles, utilisées sur des modèles comme GPT-4 (la technologie qui sous-tend ChatGPT) impliquent un apprentissage par renforcement à partir de la rétroaction humaine. Cela repose sur la capacité humaine à superviser l'IA, mais cela ne sera pas possible si l'IA est plus intelligente que les humains et peut déjouer ses superviseurs. « D'autres hypothèses pourraient également s'effondrer à l'avenir, comme les propriétés de généralisation favorables lors du déploiement ou l'incapacité de nos modèles à détecter avec succès et à saper la supervision pendant la formation », ont expliqué Sutsker et Leike.
Tout cela signifie que les techniques et technologies actuelles ne seront pas adaptées pour fonctionner avec la superintelligence et que de nouvelles approches sont donc nécessaires.
L'IA super intelligente pourrait surpasser les humains
OpenAI a défini trois étapes pour atteindre l'objectif de créer un chercheur d'alignement automatisé au niveau humain qui peut être mis à l'échelle pour garder un œil sur toute future superintelligence. Cela inclut la fourniture d'un signal de formation sur les tâches difficiles à évaluer pour les humains - en utilisant efficacement les systèmes d'IA pour évaluer d'autres systèmes d'IA. Ils prévoient également d'explorer comment les modèles construits par OpenAI généralisent les tâches de surveillance qu'il ne peut pas superviser.
Envoyé par OpenAI
Une approche qui ne fait pas l'unanimité
Connor Leahy, un défenseur de la sécurité de l’IA, a déclaré que le plan était fondamentalement erroné car l’IA initiale de niveau humain pourrait s’emballer et causer des ravages avant qu’elle ne puisse être contrainte à résoudre les problèmes de sécurité de l’IA. « Vous devez résoudre l’alignement avant de construire une intelligence de niveau humain, sinon par défaut vous ne la contrôlerez pas », a-t-il déclaré dans une interview. « Je ne pense personnellement pas que ce soit un plan particulièrement bon ou sûr ».
Les dangers potentiels de l’IA ont été au premier plan pour les chercheurs en IA et le grand public. En avril, un groupe de leaders et d’experts du secteur de l’IA a signé une lettre ouverte demandant une pause de six mois dans le développement de systèmes plus puissants qu’OpenAI GPT-4, citant les risques potentiels pour la société. Un sondage réalisé en mai a révélé que plus des deux tiers des Américains sont préoccupés par les effets négatifs possibles de l’IA et que 61 % pensent qu’elle pourrait menacer la civilisation.
La sécurité de l'IA devrait devenir une industrie majeure à part entière. Les nations espèrent également capitaliser sur le besoin futur d'aligner l'IA sur les valeurs humaines. Le Royaume-Uni a lancé le Foundation Model AI Taskforce avec un budget de 100 millions de livres sterling pour enquêter sur les problèmes de sécurité de l'IA et organisera un sommet mondial sur l'IA plus tard cette année. Cela devrait se concentrer sur le risque plus immédiat des modèles d'IA actuels, ainsi que sur l'émergence probable de l'intelligence artificielle générale dans les prochaines années.
Source : OpenAI
Et vous ?
Que pensez-vous du plan d’OpenAI de créer une équipe de recherche sur la superintelligence (dont l'intelligence serait « supérieure » à celle de l'homme) alors que nous n'en sommes même pas encore à l'intelligence artificielle générale (dont l'intelligence serait « équivalente » à celle de l'homme) ?
Craignez-vous que l’IA devienne incontrôlable ou nuisible à l’humanité ? Science fiction ou potentielle réalité ?
Que pensez-vous du délai donné par les chercheurs pour atteindre la superintelligence (ils disent qu'elle pourrait arrivée cette décennie - d'ici 2030 donc) ?
Pensez-vous que l’IA puisse se superviser elle-même de manière fiable ?