IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI met sur pieds une division chargée de créer une IA qui va contrôler le développement de la superintelligence
Supposée être plus intelligente que l'homme. Elle pourrait arriver d'ici 2030

Le , par Stéphane le calme

9PARTAGES

8  0 
Le laboratoire d'intelligence artificielle OpenAI lance une nouvelle division de recherche « d'alignement », conçue pour se préparer à l'essor de la superintelligence artificielle et s'assurer qu'elle ne se tourne pas contre les humains. Ce futur type d'IA devrait avoir des niveaux d'intelligence supérieurs à ceux de l'homme, y compris des capacités de raisonnement. Les chercheurs craignent que si elle n'est pas alignée sur les valeurs humaines, elle puisse causer de graves dommages.

Nous avons beaucoup entendu parler du nombre de pionniers du monde de l'IA qui expriment des préoccupations majeures concernant ChatGPT et le domaine de l'IA générative. Il y a également eu des réflexions sur la façon dont ils pourraient conquérir le monde un jour et faire disparaître la race humaine, compte tenu du rythme rapide auquel la formation et les développements se déroulent.

Nous n'en sommes pas encore tout à fait sûrs, mais pour le moment, OpenAI veut que le monde sache qu'il s'en soucie et pour cette raison, il met en place une nouvelle équipe de membres qui se verra confier une tâche très importante et innovante : maitriser et à superviser l’IA. L’équipe, composée de « chercheurs et d’ingénieurs de haut niveau en apprentissage automatique », se concentrera sur l’avènement de la « superintelligence ».

Il s’agit d’une intelligence artificielle, encore au stade hypothétique, capable de surpasser l’esprit humain, explique OpenAI. Cette technologie pourrait aider l’humanité « à résoudre bon nombre des problèmes les plus importants du monde ».

Citation Envoyé par OpenAI
La superintelligence sera la technologie la plus percutante que l'humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants du monde. Mais le vaste pouvoir de la superintelligence pourrait également être très dangereux et pourrait conduire à la perte de pouvoir de l'humanité ou même à l'extinction humaine.
Alors que certains estiment que cette annonce s'apparente à de la science-fiction, d'autres prétendent être moins dérangés. Quoi qu'il en soit, OpenAI ne plaisante pas quand il dit vouloir jouer un rôle actif en termes de risques liés aux systèmes d'IA et à leurs capacités massives qui pourraient bien prendre le dessus sur l'intelligence humaine.

S'exprimant dans l'un de ses articles de blog récemment publiés, la société ajoute qu'il s'agit d'une forme sérieuse de technologie qui aurait un impact sur le monde. Et le fait que les humains l'aient créé signifie que nous ne pouvons pas la laisser nous détruire. L'entreprise a également expliqué en détail comment trouver la bonne solution pourrait aider à résoudre tant de problèmes majeurs qui existent aujourd'hui.

« Le pouvoir immense de la superintelligence pourrait … conduire au déclassement de l’humanité ou même à son extinction », ont écrit dans un billet de blog le co-fondateur d’OpenAI, Ilya Sutskever, et le responsable de l’alignement, Jan Leike. « Actuellement, nous n’avons pas de solution pour orienter ou contrôler une IA potentiellement superintelligente, et l’empêcher de devenir incontrôlable ».

La superintelligence (des systèmes plus intelligents que les humains) pourrait arriver cette décennie, ont prédit les auteurs du billet de blog. Les humains auront besoin de meilleures techniques que celles actuellement disponibles pour pouvoir contrôler la superintelligence, d’où la nécessité de percées dans la recherche sur « l’alignement », qui se concentre sur le fait de garantir que l’IA reste bénéfique aux humains, selon les auteurs.

OpenAI, soutenue par Microsoft, consacre 20 % de la puissance de calcul qu’elle a sécurisée au cours des quatre prochaines années à résoudre ce problème, ont-ils écrit. En outre, la société forme une nouvelle équipe qui s’organisera autour de cet effort, appelée l’équipe Superalignment. L’objectif de l’équipe est de créer un chercheur en alignement d’IA « de niveau humain », puis de la faire évoluer grâce à d’énormes quantités de puissance de calcul.

OpenAI affirme que cela signifie qu’ils formeront des systèmes d’IA en utilisant des retours d’information humains, formeront des systèmes d’IA pour assister à l’évaluation humaine, puis finalement formeront des systèmes d’IA pour faire réellement la recherche sur l’alignement.


Au-delà de l'intelligence artificielle générale

Les co-fondateurs d'OpenAI ont décidé de regarder au-delà de l'intelligence artificielle générale (AGI), qui devrait avoir des niveaux d'intelligence humains, et de se concentrer plutôt sur ce qui vient ensuite. En effet, ils pensent que l'IAG est à l'horizon et que l'IA superintelligente devrait émerger d'ici la fin de cette décennie, cette dernière présentant une menace beaucoup plus grande pour l'humanité.

Les techniques d'alignement de l'IA actuelles, utilisées sur des modèles comme GPT-4 (la technologie qui sous-tend ChatGPT) impliquent un apprentissage par renforcement à partir de la rétroaction humaine. Cela repose sur la capacité humaine à superviser l'IA, mais cela ne sera pas possible si l'IA est plus intelligente que les humains et peut déjouer ses superviseurs. « D'autres hypothèses pourraient également s'effondrer à l'avenir, comme les propriétés de généralisation favorables lors du déploiement ou l'incapacité de nos modèles à détecter avec succès et à saper la supervision pendant la formation », ont expliqué Sutsker et Leike.

Tout cela signifie que les techniques et technologies actuelles ne seront pas adaptées pour fonctionner avec la superintelligence et que de nouvelles approches sont donc nécessaires.

L'IA super intelligente pourrait surpasser les humains

OpenAI a défini trois étapes pour atteindre l'objectif de créer un chercheur d'alignement automatisé au niveau humain qui peut être mis à l'échelle pour garder un œil sur toute future superintelligence. Cela inclut la fourniture d'un signal de formation sur les tâches difficiles à évaluer pour les humains - en utilisant efficacement les systèmes d'IA pour évaluer d'autres systèmes d'IA. Ils prévoient également d'explorer comment les modèles construits par OpenAI généralisent les tâches de surveillance qu'il ne peut pas superviser.

Citation Envoyé par OpenAI
Alors que la superintelligence semble loin maintenant, nous pensons qu'elle pourrait arriver cette décennie. La gestion de ces risques nécessitera, entre autres, de nouvelles institutions de gouvernance et la résolution du problème de l'alignement des superintelligences :

Comment s'assurer que les systèmes d'IA beaucoup plus intelligents que les humains suivent l'intention humaine ?

Actuellement, nous n'avons pas de solution pour diriger ou contrôler une IA potentiellement super intelligente et l'empêcher de devenir malveillante. Nos techniques actuelles d'alignement de l'IA, telles que l'apprentissage par renforcement à partir de la rétroaction humaine, reposent sur la capacité des humains à superviser l'IA. Mais les humains ne seront pas en mesure de superviser de manière fiable des systèmes d'IA beaucoup plus intelligents que nous, et nos techniques d'alignement actuelles ne seront donc pas adaptées à la superintelligence. Nous avons besoin de nouvelles percées scientifiques et techniques.

Notre approche

Notre objectif est de construire un chercheur d'alignement automatisé à peu près au niveau humain. Nous pouvons ensuite utiliser de grandes quantités de calcul pour faire évoluer nos efforts et aligner de manière itérative la superintelligence.

Pour aligner le premier chercheur en alignement automatisé, nous devrons 1) développer une méthode de formation évolutive, 2) valider le modèle résultant et 3) tester sous contrainte l'ensemble de notre pipeline d'alignement :
  1. Pour fournir un signal de formation sur des tâches difficiles à évaluer pour les humains, nous pouvons tirer parti des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA (supervision évolutive). De plus, nous voulons comprendre et contrôler comment nos modèles généralisent notre surveillance à des tâches que nous ne pouvons pas superviser (généralisation).
  2. Pour valider l'alignement de nos systèmes, nous automatisons la recherche des comportements problématiques (robustesse) et des internes problématiques (interprétabilité automatisée).
  3. Enfin, nous pouvons tester l'ensemble de notre pipeline en entraînant délibérément des modèles désalignés et en confirmant que nos techniques détectent les pires types de désalignements (tests contradictoires).
Il existe également des mesures pour valider l'alignement des systèmes, en particulier en automatisant la recherche de comportements problématiques à l'extérieur et au sein des systèmes. Enfin, le plan consiste à tester l'ensemble du pipeline en entraînant délibérément des modèles mal alignés, puis en exécutant le nouvel entraîneur d'IA sur eux pour voir s'il peut le remettre en forme, un processus connu sous le nom de test contradictoire.


Une approche qui ne fait pas l'unanimité

Connor Leahy, un défenseur de la sécurité de l’IA, a déclaré que le plan était fondamentalement erroné car l’IA initiale de niveau humain pourrait s’emballer et causer des ravages avant qu’elle ne puisse être contrainte à résoudre les problèmes de sécurité de l’IA. « Vous devez résoudre l’alignement avant de construire une intelligence de niveau humain, sinon par défaut vous ne la contrôlerez pas », a-t-il déclaré dans une interview. « Je ne pense personnellement pas que ce soit un plan particulièrement bon ou sûr ».

Les dangers potentiels de l’IA ont été au premier plan pour les chercheurs en IA et le grand public. En avril, un groupe de leaders et d’experts du secteur de l’IA a signé une lettre ouverte demandant une pause de six mois dans le développement de systèmes plus puissants qu’OpenAI GPT-4, citant les risques potentiels pour la société. Un sondage réalisé en mai a révélé que plus des deux tiers des Américains sont préoccupés par les effets négatifs possibles de l’IA et que 61 % pensent qu’elle pourrait menacer la civilisation.

La sécurité de l'IA devrait devenir une industrie majeure à part entière. Les nations espèrent également capitaliser sur le besoin futur d'aligner l'IA sur les valeurs humaines. Le Royaume-Uni a lancé le Foundation Model AI Taskforce avec un budget de 100 millions de livres sterling pour enquêter sur les problèmes de sécurité de l'IA et organisera un sommet mondial sur l'IA plus tard cette année. Cela devrait se concentrer sur le risque plus immédiat des modèles d'IA actuels, ainsi que sur l'émergence probable de l'intelligence artificielle générale dans les prochaines années.

Source : OpenAI

Et vous ?

Que pensez-vous du plan d’OpenAI de créer une équipe de recherche sur la superintelligence (dont l'intelligence serait « supérieure » à celle de l'homme) alors que nous n'en sommes même pas encore à l'intelligence artificielle générale (dont l'intelligence serait « équivalente » à celle de l'homme) ?
Craignez-vous que l’IA devienne incontrôlable ou nuisible à l’humanité ? Science fiction ou potentielle réalité ?
Que pensez-vous du délai donné par les chercheurs pour atteindre la superintelligence (ils disent qu'elle pourrait arrivée cette décennie - d'ici 2030 donc) ?
Pensez-vous que l’IA puisse se superviser elle-même de manière fiable ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 07/07/2023 à 1:20
Citation Envoyé par Stéphane le calme Voir le message
[
Que pensez-vous du plan d’OpenAI de créer une équipe de recherche sur la superintelligence (dont l'intelligence serait « supérieure » à celle de l'homme) alors que nous n'en sommes même pas encore à l'intelligence artificielle générale (dont l'intelligence serait « équivalente » à celle de l'homme) ?
Un simple effet d'annonce. Peut-être causé par ça: ChatGPT est confronté pour la première fois à une baisse de trafic après une croissance explosive depuis son lancement
ce qui suggère que la frénésie suscitée par le chatbot commence à s'estomper
1  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 8:35
Citation Envoyé par Coeur De Roses Voir le message
Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
Les dégâts les plus importants et les plus graves qui vont arriver avec l'IA sont le nombre de personnes qui vont se retrouver au chômage d'ici 10-15 ans. Et dans pleins de domaines. Les conséquences sociales vont être dramatiques. A moins que l'on change de modèle de société et que l'on passe au revenu universel. Sinon, la société qui s'annonce sera dystopique. Des bidonvilles dans lesquels vivront 90% de la population et des villes ultras modernes et sécurisées dans lesquelles vivront les autres.
L'oligarchie va pouvoir réaliser son rêve. Se débarrasser d'un peuple qui lui cause bien des soucis. Et si nous vient l’idée de nous révolter ils nous enverront des drones contre lesquels on ne pourra rien.

La question qui se pose est : "Doit-on faire quelque chose simplement parce qu'on peut le faire ?"
Quelle réflexion politique avons nous sur le sujet ? Est-il normal que des entreprises privés balancent ce genre de programmes sans se soucier des conséquences ? Devraient-elles en avoir le droit ? L'état ne devrait-il pas prendre en charge les programmes d'IA et interdire leur développement au privé ?

EDIT : On peut facilement comprendre que le militaire a un droit de véto sur toute technologie avant qu'elle ne soit rendues publique. Ce qui veut dire que si le public a accès à des IA déjà très sophistiquées, les militaires ont au moins 10 ans d'avance dans le domaine. Ce qui est également très inquiétant.
Dans un futur peut être très proche, les programmeurs qui auront participé qu développement de l'IA auront peut être autant de regrets qu'en ont eu les scientifiques qui ont participé á développer l'arme atomique. Au vu des conséquences potentiellement désastreuses pour l'humanité.
Et ceux qui voudraient me répondre que je suis pessimiste, je leurs répondrais que l'on a des siècles d'histoire derrière nous qui ne peuvent que nous rendre pessimiste sur le sujet.
1  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 11/07/2023 à 19:32
un labo en plus ...
0  0 
Avatar de sirthie
Membre éprouvé https://www.developpez.com
Le 20/07/2023 à 14:47
Citation Envoyé par Stéphane le calme Voir le message
Considérez la première image ci-dessus, où un fil de discussion récent s'est déroulé sur un forum sur la cybercriminalité. Dans cet échange, le cybercriminel a présenté le potentiel d'exploiter l'IA générative pour affiner un e-mail qui pourrait être utilisé dans une attaque de phishing ou BEC. Il a ensuite recommandé de composer l'e-mail dans sa langue maternelle, de le traduire, puis de l'introduire dans une interface comme ChatGPT pour améliorer sa sophistication et sa formalité. Cette méthode introduit une forte implication : les attaquants, même ceux qui ne maîtrisent pas une langue particulière, sont désormais plus capables que jamais de fabriquer des e-mails persuasifs pour les attaques de phishing ou BEC.
BEC = ?
1  1 
Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 23/07/2023 à 17:44
Je reçois par mail une notification pour ce fil, avec le titre "Nous ne devrions pas réglementer l’IA sans relever des dommages significatifs"

Je trouve que ce titre est mal rédigé, il devrait être, "Nous ne devrions pas attendre des dommages significatifs avant de réglementer l'IA".

Ou alors, c'est à croire qu'on a voté Macron exprès.
1  1 
Avatar de Coeur De Roses
Membre actif https://www.developpez.com
Le 24/07/2023 à 0:40
Citation Envoyé par Gluups Voir le message
Je reçois par mail une notification pour ce fil, avec le titre "Nous ne devrions pas réglementer l’IA sans relever des dommages significatifs"

Je trouve que ce titre est mal rédigé, il devrait être, "Nous ne devrions pas attendre des dommages significatifs avant de réglementer l'IA".

Ou alors, c'est à croire qu'on a voté Macron exprès.
Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
0  0 
Avatar de Gluups
Membre chevronné https://www.developpez.com
Le 24/07/2023 à 0:44
Il semble manquer tellement de choses à notre société, que je crains que ça risque de nous emmener loin du sujet.
0  0 
Avatar de lukskiwalker
Nouveau membre du Club https://www.developpez.com
Le 28/07/2023 à 9:06
vous auriez l'url du forum ?
0  0 
Avatar de Pazu12
Futur Membre du Club https://www.developpez.com
Le 04/08/2023 à 12:15
Aujourd'hui la plateforme Hugging Face propose plus de 278 000 modèles d'intelligence artificielle dont plus de 17 000 modèle de génération de texte.

Des interfaces utilisateurs simples sont en open-source sur GitHub et facilement téléchargeable par n'importe qui, et permettent l'utilisation de la majorité des modèles, en local, soit avec la CPU, soit plus rapidement avec la GPU.
Les plus connus étant Easy Diffusion pour les modèles de stable-diffusion text2image https://stable-diffusion-ui.github.io/ et text-generation-webui pour le text-generation https://github.com/oobabooga/text-generation-webui

Trouver des contournement à ChatGPT est un bien faible risque comparé à ce qu'il est possible de générer chez soit en local, protégé dans sa goon cave. Et soyons réaliste, mais personne n'utilise ou nutilisera les modèles en ligne pour utiliser l'IA à des fins non légales...

Donne moi une GPU et je te génèrerai plus d'illegal porn ou d'extreme gore content que tu n'en trouveras avec un navigateur classique.

Bilan des courses
- Il est imperatif de réfléchir, discuter et débattre des sujets de l'IA en assumant qu'il est possible de tout télécharger et contourner chez soi.
- Il est impératif de trouver des mesures viable et réalistes plutôt que des scénarios post apocalyptique putaclic.
- Il est impératif de sensibiliser la jeunesse dès aujourd'hui qui est la génération la plus soumise aux potentiels risques de l'IA, et par ailleurs la plus influençable.
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 10:12
Sur les 1 539 personnes interrogées qui utilisent la GenAI pour le développement et le test de logiciels, les applications les plus courantes sont l'écriture ou le débogage de code (51 %), les rapports de test (48 %), l'élaboration de cas de test (46 %) et la création d'applications (42 %). GitHub Copilot est l'outil le plus populaire pour l'aide au codage (41 % des répondants), suivi par OpenAI Codex (24 % des répondants).
Ouaaaaaaaaaaah... Impressionnant!

Et quand est-ce que l'on peut avoir une démonstration réelle nous montrant comment ces 1539 personnes interrogées font tout ce qu'ils disent avec l'IA?

Je pose naïvement la question parce que si je vous dis que j'ai fait le tour de France en équilibre sur les mains vous allez me demander d'en faire la preuve...
0  0