IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Enjeux et avantages de l'IA générale : Sam Altman, PDG d'OpenAI, appel au changement de gouvernance,
Pour éviter la concentration du contrôle

Le , par Bruno

5PARTAGES

6  0 
En 2023, Sam Altman, en tant que PDG d'OpenAI, s'est imposé comme une figure centrale dans les discussions sur l'intelligence artificielle (IA). Malgré son éviction temporaire en novembre, Altman soutient que cette expérience a renforcé la cohésion au sein de l'entreprise. Il met en avant l'idée que la montée en puissance de l'intelligence artificielle générale (AGI) nécessite un ajustement dans la gouvernance afin d'éviter une concentration excessive du contrôle.

Altman insiste sur le fait que cette expérience a renforcé OpenAI, illustrant que le succès de l'organisation découle d'un travail d'équipe. Bien que cette période ait été personnellement difficile, il est convaincu que cela a été bénéfique pour OpenAI, les unifiant de manière inédite. Soulignant l'importance de la cohésion face à l'augmentation des enjeux liés à l'approche de l'IA générale, Altman met en avant que la capacité de l'équipe à opérer dans l'incertitude et le stress devrait susciter un intérêt à l'échelle mondiale.


Évincé d’OpenAI pour manque de transparence

OpenAI a annoncé le licenciement de son cofondateur et PDG Sam Altman le mois dernier, l'accusant d'avoir menti au conseil d’administration sur plusieurs aspects de son activité. Altman, qui était à la tête de l’entreprise depuis 2019, avait été accusé d’avoir dissimulé des informations sur les coûts, les revenus, les partenariats et les risques liés à son produit phare, ChatGPT, un chatbot avancé capable de générer des réponses humaines à partir de n’importe quelle question.


Les désaccords sur la mission d'OpenAI, centrée sur la gestion des risques liés à l'intelligence artificielle générale (A.G.I), sont soulignés comme une source majeure de tensions. Certains membres avaient estimé qu'Altman entrave cette mission.

Exprimant son point de vue sur son licenciement, Altman reconnaît que les personnes impliquées dans le domaine de l'IA deviennent plus stressées et anxieuses à mesure que la perspective de la superintelligence se rapproche. Il tire la leçon que des changements sont nécessaires, soulignant l'erreur dans la vision antérieure selon laquelle l'AGI ne devait pas être contrôlée par un petit groupe, mais plutôt démocratisée. Il insiste sur la nécessité d'améliorer la structure de gouvernance et les interactions avec le monde pour regagner la confiance.

L'affirmation d'Altman selon laquelle son départ soudain de l'OpenAI a été une expérience enrichissante peut être interprétée de différentes manières. D'un côté, sa capacité à percevoir une expérience difficile comme une occasion d'apprentissage et de renforcement personnel est louable. Cela témoigne d'une mentalité résiliente et d'une volonté d'appréhender les défis comme des opportunités de croissance.

Cependant, il est également crucial d'examiner les circonstances entourant ce départ et les raisons qui ont conduit à cette expérience. Un départ inattendu du PDG peut soulever des questions sur la stabilité interne et la gestion des ressources humaines au sein de l'organisation. Bien que Altman insiste sur le renforcement résultant de cette expérience, cela soulève des interrogations sur la stabilité du leadership et son impact sur l'équipe et la mission de l'OpenAI.

Le fait qu'Altman reconnaisse que ce genre d'événement était attendu est intéressant, mais cela soulève également des questions sur la préparation de l'organisation à de tels scénarios. Un leadership solide devrait être capable de gérer les transitions de manière transparente et d'atténuer les effets négatifs potentiels sur la cohésion de l'équipe et les activités de recherche.

Selon Altman, le potentiel de l'IA est immense, considérant l'AGI comme la technologie la plus puissante jamais inventée. Il souligne son rôle dans la démocratisation de l'accès à l'information à l'échelle mondiale, anticipant une réduction des coûts, une égalité accrue de l'intelligence, une amélioration significative de la qualité, et la transformation du monde en conformité avec les promesses de la science-fiction. Il estime que nous pourrions enfin commencer à entrevoir ce nouveau monde.

Altman perçoit l'AGI comme une technologie révolutionnaire aux implications vastes, envisageant un monde où l'accès à l'information est démocratisé à l'échelle mondiale. Cependant, il reconnaît les défis, notamment le risque d'influence de l'IA sur les démocraties, particulièrement lors des élections. Il souligne le danger potentiel de la désinformation personnalisée générée par l'IA, capable de modifier profondément les perspectives individuelles.

La vision de Sam Altman sur l'Intelligence Artificielle Générale (AGI) comme une technologie révolutionnaire avec le potentiel de démocratiser l'accès à l'information à l'échelle mondiale est certainement captivante et porteuse d'espoir. Cependant, sa reconnaissance des défis liés à l'IA, en particulier en ce qui concerne l'influence sur les démocraties, est essentielle et témoigne d'une prise de conscience nécessaire des implications sociétales.

Le fait qu'Altman souligne le risque d'influence de l'IA pendant les élections est particulièrement pertinent, compte tenu des préoccupations croissantes concernant la manipulation de l'opinion publique par le biais de la désinformation. Son avertissement sur la possibilité de désinformation personnalisée, capable de modifier profondément les perspectives individuelles, met en lumière un aspect troublant de l'évolution potentielle de cette technologie.

Cependant, la véritable mesure de la réussite de l'approche d'Altman dépendra de la manière dont OpenAI et d'autres acteurs de l'industrie parviendront à mettre en œuvre des mécanismes de gouvernance solides pour prévenir ces risques. Il est crucial de garantir que l'AGI soit utilisée de manière responsable et éthique, avec une transparence et une surveillance adéquates pour éviter tout abus.

L’AGI, une opportunité à saisir avec responsabilité selon Sam Altman

Bien que la vision d'Altman offre une perspective optimiste sur les avantages potentiels de l'AGI, elle souligne également la nécessité urgente de réglementations et de normes éthiques strictes pour guider le développement et l'utilisation de cette technologie. Les défis qu'il soulève ne doivent pas être sous-estimés, et la communauté mondiale doit travailler de concert pour atténuer les risques tout en maximisant les bénéfices de l'IA.

Malgré ces risques, Altman reste optimiste quant aux bénéfices potentiels de l'IA, affirmant que, bien gérée et placée de manière responsable, elle pourrait contribuer à rendre le monde plus abondant et meilleur chaque année. Néanmoins, il admet l'incertitude liée à l'avenir de la technologie et souligne l'importance d'une approche sécurisée et responsable dans son déploiement.

L'optimisme de Sam Altman concernant les bénéfices potentiels de l'intelligence artificielle (IA) est compréhensible, mais il est crucial d'examiner cette perspective avec un esprit critique. D'un côté, reconnaître que l'IA bien gérée et utilisée de manière responsable peut contribuer à améliorer le monde démontre une compréhension des avantages possibles de cette technologie. Cependant, plusieurs aspects méritent une évaluation approfondie.

Tout d'abord, l'idée que l'IA peut rendre le monde « plus abondant et meilleur chaque année » nécessite une définition claire de ce que signifie « meilleur ». Les critères de bien-être et de progrès varient considérablement d'une personne à l'autre et d'une culture à l'autre. Il est donc crucial de définir des normes objectives et universelles pour évaluer le bien-être collectif que l'IA est censée améliorer.


De plus, Altman admet lui-même l'incertitude liée à l'avenir de la technologie. Cette prudence est louable, mais il est important de souligner que l'IA évolue rapidement, et les conséquences à long terme de son déploiement massif sont difficiles à prévoir avec précision. L'incertitude ne doit pas seulement être admise mais doit également guider des politiques et des réglementations robustes pour anticiper et atténuer les risques potentiels.

L'insistance d'Altman sur une approche sécurisée et responsable dans le déploiement de l'IA est cruciale, mais elle soulève aussi des questions sur la capacité réelle de l'industrie et des régulateurs à mettre en œuvre ces mesures. Le développement rapide de la technologie peut parfois surpasser les efforts visant à la réglementer, ce qui souligne la nécessité d'une vigilance constante.

En résumé, bien que l'optimisme d'Altman puisse être justifié à certains égards, il est essentiel de maintenir un regard critique sur les déclarations positives concernant l'impact de l'IA. Cela nécessite une évaluation continue des progrès technologiques, ainsi que des actions concrètes pour garantir un déploiement responsable et éthique de l'IA, en minimisant les risques potentiels et en maximisant les avantages pour la société dans son ensemble.

Source : Vidéo

Et vous ?

Quels sont les risques d’une concentration du contrôle de l’IA générative par quelques acteurs ?

Comment l'avis de Sam Altman s’inscrit-il dans le contexte actuel de l’IA, marqué par des avancées technologiques, des tensions géopolitiques et des débats éthiques ?

Voir aussi :

Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité, qui pourrait être confrontée à son plus grand et son plus proche péril existentiel

Nous avons désormais plus de détails sur ce qui s'est passé à OpenAI et qui a conduit au licenciement de Sam Altman, ce dernier a été accusé de monter les membres du conseil les uns contre les autres

OpenAI licencie le co-fondateur et PDG Sam Altman, l'accusant d'avoir menti au conseil d'administration de l'entreprise. Viré du conseil, le co-fondateur Greg Brockman a préféré démissionner

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0 
Avatar de pboulanger
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 15:26
La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
des développeurs compétents.

Comment devient-on un développeur compétent?
En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
8  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 28/02/2024 à 13:18
Je serai à la retraite avant Java. Et avant Cobol aussi.
7  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 10/01/2024 à 9:31
Le deep Learning n'a pas de représentation du Monde. Donc il ne peut pas simuler, pas mettre en place de stratégie pour simuler une experience, en tirer des règles, avoir un moteur de règles internes . Donc c'est de l'hype pour des chercheurs qui ont besoin de Publish or perish .
Il manque le sens commun pour apprécier des situations.
6  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 10/01/2024 à 10:44
découvrez toutes les prédictions de 2,778 chercheurs
Ce sont des "chercheurs" ou des madames Irma qui lisent votre avenir dans les lignes des mains et dans le marc de café...

Je pense qu'il est nécessaire ici de rappeler une citation du Général De Gaulle: "Des chercheurs qui cherchent, on en trouve... Des chercheurs qui trouvent, on en cherche!"
6  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 28/02/2024 à 11:26
Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
6  0 
Avatar de _toma_
Membre averti https://www.developpez.com
Le 10/01/2024 à 16:14
Le seul frein temporaire à une transformation rapide de la société à cause des intelligences artificielles sera le conservatisme.
Heu... ou bien quelques soucis d'énergie/matières premières.
5  0 
Avatar de ONTAYG
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 11:45
Citation Envoyé par berceker united Voir le message
Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
Skynet
5  0 
Avatar de commandantFred
Membre averti https://www.developpez.com
Le 28/02/2024 à 22:06
L'IA ne va pas discuter avec un expert métier pour comprendre un problème en profondeur.
L'IA (neurones) commet des erreurs dont on sait qu'on ne peut pas les filtrer.
L'IA a besoin de prompts. Une courte phrase suffit pour résoudre un problème simple mais il faut des milliers de lignes de prompt pour décrire un logiciel complexe.

Y' a-t-il des IDE spéciales pour rédiger les prompts ?
1. C'est quasi impossible
2. Ca va à l'encontre du principal atout des IA qui consiste à comprendre le langage naturel.

A la fin de ce raisonnement, on finit par rendre le texte du prompt aussi déterministe qu'un langage de programmation. Mais dans ce cas, gagnons du temps et utilisons de vrais langages longuement améliorés au fil des décennies.

L'implémentation de prompts intelligents sur les IDE aurait son utilité.

Mais remplacer un humain, c'est de la SF

J'adore la SF, j'écris de la SF, la SF, c'est génial.

Mais, monsieur le CEO de NVidia, écrire un programme et écrire un roman, ce n'est pas la même chose.
5  0