IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le président de Microsoft a déclaré qu'il n'y avait aucune chance que l'IA superintelligente AGI apparaisse bientôt
Et que la technologie pourrait ne pas voir le jour avant plusieurs décennies

Le , par Sandra Coret

0PARTAGES

13  0 
Le cofondateur d'OpenAI, Sam Altman, a été démis de ses fonctions de PDG par le conseil d'administration de l'entreprise au début du mois, mais il a été rapidement réintégré après un week-end de protestations de la part des employés et des actionnaires.

La semaine dernière, il a été rapporté que l'éviction était intervenue peu après que des chercheurs eurent contacté le conseil d'administration pour l'avertir d'une découverte dangereuse dont ils craignaient qu'elle n'ait des conséquences inattendues.

Le projet interne baptisé Q* (prononcé Q-Star) pourrait constituer une percée dans la recherche de ce que l'on appelle l'intelligence artificielle générale (AGI). L'OpenAI définit l'AGI comme des systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique.

Toutefois, le président de Microsoft, Brad Smith, s'adressant à des journalistes en Grande-Bretagne jeudi, a rejeté les affirmations selon lesquelles il s'agirait d'une percée dangereuse.

"Il est absolument improbable que l'on assiste à ce que l'on appelle l'AGI, où les ordinateurs sont plus puissants que les humains, au cours des 12 prochains mois. Cela prendra des années, voire des décennies, mais je pense que c'est maintenant qu'il faut se concentrer sur la sécurité", a-t-il déclaré.

Interrogé sur le fait de savoir si une telle découverte a contribué à la révocation d'Altman, Smith a déclaré : "Je ne pense pas que ce soit le cas. Je pense qu'il y avait manifestement une divergence entre le conseil d'administration et d'autres, mais ce n'était pas fondamentalement une préoccupation comme celle-là."

"Ce dont nous avons vraiment besoin, ce sont des freins de sécurité. Tout comme il y a un arrêt de sécurité dans un ascenseur, un disjoncteur pour l'électricité, un frein d'urgence pour un bus, il devrait y avoir des arrêts de sécurité dans les systèmes d'IA qui contrôlent les infrastructures critiques, afin qu'ils restent toujours sous le contrôle de l'homme", a ajouté M. Smith.


Source : Brad Smith, président de Microsoft, s'adressant à des journalistes en Grande-Bretagne

Et vous ?

Que pensez-vous des déclarations de Brad Smith, président de Microsoft ? les trouvez-vous pertinentes ?
Quel est votre avis sur la création d'une IA superintelligente ?

Voir aussi :

L'illusion du risque existentiel de l'IA : pourquoi il faut arrêter de craindre une IA surpuissante et malveillante, selon Google Research et des experts en IA

« Nous pourrions ne pas être capables de contrôler une IA super intelligente ou ignorer qu'elle est déjà parmi nous », d'après de récents travaux sur la théorie de calculabilité en informatique

OpenAI met sur pieds une division chargée de créer une IA qui va contrôler le développement de la superintelligence, supposée être plus intelligente que l'homme. Elle pourrait arriver d'ici 2030

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mach1974
Membre averti https://www.developpez.com
Le 10/01/2024 à 9:31
Le deep Learning n'a pas de représentation du Monde. Donc il ne peut pas simuler, pas mettre en place de stratégie pour simuler une experience, en tirer des règles, avoir un moteur de règles internes . Donc c'est de l'hype pour des chercheurs qui ont besoin de Publish or perish .
Il manque le sens commun pour apprécier des situations.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 10/01/2024 à 10:44
découvrez toutes les prédictions de 2,778 chercheurs
Ce sont des "chercheurs" ou des madames Irma qui lisent votre avenir dans les lignes des mains et dans le marc de café...

Je pense qu'il est nécessaire ici de rappeler une citation du Général De Gaulle: "Des chercheurs qui cherchent, on en trouve... Des chercheurs qui trouvent, on en cherche!"
4  0 
Avatar de _toma_
Membre actif https://www.developpez.com
Le 10/01/2024 à 16:14
Le seul frein temporaire à une transformation rapide de la société à cause des intelligences artificielles sera le conservatisme.
Heu... ou bien quelques soucis d'énergie/matières premières.
4  0 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 01/12/2023 à 13:27
Le frein s'appelle "L'interrupteur" : Sans électricité plus d'IA !!!
2  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 14/12/2023 à 19:29
La grosse faille à leur truc me semble parler à la fois de création et de génératif + apprentissage.
Tous les systèmes que l'on fera qui apprennent de l'existant et mixent des réponses en se basant sur cet apprentissage ne font qu'uniformiser/croiser des vérités qui n'en sont pas et niveler par le bas puisque tout se base sur ces choses apprises limitées.
Je paris qu'un jour on donnera un nom au niveau de médiocrité/unformité vers lequel ces IA vont tendre à partir du capital d'info à apprendre.

Sans oublier le Why ? pourquoi vouloir de telles intelligences alors que sommes toujours plus nombreux sur la Terre a avoir cette intelligence avec autant de sens à donner à la vie.
2  0 
Avatar de LyvDev
Candidat au Club https://www.developpez.com
Le 15/12/2023 à 8:45
Bonjour,

Malheureusement l'histoire nous le démontre, tout ce que nous fessons sert aussi à nuire.
Il en sera de même pour l'IA.

Je dirais que "Les chiens ne font pas des chats"
Or ici l'IA fait les choses bien mieux que nous. Et nous sommes, nous humains, je trouve, particulièrement doués pour nuire.

Vous voyez donc (probablement pas d'ailleurs et moi non plus) ce à quoi s'attendre.

Par ex l'énergie atomique est très bien pour notre usage courant.
Mais c'est aussi en une seule bombe jusqu'à 100 km de destruction totale.(https://fr.wikipedia.org/wiki/Tsar_Bomba)

Et comme c'est aussi en développement dans des pays ne partagant pas nos valeurs.
Cela risque d'être bien bien amusant.
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 11/01/2024 à 8:51
Citation Envoyé par Jade Emy Voir le message
découvrez toutes les prédictions de 2,778 chercheurs
S'ils sont autant c'est sût qu'ils ont raison
Par contre ils auraient pu faire un effort pour trouver deux guignols pour tomber sur un chiffre rond, à moins que les deux en question se soient retiré au dernier moment pour ne pas signer ce truc.
Citation Envoyé par Jade Emy Voir le message
Une nouvelle enquête
Ok d'habitude on parle d'article, d'étude, de pré-étude mais là on est passé au stade le plus bas : une enquête.
Ce terme existe-t-il même dans le domaine de la recherche?

Bref niveau de fiabilité de l'info nul.

Mais ce qui est incroyable est que l'on compare les prédictions de cette année à celles de la précédente, pour des projections qui n'atteignent 50% de probabilité qu'après la mort de tous les lecteurs actuels du forum.
Bref je donne autant de crédit à cette enquête qu'à James Cameron qui nous avait pourtant prévenu du risque avec son grand reportage d'anticipation qu'est Terminator...
Citation Envoyé par irrmichael Voir le message
Bref, la seule utilité d'un être humain pour la société sera purement intellectuelle dans le futur, la force physique n'étant plus nécessaire. Les gens pourront et devront faire des années d'études[...]pour être utile
Donc notre seule utilité dans notre société est intellectuelle ou physique?
Donc notre seule utilité à la société est productive?
Nous vivons vraiment pour être frais et dispo pour travailler de façon efficace de 9h à 19h? En sommes nous arrivé à ce point où le monde en dehors du capitalisme est inenvisageable?
Citation Envoyé par Anselme45 Voir le message
A quel moment, est-ce que l'humain a fait dans "l'amour et le partage"? JAMAIS!!!!!!!!!!!!!!!!!!!!!!!!!
Je vais être un peu plus cynique en disant que je suis relativement persuadé qu'il a existé des sociétés où un élite prônait l'amour et le partage mais qui garantissait le maintien de ses privilèges et de sa logique en définissant tous les autres comme des animaux (qui ne sont donc pas concernés par l'amour et avec qui il n'est pas nécessaire de partager)
2  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 11/01/2024 à 10:10
Citation Envoyé par Anselme45 Voir le message
Grosso modo, l'être humain est présent sur Terre depuis 150 000 ans dont 4 000 sous forme de civilisations ayant laissé des traces historiques (des écrits qui décrivent l'histoire et l'organisation de leur société).
je corrige les dates:

on a des traces historiques plus anciennes, la ville Jéricho par exemple qui date de -9000

et homosapiens a plutôt 300000ans que 150000.
mais vu que tu dis etre humain, ca peut remonter à plus loin, jusqu'a , Homo habilis si on va a l'extreme (1.5 millions d'années)
2  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 9:02
Citation Envoyé par marc.collin Voir le message
possible mais entretemps, c'est du code peu sécure et assez moyen

j'ai attendu ce discourt il y a plus de 18 ans de certaine entreprise qi propose des outils de no-code... on connait la suite

quand on regarde le taux de succès des projets informatiques selon le standish group via le chaos report c'est seulement autour de 30%...
a ma connaissance l’échec n'est jamais du au code.
il est du a la mauvaise expression du besoin par le client, de la mauvaise compréhension des taches ou encore du management qui a fait n'importe quoi (turn over, aucun budget...)

la mauvaise expression du besoin par le client avec la méthode agile, c'est normalement facilement rattrapable, avec une démo toute les 2-3 semaines on évite de trop s'égarer.

pour le management par contre c'est de pire en pire. les boites veulent payer le moins possible donc on se retrouve avec des équipes de juniors inexpérimenté et des jeunes sortie juste d'un boot camp. et ils sont censé faire un gros projet complexe.
pour ceux qui ont de l'ancienneté, les non augmentations des salariés, produisent des démissions et du turn over.
et enfin les boites qui veulent le moins possible embaucher font appelle a des ssii avec des résultats encore plus médiocre.

car dans les ssii c'est la même chose: salariés mal payé, donc profil les plus mauvais possible, les bons se casse à la 1ere occasion pour gagner plus. Donc si ton consultant est bon il va pas rester longtemps.

Enfin les stack technique sont devenus tellement vaste et énorme ! je fais du devops et je dois maitriser: linux, elasticsearch, kibana, grafana, prometheus, mongodb, helm, docker, kubernetes, ansible, terraform, jenkins, gitlab ci, l'environnement aws, azure, ServiceNow, Jira, confluence, python, molecule, fluentd, logstash, vault, ArgoCD... je dois surement en oublier.
c'est difficile de s'y retrouver et de bien maitriser toute une architecture. d'ou des instabilités et des pannes complexes a résoudre.
2  0 
Avatar de Diablo150
Membre régulier https://www.developpez.com
Le 14/12/2023 à 19:06
Il faut arrêter avec ces sujets ubuesque . L'Intelligence artificielle généralisée n'existera jamais, car ce ne sont que des systèmes à mémoire sans représentation du monde
Je suis bien conscient de certaines limites des modèles génératifs basés sur les transformeurs.
Par contre je suis pas certain que la limite soit là, les modèles multimodaux arrivent à grand pas, qu'ils viennent d'OpenAI ou de modèles dérivés de Llama 2 ou Mistral.

Il est probable que d'ici un an, un certain nombre de modèles soient doués de vision comme il sont déjà doués d'audition via Whisper (la parole n'en parlons pas, ça existe déjà très bien en dehors de l'IA).

Si on en croit Yann LeCunn, les modèles génératifs auront toujours une limite indépassable car ce sont des système auto régressifs, ce qui leur permettre de faire des *raisonnements* par analogie, mais cela a vite ses limite en dehors des autres champs de l'intelligence.

Mais je vois pas ce qui permet de dire que cela n'existera jamais. Après tout les transformeurs ont succédés aux les réseaux récurrents, il n'est pas impossible qu'une découverte soit faite dans un avenir proche.
1  0