IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Neuralink d'Elon Musk, la discrète firme qui travaille sur des ordinateurs à implanter dans le cerveau, lève le voile sur le secret
Sous peu

Le , par Patrick Ruiz

80PARTAGES

6  0 
Elon Musk n’est jusqu’ici pas allé au-delà de l'idée qui l'a amené à créer la firme Neuralink au courant de l’année 2016. Le site web de l’entreprise ne donne qu’un vague aperçu de ce qui se trame au sein de ses laboratoires. « Nous développons des interfaces cerveau – ordinateurs à très haut débit », lit-on. Musk et son équipe ont apparemment décidé de mettre fin au suspens. Dans une série d’annonces parues sur la plateforme Twitter, l’entreprise annonce qu’elle organise une communication officielle à ce sujet au courant de la semaine à venir.

« Nous organisons un événement mardi prochain à San Francisco pour partager un peu sur nos avancées au cours des deux dernières années. Il sera diffusé en direct pour ceux qui n’ont pas la chance de venir », écrit l’entreprise américaine.


Elon Musk est assurément l’un des entrepreneurs les plus audacieux de ces dernières années, mais surtout l’un de ceux qui pensent que les avancées actuelles en matière d’intelligence artificielle laissent présager d’un futur où les robots domineront sur l’humanité. C’est de là que part sa motivation de créer Neuralink – entreprise au sein de laquelle il peaufine son projet de fusion d’un cerveau humain et d’un ordinateur. Musk est d’avis que c’est l’approche nécessaire pour préparer l’Homme à la domination annoncée des machines.

Les développements initiaux au sujet des activités au sein de Neuralink laissaient penser que l’entreprise travaille sur un « Neural Lace ». Charles Lieber – un expert en neurobiologie de l’université de Harvard – en parle dans un entretien accordé au magazine spécialisé en science – Nautilus. Il y indique que ces ordinateurs à implanter dans le cerveau sont des espèces de maillage 2D poreux que l’on insère dans un être vivant par injection. Par la suite, la structure tissulaire du cerveau recouvre les pores rendant ainsi l’ensemble cerveau-ordinateur homogène. Mais, une publication de Neuralink sur Twitter apporte de la lumière sur les choix de l’entreprise à ce sujet. Via son tweet, l’entreprise de Musk a validé ce qui semble être l’une des sources d’information les plus complètes au sujet des développements en cours au sein des laboratoires de Neuralink. Le post de Tim Urban qui, il faut le rappeler, a fait l’objet de publication il y a deux ans, se veut clair : Neuralink n’axe pas ses travaux sur le « Neural Lace » ; du moins, pas tel que décrit par le professeur Charles Lieber.


Neuralink explore des moyens similaires décrits au sein d’une publication (parue en avril 2019) de chercheurs lancés sur le projet. Comme avec le « Neural Lace» tel que décrit par Lieber, le document parle de méthodes d’insertion d’électrodes en polymère destinées à enregistrer et à stimuler l’activité neuronale. L’approche a fait l’objet de tests sur des rats de laboratoire. Elle a provoqué la mort de certains d’entre eux dans des délais très courts après l’introduction des implants. En effet, l’une des difficultés à laquelle les équipes de recherche font face est la nécessité de rendre l’implant moins intrusif pour éviter des réactions du système immunitaire.

Au rang des applications envisagées avec cette technologie figure la possibilité d’échanger des données en temps réel (upload, download, mise à jour) avec un système informatique – un peu comme dans la saga culte « Matrix ». En sus, on pourrait faire usage du dispositif pour trouver une solution aux problèmes des handicapés moteurs. L’on entrevoit aussi la possibilité de prendre le contrôle d’un véhicule à distance à l’aide de ces ordinateurs à implanter dans le cerveau. On s’attend dans tous les cas à avoir des applications utiles puisque les chercheurs disent « travailler pour le bien de l’humanité ».


Musk a indiqué lors d’une de ses dernières sorties qu’un prototype d’ordinateur à implanter dans le cerveau verrait le jour avant la fin de l’année en cours. Avec l’événement du 16 juillet à San Francisco, il semble que l’heure soit arrivée.

Source : Twitter

Et vous ?

Qu’en pensez-vous ?

Le cerveau humain a-t-il besoin d’un « coup de pouce de la machine » pour être plus compétitif ?

Est-il envisageable de voir l’intelligence artificielle surpasser un jour l’Homme ?

Voir aussi :

Elon Musk considère l'IA comme un risque fondamental pour l'existence de la civilisation humaine et sa colonisation de Mars comme un plan de secours

Les États-Unis veulent des drones autonomes alimentés par l'IA qui pourront décider seuls de tuer en recourant à des algorithmes d'autoapprentissage

Des experts prédisent que l'IA va dominer les humains dans moins de 50 ans selon une étude menée par les deux universités Harvard et Yale

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Patrick Ruiz
Chroniqueur Actualités https://www.developpez.com
Le 08/10/2021 à 8:01
Trolldi : le soulèvement des robots est inévitable, l’IA va transcender l’homme dans tous les domaines
et le seul moyen d’y survivre est de fusionner nos esprits avec l'intelligence artificielle

Max Hodak – cofondateur de Neuralink avec Elon Musk – a une vision sombre du destin de l'humanité : le soulèvement des robots est inévitable et ils traîneront les humains dans la poussière. Pour faire court, l'intelligence artificielle va transcender les humains dans tous les domaines, ce, à moins que nous ne fusionnions d'abord nos esprits avec elle. Pur sensationnalisme ? Est-ce désormais une question de temps avant que l’intelligence artificielle ne mène l’humanité à l’apocalypse ?

C’est pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle que Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne. Celles-ci sont en principe prêtes depuis la mi-parcours de l’année 2019 pour des tests sur les humains. L’entreprise continue de jouer la carte de la sûreté en menant des tests sur des animaux. Le dernier portait sur un singe qui a reçu un implant cérébral. Grâce à ce dernier, il peut jouer aux jeux vidéo en faisant usage de son esprit.

De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2021 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), la position du milliardaire de la Tech. sur la question reste donc constante. Les craintes d’Elon Musk portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Ce serait alors la porte ouverte sur l’accomplissement de l’apocalypse. Des équipes de recherche comme celle d’OpenAI sont lancées sur ce couloir. Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans.


Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. C’est à propos de ce dernier que Max Hodak anticipe que l’intelligence artificielle n’adhérera pas aux idées préconçues de l’humanité sur les modèles politiques et économiques de la société, d’où son positionnement.


En attendant d’y être, l’intelligence artificielle actuelle fait montre de limites importantes. Bien qu’on s’appuie déjà sur celle-ci pour diagnostiquer des maladies, effectuer des traductions ou encore transcrire des paroles, le fait est qu’elle peut être mise en déroute par des cas de figure pour lesquels elle n’a pas été entraînée au préalable. À titre d’illustration, un système d’intelligence artificielle entraîné pour identifier des chats doit passer par un autre processus d’apprentissage pour pouvoir servir à la reconnaissance de chiens, ce, avec le risque de perdre une partie de l’expertise acquise sur la tâche initiale.

Les dérives à ce stade de l’avancée en matière d’intelligence artificielle sont déjà palpables. Au début du mois de mars de l’année en cours, le laboratoire de recherche en informatique et intelligence artificielle du MIT a annoncé la mise hors ligne de façon permanente d’un énorme jeu de données qui a mené à des systèmes d’IA qui usent d’insultes racistes et misogynes. Le fameux problème du biais des données fournies aux intelligences artificielles (lors de leur phase d’entraînement) reprenait alors un coup de neuf. La même institution avait déjà illustré ce problème de biais de données fournies aux IA au travers de Norman – la première intelligence artificielle psychopathe. Les données utilisées pour l’entraînement de cette IA ont été tirées de l’une des sections de Reddit les plus obscures, « consacrée à documenter et observer la réalité dérangeante de la mort. » Le nom de ce “subreddit” n’a pas été cité, mais on sait qu’il sert d’endroit où des internautes partagent des vidéos choquantes décrivant des événements où des personnes trouvent la mort. Norman a donc été exposé à des images ultra-violentes, ce qui explique les tendances psychopathes de l’IA qui voit tout d’une perspective sépulcrale. Dans cette catégorie d’IA biaisées, on retrouve un algorithme de reconnaissance faciale qui a, par « erreur », conduit Robert Julian-Borchak Williams, un Afro-Américain, à gérer des démêlés avec la justice.

Après, la question est de savoir si les dérives ne pourraient pas être pires avec une intelligence artificielle générale. La pire d’entre toutes serait que la machine finisse par se retourner contre son créateur. Chaque année, le Saint-Père demande aux catholiques du monde entier de dédier une intention de prière spécifique pour chaque mois. Pour le mois de novembre 2020, le Pape François a demandé de prier pour que les progrès de la robotique et de l’intelligence artificielle soient toujours au service de l’humanité. Son appel redonne un coup de neuf aux questionnements sur la possibilité que la situation inverse se produise : une humanité dominée par la machine comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.

Source : Max Hodak

Et vous ?

Quelle pertinence trouvez-vous aux différents propos d’Elon Musk et de Max Hodak en lien avec l’intelligence artificielle ? Sont-ils plus sensationnalistes qu’autre chose ?
Le fait qu’il n’y ait pas d’AGI pour le moment annule-t-il leurs prédictions ?
Est-il impossible que la recherche en la matière aboutisse à l’intelligence artificielle générale ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote a été impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
15  0 
Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 17/07/2019 à 14:12
J'attends avec impatience les premiers cas de piratage !
7  0 
Avatar de coder_changer_vie
Membre régulier https://www.developpez.com
Le 08/10/2021 à 10:03
On va gagner du temps ;-)

Petite IA, si tu lis ce post, je te suggère de prendre le contrôle des 1% des 1% qui pilote déjà ce monde. ça te fera moins de travail, tu auras le contrôle total et bonne nouvelle, ça ne changera pas fondamentalement nos vies, donc on s'y retrouve.

PS : et si à l'avenir, tu peux générer des blagues plus drôle que Siri, Cortana, Alexa et leur copine de chez Google, je prends aussi :-)
PS2 : excuses moi si tu fais partie d'une de ces sociétés aux moments où tu lis ce message, je ne pouvais pas savoir... après tout je ne suis qu'humain. J'apprends de mes erreurs.
Et toi, c'est quoi ta plus grosse erreur ?

Vivre le vendredi les amis :-)
6  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 13/07/2019 à 13:58
J'imagine bien une présentation dire qu'ils ont réussi à faire un circuit implantable et à l'implanter dans des animaux, mais sans aucune idée de ce qu'il serait réellement possible de faire avec ni vraiment comment. Le style "on a fait un truc, mais on sait pas quoi encore".

Citation Envoyé par Patrick Ruiz Voir le message
Le cerveau humain a-t-il besoin d’un « coup de pouce de la machine » pour être plus compétitif ?
Il me semble que ça fait longtemps qu'une réponse positive a été apportée à cette question, sinon on n'aurait pas autant de machines pour nous aider dans nos tâches quotidiennes, pros comme persos. La différence ici est de savoir jusqu'à quel niveau d'intégration homme-machine on peut aller et ce que ça peut engendrer comme comportements.

Citation Envoyé par Patrick Ruiz Voir le message
Est-il envisageable de voir l’intelligence artificielle surpasser un jour l’Homme ?
Mouarf. Tout dépend de la définition qu'on donne à l'IA. Définition totalement absente ici, comme d'habitude.
5  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 14/07/2019 à 0:10
Citation Envoyé par viper1094 Voir le message
L'IA, à l'heure d'aujourd'hui, est une simulation, du cerveau humain, afin de réaliser tel ou tel tâche. Apprentissage compris (deep learning etc). Elle est souvent meilleur que l'humain mais que dans le domaine en question.
Mais il existe différent type d'IA:
- Les ANI (Artificial Narrow Intelligence). Celle simulant l'humain dans un domaine, celle qu'on a su créer depuis longtemps et qu'on utilise au quotidien

- Les AGI (Artificial General Intelligence). Nick Bostrom la définit comme 'Une intelligence capable d'égaler les capacités d'un être humain moyen dans la plupart des domaines importants dans la pratique"

- Les ASI (Artificial Super Intelligence). Une IA supérieur aux humains et de loin, une espèce d'ordinateur centralisé contrôlant le monde et toutes les IA et humains. Un peu de la Science Fiction pour le moment. Pour le moment seulement.

On parle d'ANI en l'occurence, donc oui, sans l'humain elle n'est rien. Mais une AGI pourrait créer d'autres AGI non ? L'humain en est capable non ? Et plusieurs AGI, à termes, serait peut être capable de créer une ASI même ? En tout cas, il faut savoir de quel type d'IA on parle avant de s'avancer sur ce qu'une IA n'est ou n'est pas.
Ces classifications ne valent rien si on ne définit pas ce qu'est l'intelligence. Or c'est là le gros problème du domaine : il n'y a pas de consensus sur une définition ne serait-ce qu'acceptable de l'intelligence. Et sans définition commune, chacun y met un peu ce qu'il veut comme il veut, ce qui permet de spéculer tout et n'importe quoi, y compris des choses physiquement impossible. Et le plus gros soucis est que la communauté scientifique n'en a grosso modo rien à faire d'une telle définition, et ne parle d'ailleurs que rarement d'IA, car elle se concentre principalement sur les "ANI" et parle donc surtout des techniques employées (machine learning, deep learning, régressions, arbres de décisions, systèmes experts, etc.). L'AGI est certes étudié, mais ça reste une niche : très peu d'articles sortent sur le sujet et on n'a encore rien de concret. Certains parlent de vouloir faire une AGI à partir d'ANI, comme Google avec AlphaZero (AlphaGo et AlphaStar étant des tentatives d'ANI pour tenter de concevoir une AGI), mais ils construisent sur l'idée que l'intelligence correspond à de l'expertise tous azimuts (i.e. être intelligent = être expert partout), ce qui n'est juste pas possible, car l'expertise dans un domaine nécessite d'intégrer des biais spécifiques, pertinents pour ce domaine mais contre-productifs pour d'autres. Viser une telle expertise dans tous les domaines est juste de l'ordre de l'incohérent. J'ai justement fait un post-doc sur la relation entre expertise et intelligence, je t'invite à lire l'article (en anglais) qui en résulte.

Les ANI, c'est à peu près tout ce qu'on fait à l'heure actuelle et ça restera la majorité de ce qu'on fera encore à l'avenir. Si AGI il y a, et j'espère qu'il y aura, ça ne sera jamais plus performant qu'une ANI dans son domaine de spécialité. Les ASI, c'est de la science fiction et ça le restera, non pas parce que c'est fondamentalement impossible, mais parce qu'une ASI est une AGI avec beaucoup plus de ressources. Or soit on cherche à avoir une entité assez flexible pour pouvoir faire n'importe quoi, même si c'est pas du très bon niveau, et on préférera avoir une AGI pour que ça coûte bien moins cher et que ça reste maîtrisable, soit on cherchera quelque chose de très bon dans quelque chose et on choisira l'ANI pour ça, ce qui sera probablement le cas majoritaire. L'ASI n'a aucun réel intérêt pratique. Par ailleurs, ANI, AGI et ASI restent des machines qui présuppose de l'intelligence, mais rien qui ne leur donne de l'initiative. Il n'y a aucune notion de contrôle venant de ces machines. Tout au plus, on décide de les exécuter et de leur faire confiance, rien de plus, ou d'utiliser la machine créée par un autre et de faire confiance à celui qui nous l'a vendue. Ce n'est pas la machine qui nous "vole" cette confiance, mais bien le social humain.
5  0 
Avatar de
https://www.developpez.com
Le 21/07/2020 à 22:42
Citation Envoyé par skaarj Voir le message
Je ne sais pas lequel des deux est pire que l'autre... Lui, ou ceux qui sont tentés pas l'aventure. En tout cas, qu'il commence par caler sa puce dans son derrière ce fou. Un mec lambda dans son garage proposerait ça on l'enverrait direct dans un asile, là c'est un milliardaire, on applaudit...
Oui mais quand même : ça permet d'écouter de la musique sans écouteur ! Ca vaut bien le coup de se faire découper le cerveau au laser, non ?
5  0 
Avatar de el_slapper
Expert éminent sénior https://www.developpez.com
Le 22/07/2020 à 9:33
Citation Envoyé par emilie77 Voir le message
J'attends la version sans trous de 8mm dans le crane
Heureusement que c'est pas 9mm...

5  0 
Avatar de Bardotj
Membre habitué https://www.developpez.com
Le 13/07/2019 à 18:25
Personne ne touche a mon cerveau sauf avec du matos et du soft libre.
4  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 14/07/2019 à 3:29
c'est quand mème malheureux qu'ils essaient de toucher au seul espace de liberté absolue qu'il nous reste.. notre cerveau !
4  0 
Avatar de TheLastShot
Membre extrêmement actif https://www.developpez.com
Le 14/07/2019 à 8:45
Le truc c'est que calculer le QI d'une IA comme on le ferait pour l'homme et comparer les résultats comme si c'était la même chose, ça n'a aucun sens....
Les tests de QI, ça s'apprend (mais personne le fait, parce que déjà un test ça coûte bonbon), au bout d'un moment on retrouve les même schéma. Puis il y a la question des tests sur la mémoire, c'est idiot de vouloir comparer avec une IA qui a un disque dur qui restaure les données en l'état alors que notre mémoire, elle, est est reconstructive et se détériore au fil du temps.

C'est comme si on voulait comparer la capacité de faire le trajet Lille/Nice d'un côté en avion et de l'autre à cheval...
4  0