IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

John Carmack, développeur de Doom, pense que l'IA générale (AGI) est réalisable d'ici 2030
Et lance un partenariat avec un institut de recherche en Alberta pour en accélérer le développement

Le , par Patrick Ruiz

3PARTAGES

5  0 
L’IA en est encore au stade d’outil spécialisé dans la réalisation de certaines tâches répétitives : radiographie pulmonaire, robots-conseillers de gestion du patrimoine, etc. Elle sert même déjà à animer des robots tueurs capables de verrouiller des cibles sans intervention humaine et de tirer avec la plus grande précision. Et l’un des dangers en la matière est là : de nombreux pays sont lancés dans la course au développement de telles armes et ne parviennent pas à s’entendre sur des règles de contrôle. C’est fort de ces développements que des observateurs mettent en garde : un risque d’extinction de l’humanité plane et la possibilité de l’atteinte du stade d’intelligence artificielle générale le renforce. John Carmack est d’avis que ce niveau sera atteint d’ici 2030 et lance un partenariat avec un institut de recherche en Alberta pour en accélérer le développement.

Carmack a fait part de son point de vue lors d'un événement organisé à l'occasion de l'annonce de l'embauche de Richard Sutton, conseiller scientifique en chef de l'Alberta Machine Intelligence Institute, par Keen, sa startup spécialisée dans le développement de l’intelligence artificielle générale. Sutton est d'avis qu'il n'est pas impossible de coder une intelligence artificielle générale avec les techniques actuelles et considère l'année 2030 comme un objectif envisageable pour qu'un prototype d'intelligence artificielle montre des signes de conscience.


Le stade d’intelligence artificielle générale est celui où les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une intelligence artificielle qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. »

La mise à contribution de l’IA sur les champs de bataille suscite déjà des craintes que l’atteinte de l’AGI viendra amplifier

En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès" ). Elle se vante d'avoir réussi à « combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle. »


La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

« Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'Homme s'inquiètent de « la déshumanisation numérique des systèmes d'armes. »

Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

C’est pour ces raisons que les appels au développement responsable des systèmes pilotés par des intelligences artificielles se multiplient

Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA ont prévenu que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une déclaration d'exactement 22 mots afin de tirer la sonnette d'alarme sur un hypothétique « risque d'extinction de l'espèce humaine. »

Le groupe a publié une déclaration qui se lit comme suit : « l'atténuation du risque d'extinction lié à l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires ».

La déclaration de 22 mots, publiée sur le site de l'organisation à but non lucratif "Center for AI Safety", a été raccourcie de la sorte afin de la rendre aussi largement acceptable que possible. Parmi les signataires figurent des dirigeants de trois des principales entreprises d'IA : Sam Altman, PDG d'OpenAI ; Demis Hassabis, PDG de Google DeepMind ; et Dario Amodei, PDG d'Anthropic.

« Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'IA. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques.

Il y a aussi la possibilité que les intelligences artificielles deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », souligne-t-il.

C’est une sortie qui rejoint celle de Michael Osborne et Michael Cohen de l’université d’Oxford : « « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »


L’esprit critique, la créativité, l’originalité seraient les ingrédients qui risquent de faire défaut aux intelligences artificielles encore longtemps et à minima de repousser le palier 2030

La réalité actuelle est que ces intelligences artificielles sont encore au stade d’outils à utiliser avec des pincettes. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

« Chatgpt est très doué pour fournir des astuces de codage en utilisant du code copié sur Internet, ce qui est incroyablement utile car cela peut faire gagner beaucoup de temps. Mais vous ne pouvez pas demander à Chatgpt de créer YouTube pour vous, de gérer et d'entretenir un système déjà opérationnel ou de parler à un client, de comprendre ses besoins et de construire un système qui résoudra ses problèmes. Pour obtenir de l'aide dans ces tâches complexes, vous devez comprendre le fonctionnement de ces systèmes. Vous devez être un ingénieur logiciel et chatgpt sera un excellent assistant pour vous. Mais il est loin de pouvoir résoudre ces problèmes. Et si c'était le cas, il s'agirait d'une intelligence artificielle générale qui ne remplacerait pas uniquement les ingénieurs en informatique. Mais il s'agit d'un modèle de langage. Ce n'est pas une source de sagesse. La résolution de problèmes, la pensée critique, l'originalité sont toujours du ressort des humains », déclare le créateur de la plateforme en ligne d’apprentissage dénommée Brilliant.


Source : Video amii

Et vous ?

Partagez-vous les avis selon lesquels ce n’est qu’une question de temps avant que les équipes de recherche n’atteignent le stade d’intelligence artificielle générale ?
Ou êtes-vous de ceux qui pensent que l’esprit critique, la créativité et l’originalité resteront l’apanage de l’être humain annulant ainsi toute possibilité d’atteinte du stade d’AGI ?
Comment entrevoyez-vous les rapports entre les humains et les machines en cas d’atteinte du stade d’AGI ? Souscrivez-vous aux scénarios apocalyptiques avec des robots tueurs qui se lanceront à la poursuite des humains ?

Voir aussi :

La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 29/11/2023 à 19:41
Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ?
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
9  0 
Avatar de vmagnin
Membre éprouvé https://www.developpez.com
Le 29/11/2023 à 21:07
Tout à fait d'accord. Plutôt que de relayer ces news, relayons Pascal (1623-1662) à propos de sa Pascaline :
La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux.
(Pensées diverses IV - 6/23)

A relayer ad libitum...
9  0 
Avatar de Seb_de_lille
Membre habitué https://www.developpez.com
Le 01/12/2023 à 9:27
Tout a fait d'accord.

Le battage médiatique autour de l'IA commence vraiment à faire ch... . Ca ressemble à ce qu'on a déjà eu précédemment sur le metavers, les NFT, les blockchains, etc.
Et Developpez.com participe à ce battage puisqu'on ne peut pas passer une journée sans avoir un article au sujet de l'IA. Un peu de recul me semble nécessaire, voir indispensable.
8  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/10/2023 à 8:19
Une étude utilise des modèles économiques pour estimer la date d’arrivée de l’intelligence artificielle de niveau humain
Ça dépend de l'humain pris en modèle. Tu prends G. Darmanin, ma calculatrice à déjà largement le niveau (et elle date de 1982)
7  0 
Avatar de rsuinux
Membre habitué https://www.developpez.com
Le 29/11/2023 à 20:02
Citation Envoyé par kain_tn Voir le message
Enfin quelqu'un qui ne fat pas que répéter bêtement ce que les organismes de communication des grands groupes de tech leur servent.
Son analyse est pertinente, et il a raison: il s'agit juste d'un battage médiatique, et pour ma part, je commence à trouver ça vraiment lassant.
D'accord avec vous.
Ce qui me gène plus pour regarder a mon niveau, c'est que même mon directeur de DSI semble se faire avoir par ce discours. C'est lamentable. Et ce doit pas être le seul.
7  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 11/10/2023 à 9:47
Citation Envoyé par Jipété Voir le message
Jon !
Tu te prends les pieds dans le tapis, là !
Je vois bien dans mon jardin la tronche lamentable de mon cerisier et la récolte minable de cette année.
Et je me souviens bien comment j'ai souffert en août de cette chaleur démente.
Quant aux ruisseaux de par ici, on va bientôt pouvoir les renommer en chemin, sentier, etc.
Et ça, ce sont des réalités.
Des réalités qui emmerdent, oui, mais comment lutter contre, quand presque tout le monde s'en balek ?
Tu n'as pas compris ma remarque (j'ai pas du être clair). Je ne remets pas en cause le dérèglement climatique, bien au contraire.
Ce que je dis c'est que ce dérèglement sert aux politiques pour nous pondre (sous couvert d'écologie, de lutte contre le ce dérèglement) des lois qui obligent les petites gens à des restrictions, des achats, qui n'ont aucun effet sur le climat, voire même aggravent le phénomène. Alors même qu'aucune décision n'est prise contre les gros pollueurs que sont les multi-milliardaires, les multi-nationales, etc...
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 19/10/2023 à 11:36
Citation Envoyé par Bruno Voir le message
Partagez-vous l'avis de agüera et Norvig qui estiment que l’intelligence artificielle générale est déjà présente ?
Non.

Citation Envoyé par Bruno Voir le message
Est-ce que vous pensez que le débat sur l’existence de l’AGI devrait être remplacé par une réflexion sur son intérêt et son utilisation juste et équitable ?
Ce serait plus sain, oui. Et aussi sur à qui profitent réellement ces IA. Qui se fait de l'argent dessus? Qui récoltent des données sur qui, avec?

Là, toutes les semaines, on a un nouveau "chercheur" qui vient nous raconter à quel point l'IA est intelligente...
5  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 10/01/2024 à 9:31
Le deep Learning n'a pas de représentation du Monde. Donc il ne peut pas simuler, pas mettre en place de stratégie pour simuler une experience, en tirer des règles, avoir un moteur de règles internes . Donc c'est de l'hype pour des chercheurs qui ont besoin de Publish or perish .
Il manque le sens commun pour apprécier des situations.
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 10/01/2024 à 10:44
découvrez toutes les prédictions de 2,778 chercheurs
Ce sont des "chercheurs" ou des madames Irma qui lisent votre avenir dans les lignes des mains et dans le marc de café...

Je pense qu'il est nécessaire ici de rappeler une citation du Général De Gaulle: "Des chercheurs qui cherchent, on en trouve... Des chercheurs qui trouvent, on en cherche!"
4  0 
Avatar de _toma_
Membre actif https://www.developpez.com
Le 10/01/2024 à 16:14
Le seul frein temporaire à une transformation rapide de la société à cause des intelligences artificielles sera le conservatisme.
Heu... ou bien quelques soucis d'énergie/matières premières.
4  0