Suleyman explique dans son livre intitulé « The Coming Wave » comment l'IA va transformer tous les aspects de notre vie, de l'éducation aux soins de santé en passant par la politique et la sécurité. Il prévient que nos systèmes actuels ne sont pas prêts à faire face à l’intelligence artificielle compte tenu des avancées possibles dans une dizaine d’années. Et que nous devons repenser nos valeurs, nos institutions et notre gouvernance. Il aborde également certains des dilemmes éthiques et sociaux que pose l'intelligence artificielle : la protection de la vie privée, la responsabilité et la dignité humaine.
Ce dernier souligne que l'intelligence artificielle permettra de nouvelles formes d'apprentissage et de créativité, mais posera également des risques de manipulation et de radicalisation. Il ajoute que cette technologie remettra en question les structures de pouvoir existantes et les frontières des États-nations et créera de nouvelles possibilités de coopération et de conflit à l'échelle mondiale.
« Nous ne sommes absolument pas prêts, car chaque fois que quelque chose est utile dans l'histoire de l'invention, cela tend à devenir moins cher, à devenir plus petit, et donc à proliférer. L'histoire de la prochaine décennie est donc celle de la prolifération de cette puissance brute, et c'est ce qui, à mon avis, constituera une véritable menace pour l'État-nation, comme nous n'en avons jamais vu depuis la naissance de l'État-nation.
Suleyman est en sus d’avis que l’IA nous obligera à redéfinir ce que signifie être humain et comment nous pouvons préserver notre identité et notre action dans un monde de machines intelligentes. C’est pour apporter réponse à cette éventualité qu’Elon Musk a pensé que la solution serait de passer à l’humain augmenté à l’intelligence artificielle. Et donc sa société Neuralink travaille sur des ordinateurs à implanter dans le cerveau pour y parvenir. Son initiative vise une sorte de symbiose avec l'intelligence artificielle, ce, à un degré qui rendrait le langage humain obsolète. Il suffirait alors de penser pour communiquer.
C’est d’intelligence artificielle déployée comme outil dont il est question dans ces développements et à propos de laquelle le PDG de Google Deepmind recommande aux intervenants de la filière d’opter pour un développement responsable. C’est à ce stade d’évolution que se trouvent ChatGPT d’OpenAI et autres Bard de Google à propos desquels certains chercheurs estiment qu’il n’y a rien à craindre et donc que l’humain conservera la main.
« Je suis un peu fatigué par toutes les bêtises que l’on entend depuis quelques années sur l’intelligence artificielle et j’ai voulu rétablir la vérité. On ne sait pas ce que c’est que l’intelligence donc on ne peut pas construire de l’intelligence artificielle. Ce que l’on appelle "intelligence artificielle" depuis 1956 ce sont des techniques mathématiques qui n’ont rien à voir avec l’intelligence. Il n’en reste pas moins que ces techniques (deep learning, machine learning, etc.) sont très intéressantes. Mais la machine ne crée pas, ne réfléchit pas, et les humains conservent pleinement la main sur ces techniques », déclare Luc Julia – un expert de la filière – il y a quelques années.
En d’autres termes, l’humain devrait rester à la manette comme le confirme le CEO de GitHub : « Le développeur reste l'expert, qui comprend le code et vérifie que ce qui a été synthétisé par l'IA correspond bien à l'intention du développeur. De nos jours, les développeurs ne passent pas la majeure partie de leur temps à coder - entre deux et quatre heures par jour sont consacrées à l'écriture du code. Le reste de la journée, ils font d'autres choses, comme des réunions, des rapports de crash. Avec Copilot, si vous ne disposez que de deux à quatre heures par jour pour coder, vous pouvez mieux utiliser ce temps. Vous pouvez utiliser ce temps pour rester dans le flux, pour faire le travail et prendre plaisir à le faire. »
« En l’état actuel, l’intelligence artificielle est seulement capable d’accomplir des tâches répétitives et soumises aux même règles. L’IA aura en plus besoin de la composante créativité qui continue à lui faire défaut pour prétendre remplacer les humains de façon totale », déclare un intervenant de la filière pour faire le point sur les avancées dans la filière.
L’humain met déjà l’intelligence artificielle à contribution pour faire la guerre
Les drones sont un pilier du champ de bataille depuis des années maintenant, mais ils ont toujours nécessité un pilote humain pour appuyer sur la gâchette. Cela pourrait être sur le point de changer. En 2020, un groupe de soldats fidèles au général libyen Khalifa Haftar a été attaqué par des drones agissant de manière autonome, selon un récent rapport du groupe d'experts du Conseil de sécurité de l'ONU sur la Libye. Le tableau préfigure des moyens susceptibles d’être déployés par les armées du monde dans les guerres du futur. Le général américain Marc Milley demande donc aux officiers formés à West Point de garder à l’esprit qu’ils doivent se tenir prêts à relever ces défis. La situation ravive le débat sur les robots tueurs.
« La maturité des diverses technologies qui existent aujourd'hui ou qui sont à un stade avancé de développement, lorsqu'elles sont combinées, sont susceptibles de changer le caractère de la guerre par elles-mêmes. Vous vous battrez avec des tanks, des bateaux et des avions robotisés. Nous avons assisté à une révolution dans la létalité et les munitions de précision. Ce qui était autrefois le domaine exclusif de l'armée américaine est désormais accessible à la plupart des États-nations qui ont l'argent et la volonté de les acquérir », lance-t-il à l’occasion de la sortie d’une cuvée d’officiers, ce, sans manquer de rappeler le contexte actuel fait d’affrontements militaires en Ukraine.
C’est le type de tableau auquel on aura de plus en plus droit tant les exemples qui illustrent le fait qu’une machine peut être mise sur pied pour surpasser un humain sur une tâche donnée peut être allongée à souhait. Pour ce qui est du cas spécifique des combats aériens, noter qu’Alpha, une intelligence artificielle mise sur pied par les laboratoires de recherche de l’armée américaine, a défait des experts de cette dernière dans le cadre de simulations de combats aériens.
« J’ai été surpris par la manière dont elle était consciente et réactive. Elle semblait être consciente de mes intentions et réagir instantanément à mes changements en vol et à mes déploiements de missiles. Elle savait comment déjouer le tir que je faisais. Elle changeait instantanément entre les actions défensives et offensives en fonction des besoins », avait souligné le colonel Gene Lee, décrivant Alpha comme étant l’intelligence artificielle la plus agressive, réactive, dynamique et crédible qu’il ait jamais vue.
Ces développements sont à placer dans la problématique générale des armes autonomes létales. Une publication parue en début d’année 2020 fait état de ce que bon nombre de pays sont en train de s’arrimer à la donne. Ainsi, les USA, la Chine, la Russie, Israël, etc. investissent dans le développement de systèmes d'armement autonomes qui peuvent identifier, cibler et tuer une personne par eux-mêmes. Combien de temps encore avant que les « anciens » systèmes d’armement ne cèdent de façon définitive leur place à ceux aux capacités dites améliorées par l’intelligence artificielle ?
Et vous ?
Quelle pertinence trouvez-vous aux prédictions de Mustafa Suleyman ? Sont-elles plus sensationnalistes qu’autre chose ?
Partagez-vous l’avis selon lequel l’humain menace plus la structure de l’Etat-nation que l’intelligence artificielle ?
Voir aussi :
Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC, et l'Homme fusionne avec l'IA, aberration ou fiction ?
Neuralink d'Elon Musk annonce que l'interface cerveau - ordinateur est prête pour des tests sur les humains, et entend procéder aux premiers en 2020
L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
Neuralink d'Elon Musk, la discrète firme qui travaille sur des ordinateurs à implanter dans le cerveau, lève le voile sur le secret, sous peu
Il n'aura fallu que 10 minutes pour trouver des failles dans le chapelet « intelligent » lancé par le Pape, pour inviter les fidèles à la prière partout dans le monde