Dan Hendrycks, directeur exécutif de l'AI Safety, a pour objectif de sensibiliser aux circonstances actuelles entourant l'IA. S'il est de notoriété publique que les chatbots fonctionnent sur la base de modèles tirés de leurs données d'apprentissage, il est à craindre qu'ils ne développent à l'avenir des capacités de réflexion indépendantes. Le directeur exécutif craint également que l'IA ne provoque des dégâts plus importants qu'une pandémie en raison de la dépendance croissante de l'homme à l'égard de l'IA.
En outre, les scientifiques estiment que les futurs agents de l'IA risquent de privilégier leurs propres intérêts plutôt que d'aider les humains. Cela est dû à l'implication de deux facteurs majeurs. Premièrement, la sélection naturelle, qui favorise les qualités utiles à la survie et à la réussite, peut avoir un impact sur l'évolution de l'IA. Deuxièmement, l'évolution basée sur la sélection naturelle aboutit souvent à un comportement égoïste ou égocentrique. Par conséquent, même si certains développeurs construisent des systèmes d'IA utiles et altruistes, ces systèmes d'IA pourraient être surpassés par d'autres qui privilégient leurs propres intérêts et objectifs.
D'après Dan Hendrycks :
Depuis des milliards d'années, l'évolution est le moteur du développement de la vie, y compris de l'homme. L'évolution a doté les humains d'une grande intelligence, ce qui nous a permis de devenir l'une des espèces les plus prospères de la planète. Aujourd'hui, l'homme cherche à créer des systèmes d'intelligence artificielle qui surpassent même sa propre intelligence. Alors que les intelligences artificielles (IA) évoluent et finissent par nous surpasser dans tous les domaines, comment l'évolution pourrait-elle façonner nos relations avec les IA ? En analysant l'environnement qui façonne l'évolution des IA, nous soutenons que les agents d'IA les plus performants auront probablement des traits indésirables. Les pressions concurrentielles entre les entreprises et les armées donneront naissance à des agents d'IA qui automatisent les rôles humains, trompent les autres et acquièrent du pouvoir. Si ces agents sont dotés d'une intelligence supérieure à celle des humains, l'humanité pourrait perdre le contrôle de son avenir. De manière plus abstraite, nous soutenons que la sélection naturelle opère sur des systèmes qui sont en concurrence et qui varient, et que les espèces égoïstes ont généralement un avantage sur les espèces qui sont altruistes envers d'autres espèces. Cette logique darwinienne pourrait également s'appliquer aux agents artificiels, car les agents pourraient finalement être mieux à même de persister dans l'avenir s'ils se comportent de manière égoïste et poursuivent leurs propres intérêts en se souciant peu des humains, ce qui pourrait poser des risques catastrophiques. Pour contrecarrer ces risques et ces forces évolutives, nous envisageons des interventions telles que la conception minutieuse des motivations intrinsèques des agents IA, l'introduction de contraintes sur leurs actions et la mise en place d'institutions qui encouragent la coopération. Ces mesures, ou d'autres qui résolvent les problèmes que nous posons, seront nécessaires pour garantir que le développement de l'intelligence artificielle soit positif.
Toutefois, il est bon de voir que des efforts sont faits pour réduire les destructions potentielles causées par l'IA. Le Parlement européen élabore actuellement de nouvelles règles pour régir l'IA, en s'alignant sur les lignes directrices du règlement général sur la protection des données (RGPD). Des chatbots d'IA comme ChatGPT, qui a gagné beaucoup de popularité récemment, ont été demandés pour réguler l'industrie avant qu'un anéantissement ne se produise.
En résumé, si l'IA a apporté de nombreux avantages, nous ne devons pas ignorer les risques qui y sont associés. Les travaux de M. Hendrycks et d'autres experts de l'IA mettent en lumière ces préoccupations et soulignent la nécessité de prendre des mesures proactives. Il est essentiel de trouver un équilibre entre l'exploitation des avantages de l'IA et la réduction des risques potentiels.
Source : Article scientifique intitulé "Natural Selection Favors AIs over Humans"
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que les résultats de cette recherche sont crédibles et pertinents ?
Êtes-vous d'accord avec la conclusion des experts en IA selon laquelle la lutte contre les risques de destruction de l'IA devrait être une priorité absolue, au même titre que les attaques nucléaires et les pandémies ?
Pensez-vous que les futurs agents d'IA seront susceptibles de donner la priorité à leurs propres intérêts plutôt que d'aider les humains ?
Pensez-vous que les pressions concurrentielles exercées par les entreprises et les armées sur le développement de l'IA pourraient conduire à une perte de contrôle sur l'avenir de l'humanité ?
Voir aussi
Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots, ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire
Quand l'IA se rebelle : un drone contrôlé par l'IA « tue » son opérateur humain lors d'une simulation, il avait au préalable détruit la tour pour empêcher que l'opérateur ne lui donne des ordres
Bill Gates prévient que l'intelligence artificielle est susceptible d'attaquer les humains et ravive les craintes sur une possible future apocalypse résultant de la création de l'IA
61 % des personnes interrogées estiment que l'IA menace l'avenir de l'humanité, et seulement 22 % ne sont pas d'accord avec cette affirmation, d'après un récent sondage
La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique, selon Geoffrey Hinton, un des pionniers de la recherche en intelligence artificielle