Scott Aaronson est un informaticien théoricien américain et titulaire de la Schlumberger Centennial Chair of Computer Science à l'université du Texas à Austin. Ses principaux domaines de recherche sont la théorie de la complexité informatique et l'informatique quantique.
L'intelligence artificielle (IA), dans son sens le plus large, est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis. Ces machines peuvent être appelées "IA".
Lors d'une allocution à la conférence South by Southwest qui s'est tenue à Austin, au Texas, le patron de Tesla et de Space X, Elon Musk, a réitéré ses avertissements concernant les dangers de l'intelligence artificielle. Il a notamment déclaré que l'intelligence artificielle est plus dangereuse que les ogives nucléaires et qu'il devrait exister un organisme de réglementation supervisant le développement de cette technologie.
« Je ne suis pas normalement un partisan de la réglementation et de la surveillance - je pense qu’on devrait généralement pécher par excès de minimisation de ces choses-là, mais il s’agit d’une situation où le public court un très grave danger », a prévenu Musk.
Lors d'une interview, Scott Aaronson a également partagé son point de vue sur le sujet :
Nous n'avons pas beaucoup d'exemples d'espèces ou de classes d'entités moins intelligentes contrôlant une espèce plus intelligente ou lui faisant exécuter ses ordres. Quelqu'un a dit qu'un exemple possible serait celui des chiens. Les chiens semblent avoir aligné les humains sur les intérêts des chiens.
On pourrait donc imaginer que dans le cas le plus optimiste, celui où les choses se passent bien, c'est nous qui pourrions être les chiens. Et peut-être que l'IA répondra à tous nos besoins et que, comme pour jouer à la balle, elle pourra même nous donner des problèmes à résoudre avec le bon niveau de difficulté, et nous pourrons ramener les réponses fièrement entre nos dents.
<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Scott Aaronson says an example of a less intelligent species controlling a more intelligent is dogs aligning humans to their needs and an optimistic outcome to an AI takeover could be where we get to be the dogs <a href="https://t.co/ihljt7zXTv">pic.twitter.com/ihljt7zXTv</a></p>— Tsarathustra (@tsarnick) <a href="https://twitter.com/tsarnick/status/1804325813669761214?ref_src=twsrc%5Etfw">June 22, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>
[/tweet]
Source : Scott Aaronson
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous le point de vue de M. Aaronson crédible ou pertinent ?
Voir aussi :
Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
« L'IA est susceptible d'être la cause d'une catastrophe de niveau nucléaire », d'après des chercheurs qui relancent le débat sur les dangers et les avantages de l'intelligence artificielle