Ceci étant dit, il est important de noter qu'Altman a mentionné quelques domaines clés dans lesquels l'IA pourrait s'avérer problématique. Tout d'abord, M. Altman craint que des régimes autoritaires ne finissent par créer leur propre IA et ne s'empressent de l'utiliser pour diffuser de la désinformation et des fausses nouvelles à leurs propres fins néfastes.
Une société chinoise du nom de Baidu a déjà présenté un concurrent de ChatGPT, à savoir le chatbot connu sous le nom d'Ernie. Le gouvernement chinois est connu pour exercer un contrôle important sur les entreprises qui opèrent à l'intérieur de ses frontières, ce qui pourrait rendre Ernie plus dangereux.
De plus, Vladimir Poutine a également fait des commentaires effrayants sur l'IA. Selon lui, celui qui contrôlera l'IA finira par contrôler le monde, ce qui fait froid dans le dos car c'est le genre de chose qui pourrait potentiellement déclencher une nouvelle course à l'armement avec l'IA au centre de tout cela.
Enfin, M. Altman s'intéresse à l'élection présidentielle américaine de 2024, car le ChatGPT et d'autres formes d'IA pourraient avoir de nombreuses répercussions sur l'élection. Il reste à voir si l'IA jouera un rôle négatif ou non, mais ce qui est certain, c'est qu'elle jouera un rôle définitif dans un cas comme dans l'autre.
Google et Microsoft augmentent leurs investissements dans l'IA. L'IA est donc inévitable, puisqu'elle sera l'objectif principal de deux des plus grandes entreprises technologiques du monde et qu'aucune d'entre elles ne s'arrêtera avant d'être arrivée en tête.
Source : Sam Altman
Et vous ?
Qu'en pensez-vous ?
Quel est votre avis sur l'évolution actuelle de l'intelligence artificielle ?
Etes-vous inquiet des effets néfastes que pourraient générer les technologies d'IA comme ChatGPT ?
Voir aussi :
Le PDG d'OpenAI craint que les autres développeurs d'IA qui travaillent sur des outils de type ChatGPT ne mettent pas de limites de sécurité, il estime que cela pourrait créer une IA plus diabolique
GPT-4 produirait volontairement des informations erronées, beaucoup plus que GPT-3.5, selon une étude de NewsGuard, OpenAI avait pourtant déclaré le contraire
Des cybercriminels testent le chatbot ChatGPT pour créer des logiciels malveillants, et ravivent des craintes sur un futur où l'intelligence artificielle pourra surpasser l'humanité