Du rapport de CheckPoint, il ressort que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. Cette intelligence artificielle peut aussi produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme rapporte en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint rapporte que cette ChatGPT ouvre ces possibilités à des individus avec de très faibles connaissances techniques.
La publication de CheckPoint est en phase avec celle de Matt Welsh de la startup Fixie.ai qui prédit que l’utilisation de l’intelligence artificielle est de nature à ouvrir la filière à tous : « L’on n’aura plus besoin d’être un expert en programmation informatique pour obtenir quelque chose d’utile d’une intelligence artificielle. »
Matt Welsh dépeint un futur dans lequel la filière informatique va passer de l’approche d’écriture des programmes informatique par des humains à celle de la mise à contribution d’agents d’intelligence artificielle au préalable entraînés pour remplacer les humains dans des activités comme le développement d’applications informatique. Le tableau ravive ainsi des craintes sur la perspective de voir l’intelligence artificielle surpasser les humains.
En effet, lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : celui des tiers qui pensent qu’il s’agit d’un outil, ce, sans plus et celui des intervenants et observateurs qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine. En effet, des équipes de recherche comme celle d’OpenAI (qui développe ChatGPT) sont lancées sur l’atteinte de l’objectif intelligence artificielle générale (AGI).
Si l’on se réfère à des retours de scientifiques œuvrant dans le domaine, l’AGI pourrait nous tomber dessus dans 5 à 10 ans. Les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
L’intelligence artificielle pourrait alors agir en toute autonomie pour se dresser contre l’humanité. C’est d’ailleurs pour cela que Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. L’idée : augmenter les capacités de l’homme par l’intelligence artificielle pour faire face aux robots comme on en a vu dans des films comme Terminator.
Source : CheckPoint
Et vous ?
Intelligence artificielle : menace ou outil ? De quel bord êtes-vous ?
Que pensez-vous des progrès de l’intelligence artificielle et de la possibilité de déboucher sur l’intelligence artificielle générale ?
Comment entrevoyez-vous le rapport entre les humains et l'intelligence artificielle dans les 5 à 10 années à venir ? Dan les 50 à 100 années à venir ?
Quel crédit accordez-vous à des prédictions comme celle de Matt Welsh ? Les travailleurs de la filière programmation doivent-ils déjà penser à d'éventuelles reconversions en raison de la menace que l'IA constitue pour leurs postes ?
Voir aussi :
80 % des technologies pourraient être créées par des professionnels extérieurs à l'informatique d'ici 2024, grâce aux outils low-code, selon Gartner
Forrester : l'utilisation des plateformes de développement low-code gagne du terrain dans les processus de transformation numérique des entreprises
Le marché mondial des technologies de développement low-code va augmenter de 23 % en 2021, selon les prévisions de Gartner
Microsoft lance Power Fx, un nouveau langage de programmation low-code open source basé sur Excel