L'étude de la société de gestion de la chaîne d'approvisionnement logicielle Sonatype montre que 45 % des responsables SecOps ont déjà mis en œuvre l'IA générative dans le processus de développement logiciel, contre seulement 31 % pour les DevOps.
Cela peut s'expliquer par le fait que les responsables SecOps constatent des gains de temps plus importants que leurs homologues DevOps, 57 % d'entre eux déclarant que l'IA générative leur permet d'économiser au moins six heures par semaine, contre seulement 31 % des répondants DevOps.
Interrogés sur les impacts les plus positifs de cette technologie, les responsables DevOps font état d'un développement logiciel plus rapide (16 %) et d'un logiciel plus sûr (15 %). Les responsables SecOps citent l'augmentation de la productivité (21 %) et l'identification/résolution plus rapide des problèmes (16 %) comme leurs principaux avantages.
En revanche, plus des trois quarts des responsables DevOps estiment que l'utilisation de l'IA générative entraînera une augmentation des vulnérabilités dans le code source ouvert. Il est peut-être surprenant de constater que les responsables SecOps sont moins inquiets (58 %). Par ailleurs, 42 % des répondants DevOps et 40 % des responsables SecOps affirment que l'absence de réglementation pourrait dissuader les développeurs de contribuer à des projets open source.
Les responsables des deux domaines souhaitent davantage de réglementation. À la question de savoir qui, selon eux, est responsable de la réglementation de l'utilisation de l'IA générative, 59 % des responsables DevOps et 78 % des responsables SecOps déclarent que le gouvernement et les entreprises individuelles devraient être responsables de la réglementation.
"L'ère de l'IA ressemble aux premiers jours de l'open source, comme si nous construisions l'avion au fur et à mesure que nous le pilotons en termes de sécurité, de politique et de réglementation", déclare Brian Fox, cofondateur et directeur technique de Sonatype. "L'adoption a été généralisée, et le cycle de développement des logiciels ne fait pas exception. Si les dividendes de la productivité sont évidents, nos données révèlent également une réalité préoccupante et indissociable : les menaces de sécurité posées par cette technologie encore naissante. Chaque cycle d'innovation s'accompagne de nouveaux risques, et il est primordial que les développeurs et les responsables de la sécurité des applications envisagent l'adoption de l'IA en tenant compte de la sûreté et de la sécurité."
La question des licences et de la rémunération des contenus générés par l'IA est également préoccupante. Notamment, les décisions contre la protection du droit d'auteur pour les œuvres d'art générées par l'IA ont déjà suscité un débat sur la quantité d'apport humain nécessaire pour répondre à ce que la loi actuelle définit comme une véritable paternité de l'œuvre. Les personnes interrogées sont d'accord pour dire que les créateurs devraient détenir les droits d'auteur sur les résultats générés par l'IA en l'absence de loi sur les droits d'auteur (40 %), et les deux groupes sont massivement d'accord pour dire que les développeurs devraient être indemnisés pour le code qu'ils ont écrit s'il est utilisé dans des artefacts open source dans les LLM.
Source : Sonatype
Et vous ?
Quelle lecture faites-vous de cette situation ?
Trouvez-vous que les conclusions de cette étude de Sonatype sont crédibles et pertinentes ?
Qu'en est-il au sein de votre organisation ?
Voir aussi
92 % des développeurs utiliseraient des outils d'intelligence artificielle, selon une enquête de GitHub auprès des développeurs
L'intelligence artificielle générative boosterait la productivité des travailleurs de 14 %, selon une étude menée par l'Université de Stanford
34 % des développeurs d'applications utiliseraient désormais l'IA, d'après Sensor Tower
L'IA va-t-elle éliminer des emplois, en particulier pour les développeurs ? Non, selon une enquête qui estime que l'intelligence artificielle pourrait créer plus d'emplois qu'elle n'en supprime