IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Office américain des brevets et des marques interdit à son personnel d'utiliser l'IA générative,
L'organisation cite des raisons de fiabilité et de sécurité

Le , par Patrick Ruiz

77PARTAGES

5  0 
L’Office américain des brevets et des marques a interdit à son personnel de faire usage de l’intelligence artificielle générative. L’organisation n’est pas sur un îlot isolé étant donné que sa décision fait suite à celle de plusieurs autres. Le tableau ravive le débat sur les questions de fiabilité et de sécurité sur lesquelles des organisations s’appuient de plus en plus pour justifier l’interdiction de tels outils.

En dehors d’un environnement de test que l’USPTO met à la disposition de son personnel, ce dernier n’a pas le droit de s'appuyer sur des outils d'IA tels que ChatGPT d'OpenAI ou Claude d'Anthropic pour effectuer des tâches professionnelles. La note d'orientation y relative interdit en sus l'utilisation de tout résultat de ces outils, y compris les images et les vidéos générées par intelligence artificielle.

Toutefois, les employés de l'Office des brevets peuvent utiliser certains outils d'IA approuvés, tels que ceux de la base de données publique de l'agence pour la recherche de brevets enregistrés et de demandes de brevets. Au début de l'année, l'USPTO a approuvé un contrat de 75 millions de dollars avec Accenture Federal Services pour mettre à jour sa base de données de brevets avec des fonctions de recherche améliorées alimentées par intelligence artificielle.



Une ligne de code générée par intelligence artificielle a entraîné 10 000 dollars de perte : l’humain demeure indispensable au stade actuel de l’évolution de cette technologie

L’erreur de ChatGPT qui a coûté 10 000 dollars à une startup est un rappel que, malgré les avancées de l’IA, la vigilance humaine reste indispensable. Les outils d’IA sont puissants, mais ils ne remplacent pas le jugement critique et l’expertise des développeurs. En fin de compte, c’est la responsabilité des équipes humaines de s’assurer que la technologie qu’elles utilisent est sûre et fiable.

D'ailleurs, l'erreur ne saurait être imputable entièrement à ChatGPT : les développeurs auraient dû prendre la peine d'analyser le code au lieu de se limiter à quelques tests avant la copie. Ils semblent le reconnaitre lorsqu'ils déclarent :

« Je voudrais commencer par dire que les pratiques en question sont très mauvaises et embarrassantes (et nous avons depuis ajouté des tests unitaires et d'intégration robustes ainsi que des alertes et des enregistrements), qu'elles auraient pu et dû être évitées, qu'il s'agissait d'erreurs humaines au-delà de tout, et qu'elles sont très évidentes avec le recul.

« Cela s'est passé à une autre époque, avec d'importantes contraintes de temps, aux tout premiers stades (premières semaines) de la création d'une entreprise. Je partage surtout cette histoire comme une anecdote amusante avec des circonstances uniques entourant la reproductibilité des bogues en prod (encore une fois à cause de notre propre stupidité) ».

Quoi qu'il en soit, tout est bien qui finit bien : « Rétrospectivement, aussi pénibles qu'aient été ces cinq jours, c'est l'un de ces moments de la vie d'une startup que nous n'oublierons jamais. Comme toutes les startups, nous avons fait une tonne d'erreurs tout au long de notre parcours, celle-ci étant peut-être la pire. J'évoquerai peut-être les autres plus tard. Nous sommes simplement heureux de pouvoir regarder ces jours-là en arrière et d'en rire. Oui, nous aurions dû faire plus de tests. Oui, nous n'aurions pas dû copier-coller du code. Oui, nous n'aurions pas dû passer directement à l'application principale. Quoi qu'il en soit, je ne regrette pas cette expérience ».



De grosses questions de sécurité des données se posent quand on sait que certaines entreprises s’appuient sur des humains pour simuler l’intelligence artificielle

Lors de l’ouverture de l’Amazon Go Grocery, le premier supermarché automatisé et sans caissiers à Seattle, « Just Walk Out » avait fait l’objet de présentation en tant que « technologie d’achat la plus avancée au monde. » Bien que le service dans ces supermarchés semblait entièrement automatisé, il s'appuyait en fait sur plus de 1000 personnes en Inde qui regardent et étiquettent des vidéos pour assurer la facturation « automatique ». En d’autres termes, les caissiers étaient en réalité hors du site, et ils observaient les clients en train d’effectuer leurs achats. L’entreprise a conservé sa « technologie » dans un petit nombre de magasins Fresh au Royaume-Uni et l’a retiré de ces derniers aux USA.