IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'Office américain des brevets et des marques interdit à son personnel d'utiliser l'IA générative,
L'organisation cite des raisons de fiabilité et de sécurité

Le , par Patrick Ruiz

6PARTAGES

5  0 
L’Office américain des brevets et des marques a interdit à son personnel de faire usage de l’intelligence artificielle générative. L’organisation n’est pas sur un îlot isolé étant donné que sa décision fait suite à celle de plusieurs autres. Le tableau ravive le débat sur les questions de fiabilité et de sécurité sur lesquelles des organisations s’appuient de plus en plus pour justifier l’interdiction de tels outils.

En dehors d’un environnement de test que l’USPTO met à la disposition de son personnel, ce dernier n’a pas le droit de s'appuyer sur des outils d'IA tels que ChatGPT d'OpenAI ou Claude d'Anthropic pour effectuer des tâches professionnelles. La note d'orientation y relative interdit en sus l'utilisation de tout résultat de ces outils, y compris les images et les vidéos générées par intelligence artificielle.

Toutefois, les employés de l'Office des brevets peuvent utiliser certains outils d'IA approuvés, tels que ceux de la base de données publique de l'agence pour la recherche de brevets enregistrés et de demandes de brevets. Au début de l'année, l'USPTO a approuvé un contrat de 75 millions de dollars avec Accenture Federal Services pour mettre à jour sa base de données de brevets avec des fonctions de recherche améliorées alimentées par intelligence artificielle.



Une ligne de code générée par intelligence artificielle a entraîné 10 000 dollars de perte : l’humain demeure indispensable au stade actuel de l’évolution de cette technologie

L’erreur de ChatGPT qui a coûté 10 000 dollars à une startup est un rappel que, malgré les avancées de l’IA, la vigilance humaine reste indispensable. Les outils d’IA sont puissants, mais ils ne remplacent pas le jugement critique et l’expertise des développeurs. En fin de compte, c’est la responsabilité des équipes humaines de s’assurer que la technologie qu’elles utilisent est sûre et fiable.

D'ailleurs, l'erreur ne saurait être imputable entièrement à ChatGPT : les développeurs auraient dû prendre la peine d'analyser le code au lieu de se limiter à quelques tests avant la copie. Ils semblent le reconnaitre lorsqu'ils déclarent :

« Je voudrais commencer par dire que les pratiques en question sont très mauvaises et embarrassantes (et nous avons depuis ajouté des tests unitaires et d'intégration robustes ainsi que des alertes et des enregistrements), qu'elles auraient pu et dû être évitées, qu'il s'agissait d'erreurs humaines au-delà de tout, et qu'elles sont très évidentes avec le recul.

« Cela s'est passé à une autre époque, avec d'importantes contraintes de temps, aux tout premiers stades (premières semaines) de la création d'une entreprise. Je partage surtout cette histoire comme une anecdote amusante avec des circonstances uniques entourant la reproductibilité des bogues en prod (encore une fois à cause de notre propre stupidité) ».

Quoi qu'il en soit, tout est bien qui finit bien : « Rétrospectivement, aussi pénibles qu'aient été ces cinq jours, c'est l'un de ces moments de la vie d'une startup que nous n'oublierons jamais. Comme toutes les startups, nous avons fait une tonne d'erreurs tout au long de notre parcours, celle-ci étant peut-être la pire. J'évoquerai peut-être les autres plus tard. Nous sommes simplement heureux de pouvoir regarder ces jours-là en arrière et d'en rire. Oui, nous aurions dû faire plus de tests. Oui, nous n'aurions pas dû copier-coller du code. Oui, nous n'aurions pas dû passer directement à l'application principale. Quoi qu'il en soit, je ne regrette pas cette expérience ».



De grosses questions de sécurité des données se posent quand on sait que certaines entreprises s’appuient sur des humains pour simuler l’intelligence artificielle

Lors de l’ouverture de l’Amazon Go Grocery, le premier supermarché automatisé et sans caissiers à Seattle, « Just Walk Out » avait fait l’objet de présentation en tant que « technologie d’achat la plus avancée au monde. » Bien que le service dans ces supermarchés semblait entièrement automatisé, il s'appuyait en fait sur plus de 1000 personnes en Inde qui regardent et étiquettent des vidéos pour assurer la facturation « automatique ». En d’autres termes, les caissiers étaient en réalité hors du site, et ils observaient les clients en train d’effectuer leurs achats. L’entreprise a conservé sa « technologie » dans un petit nombre de magasins Fresh au Royaume-Uni et l’a retiré de ces derniers aux USA.



Just Walk Out d’Amazon n’est pas sans faire penser au canular du Turc mécanique

Le Turc mécanique ou l’automate joueur d'échecs est un célèbre canular construit à la fin du XVIIIe siècle : il s’agissait d'un prétendu automate doté de la faculté de jouer aux échecs. L’automate était prétendument capable de jouer une partie d’échecs contre un adversaire humain. Mais en réalité, il possédait un compartiment secret dans lequel un joueur humain pouvait se glisser. Pendant 84 ans, et grâce au talent des joueurs cachés, le Turc mécanique put remporter la plupart des parties d'échecs auxquelles il participa en Europe et en Amérique, y compris contre certains hommes d'État tels que Napoléon Bonaparte, Catherine II de Russie et Benjamin Franklin.

Plus de deux siècles plus tard, il apparaît que ce même leurre fonctionne toujours. Et pour cause, il est difficile de concevoir un service propulsé par une intelligence artificielle. Une tâche si difficile que certaines startups se sont résolues de se tourner vers des humains et les faire passer pour des robots plutôt que le contraire.

« Utiliser un humain pour faire le travail vous permet d’outrepasser une panoplie d’enjeux de développement d’ordre technique et commercial. Il n’y a pas de scalabilité, bien évidemment, mais cela vous permet de créer quelque chose et sauter très tôt la partie difficile, » a dit Gregory Koberger, PDG de ReadMe, qui dit avoir tombé sur beaucoup de “pseudo-IA”. « Il s’agit essentiellement d’un prototypage de l’IA avec des êtres humains, » dit-il.

Cette pratique a été mise à la lumière du jour après la publication d’un article du Wall Street Journal informant que des centaines de développeurs tiers bénéficient de l’accès aux emails avec l’autorisation de Google.

Dans le cas de la société Edison Software, des ingénieurs d’IA ont scanné les emails personnels de centaines d’utilisateurs (avec leurs identités éditées) pour améliorer une fonctionnalité de « réponses intelligentes ». L’entreprise n’a pas indiqué dans sa politique de confidentialité que des employés humains ont accès aux emails des utilisateurs.

Ce n’est pas la première fois qu’une telle chose arrive. En 2008, Spinvox, une entreprise qui convertissait les messages vocaux en messages textes, a été accusée de recourir à des employés humains étrangers dans des centres d’appel au lieu de machines pour faire le travail.

En 2016, une autre entreprise relevée par Bloomberg cette fois a obligé des employés à passer 12 heures par jour à prétendre qu’ils sont des chatbots pour des services d’agenda comme X.ai et Clara. Ce travail a été si contraignant que les employés ont dit qu’ils avaient hâte de voir une IA venir les remplacer.

En 2017, l’application de gestion de dépenses Expensify a admis avoir employé des humains pour transcrire au moins quelques-uns des reçus supposés être analysés par sa “technologie smartscreen”. L’entreprise a utilisé le service de travail collaboratif Mechanical Turk d’Amazon, où des travailleurs faiblement rémunérés ont dû lire et transcrire les reçus.

« Je me demande si les utilisateurs de SmartScan d’Expensify savent que des travailleurs dans MTurk entrent leurs reçus, » a dit Rochelle LaPlante, une “Turker” et une partisane des travailleurs de la “gig economy” sur Twitter. « Je suis en train de voir le reçu Uber de quelqu’un avec son nom complet, et les adresses de départ et d’arrivée. »

Même Facebook, qui a investi massivement dans l’IA, a eu recours à des employés humains pour son assistant virtuel sur Messenger.

Dans certains cas, certaines entreprises font appel à des humains pour entraîner le système IA et améliorer sa précision. Une entreprise appelée Scale offre une banque de travailleurs humains pour fournir des données d’entrainement aux voitures autonomes et les autres systèmes propulsés par l’IA. Ces employés vont, par exemple, jeter un coup d’œil sur un flux d’une caméra ou un capteur et les marques de voiture, les piétons et les cyclistes dans une image. Avec assez de calibrage humain, l’IA apprend à reconnaître ces objets, seule.

Dans d’autres cas, les entreprises vont juste faire semblant d’avoir une IA prête, en informant les investisseurs et les utilisateurs qu’ils ont réussi à développer une technologie scalable alors que le travail est réalisé secrètement par des humains.

Alison Darcy, une psychologue et fondatrice de Woebot, un chatbot de support pour la santé mentale, décrit ceci comme « la technique de design du magicien d’Oz ».

« Vous simulez ce que va être l’expérience ultime. Et beaucoup de temps, lorsqu’il s’agit d’IA, il y a une personne derrière les rideaux au lieu d’un algorithme, » dit-elle. Créer un bon système IA requiert « beaucoup de données » et des fois, les développeurs ont besoin de savoir s’il y a une demande suffisante pour un service avant de se lancer dans un investissement.

Cette approche n’a pas été appropriée pour le développement d’un chatbot de support psychologique comme Woebot.

« En tant que psychologues, nous sommes guidés par un code d’éthique. Ne pas leurrer les gens est très clairement l’un de ces principes d’éthique. »

Des études ont montré que les gens ont tendance à divulguer plus de détails quand ils pensent qu’ils parlent à une machine, au lieu d’une personne, à cause de la honte associée au fait de chercher de l’aide pour la santé mentale.

Une équipe de l’Université de Southern California a testé ceci avec une thérapeute virtuelle appelée Ellie. Ils ont trouvé que les vétérans souffrant de stress post-traumatique sont plus susceptibles de divulguer leurs symptômes quand ils ont su qu’Ellie a été un système IA au lieu d’une machine téléguidée par un humain.



Et vous ?

Que pensez-vous de l'interdiction de l'IA générative par les entreprises ? Partagez-vous les avis selon lesquels le stade actuel d’évolution impose d’éviter leur utilisation en production ?
Partagez votre expérience avec les outils d’IA générative en tant que développeur : points forts et faibles desdits outils.

Voir aussi :

Découvrir les attaques par courrier électronique générées par l'IA : exemples réels de 2023, découvrez comment les pirates utilisent l'IA générative pour contourner la sécurité et tromper les employés

52 % des membres de conseils d'administration français considèrent l'IA générative comme un risque pour la sécurité de l'entreprise, pour 84 % d'entre eux, la cybersécurité est une priorité

Les développeurs et les responsables de la sécurité des applications se tournent vers l'IA générative, malgré les risques de sécurité identifiés, selon une étude de Sonatype

Une erreur dans cette actualité ? Signalez-nous-la !