IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Texas commence à examiner l'impact potentiel de l'utilisation de l'IA dans son gouvernement.
Plus d'un tiers des agences publiques au Texas utilisent déjà une forme d'IA, selon un rapport du DIR

Le , par Stéphane le calme

10PARTAGES

5  0 
Le Texas commence à examiner l'impact potentiel de l'utilisation de l'IA dans son gouvernement.
Plus d'un tiers des agences publiques au Texas utilisent déjà une forme d’IA, selon un rapport du Département des ressources d’information (DIR) du Texas

Face aux craintes que l’IA puisse accroître les préjugés ou affecter la vie privée, l’État forme un comité consultatif pour recommander la manière dont la technologie est déployée. « Il va falloir établir des règles », a déclaré le fondateur du comité.

Lorsque la Texas Workforce Commission a été inondée de demandes d’allocations de chômage en mars 2020, elle s’est tournée vers l’intelligence artificielle.

Affectueusement nommé en l'honneur de l'ancien directeur de l'agence, Larry Temple, décédé un an plus tôt, le chatbot « Larry » a été conçu pour aider les Texans à s'inscrire aux allocations de chômage.

À l'instar d'une page FAQ de nouvelle génération, Larry répondrait aux questions générées par les utilisateurs sur les cas de chômage. À l’aide du traitement de langage de l’IA, le chatbot déterminerait quelle réponse pré-écrite par le personnel humain correspondrait le mieux à la formulation unique de la question par l’utilisateur. Le chatbot a répondu à plus de 21 millions de questions avant d'être remplacé par Larry 2.0 en mars dernier.

Larry est un exemple de la manière dont l’intelligence artificielle a été utilisée par les agences d’État. L'adaptation de la technologie au sein du gouvernement des États s'est développée ces dernières années. Mais cette accélération a également fait craindre des conséquences imprévues telles que des préjugés, une perte de confidentialité ou une perte de contrôle de la technologie. Cette année, le Parlement s’est engagé à jouer un rôle plus actif dans la surveillance de la manière dont l’État utilise l’IA.

« Cela va révolutionner totalement notre façon de gouverner », a déclaré le représentant de l'État Giovanni Capriglione, Républicain de Southlake, qui a rédigé un projet de loi visant à aider l'État à mieux utiliser la technologie de l'IA.

La création d'un conseil consultatif sur l'IA

En juin 2023, le gouverneur du Texas, Greg Abbott, a signé une loi créant un conseil consultatif sur l'intelligence artificielle, chargé de surveiller le développement, l'achat et l'utilisation de la technologie de l'IA au sein du gouvernement de l'État.

Créé par le projet de loi HB 2060, le conseil sera composé de sept membres et va évaluer la nécessité d'un code d'éthique national pour l'IA au sein du gouvernement de l'État, examiner les systèmes de décision automatisés, évaluer les avantages et les risques et recommander des mesures administratives. Le projet de loi demande que les membres du comité soient issus du monde universitaire, des forces de l’ordre et du domaine juridique.

Amanda Crawford, directrice de l'information de l'État et directrice du Département des ressources informationnelles, ou sa déléguée, fera également partie du conseil.

« Alors que l'IA devient de plus en plus répandue en tant qu'outil révolutionnaire dans nos vies et au sein de notre main-d'œuvre, nous devons garantir que cette technologie est développée de manière responsable et éthique au Texas pour contribuer à stimuler l'économie en croissance de notre État », a déclaré le gouverneur Abbott. « Pour protéger la vie privée et les libertés civiles fondamentales des Texans, j'ai signé une loi créant le Conseil consultatif sur l'intelligence artificielle pour étudier et surveiller les systèmes d'intelligence artificielle développés ou utilisés par nos agences d'État. Le Conseil contribuera à consolider la position du Texas en tant que leader national en matière de technologie innovante, en garantissant que notre État continue de concevoir et d’utiliser la technologie d’IA la plus récente et la plus performante tout en donnant la priorité à la sécurité de tous les Texans ».


Plus d'un tiers des agences de l'État du Texas utilisent déjà une forme d'intelligence artificielle

L'intelligence artificielle décrit une classe de technologie qui émule et s'appuie sur le raisonnement humain via des systèmes informatiques. Le chatbot utilise le traitement du langage pour comprendre les questions des utilisateurs et les faire correspondre à des réponses prédéterminées. Les nouveaux outils tels que ChatGPT sont classés comme IA générative car la technologie génère une réponse unique basée sur une invite de l'utilisateur. L’IA est également capable d’analyser de grands ensembles de données et d’utiliser ces informations pour automatiser des tâches auparavant effectuées par des humains. La prise de décision automatisée est au centre de HB 2060.

Plus d’un tiers des agences de l’État du Texas utilisent déjà une forme d’intelligence artificielle, selon un rapport de 2022 du Département des ressources d’information du Texas. La commission de l'emploi dispose également d'un outil d'IA pour les demandeurs d'emploi qui fournit des recommandations personnalisées sur les offres d'emploi. Diverses agences utilisent l'IA pour traduire des langues vers l'anglais et des outils de centres d'appels tels que la synthèse vocale. L’IA est également utilisée pour améliorer la cybersécurité et la détection des fraudes.

L'automatisation est également utilisée pour les travaux chronophages afin « d'augmenter le rendement et l'efficacité du travail », selon un communiqué du Département des ressources informationnelles (DIR). Un exemple de ceci pourrait être le suivi des dépenses budgétaires et des factures. En 2020, le DIR a lancé un centre d'excellence en IA visant à aider les agences publiques à mettre en œuvre davantage de technologies d'IA. La participation au centre du DIR est volontaire et chaque agence dispose généralement de sa propre équipe technologique, de sorte que l’étendue de l’automatisation et du déploiement de l’IA dans les agences publiques n’est pas suivie de près.

À l’heure actuelle, les agences de l’État du Texas doivent vérifier que la technologie qu’elles utilisent répond aux exigences de sécurité fixées par la loi de l’État, mais il n’existe aucune exigence spécifique en matière de divulgation sur les types de technologies ou la manière dont elles sont utilisées. HB 2060 exigera que chaque agence fournisse ces informations au conseil consultatif sur l’IA d’ici juillet 2024.


Des inquiétudes au sujet des hallucinations de l'IA, d'un renforcement des biais...

« Nous voulons que les agences soient créatives », a déclaré Capriglione. Il est favorable à la recherche de davantage de cas d’utilisation de l’IA qui vont bien au-delà des chatbots, mais reconnaît qu’il existe des inquiétudes concernant la mauvaise qualité des données qui empêchent le système de fonctionner comme prévu : « Nous allons devoir définir certaines règles. »

À mesure que l’adoption de l’IA s’est développée, les inquiétudes concernant l’éthique et la fonctionnalité de la technologie ont également augmenté. Le conseil consultatif sur l’IA constitue la première étape vers la surveillance de la manière dont la technologie est déployée. Le conseil, composé de sept membres, comprendra un membre de la Chambre des représentants et du Sénat, un directeur exécutif et quatre personnes nommées par le gouverneur et possédant une expertise en matière d'IA, d'éthique, d'application de la loi et de droit constitutionnel.

Samantha Shorey est professeure adjointe à l'Université du Texas à Austin et a étudié les implications sociales de l'intelligence artificielle, en particulier celle conçue pour une automatisation accrue. Elle craint que si la technologie est habilitée à prendre davantage de décisions, elle risque de reproduire et d’exacerber les inégalités sociales : « Cela pourrait nous amener plus rapidement vers l’objectif final. Mais est-ce que cela nous amène vers un objectif final que nous souhaitons ? »

Les partisans d’une utilisation accrue de l’IA considèrent l’automatisation comme un moyen de rendre le travail du gouvernement plus efficace. L’exploitation des dernières technologies pourrait contribuer à accélérer la gestion des dossiers pour les services sociaux, à fournir des résumés immédiats de longues analyses politiques ou à rationaliser le processus d’embauche et de formation des nouveaux employés du gouvernement.

Cependant, Shorey se montre prudent quant à la possibilité que l'intelligence artificielle soit introduite dans les processus décisionnels, tels que la détermination des personnes éligibles aux prestations sociales ou la durée de la libération conditionnelle d'une personne. Plus tôt cette année, le ministère américain de la Justice a commencé à enquêter sur des allégations selon lesquelles le modèle d’IA d’un comté de Pennsylvanie destiné à contribuer à améliorer la protection de l’enfance était discriminatoire à l’égard des parents handicapés et entraînait le retrait de leurs enfants.

Les systèmes d’IA « ont tendance à absorber les biais présents dans les données passées », a déclaré Suresh Venkatasubramanian, directeur du Center for Technology Responsibility de l’Université Brown. L’intelligence artificielle formée sur des données incluant tout type de préjugé sexiste, religieux, racial ou...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !