IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google DeepMind présente des progrès dans la sécurité des robots d'IA avec une « constitution des robots »
Visant à garantir qu'ils ne représentent pas une menace mortelle

Le , par Bruno

5PARTAGES

8  0 
DeepMind, filiale de Google, présente des avancées significatives en matière de sécurité robotique, dévoilant une « constitution des robots » pour garantir le comportement sûr de ses intelligences artificielles. Le système de collecte de données AutoRT, intégrant des modèles de langage visuel et étendu, est conçu pour permettre aux robots d'appréhender leur environnement, de s'adapter à des situations inconnues et de prendre des décisions appropriées. Inspirée par les célèbres « Trois lois de la robotique » d'Isaac Asimov, cette constitution vise à établir des directives de sécurité claires pour les robots, les empêchant d'entreprendre des actions potentiellement dangereuses pour les humains et leur environnement.

Pour renforcer la sécurité, DeepMind a implanté des dispositifs permettant aux robots de s'arrêter automatiquement en cas de contrainte excessive sur leurs articulations, ainsi qu'un interrupteur physique pour une désactivation manuelle par les opérateurs humains. Les robots équipés des systèmes AutoRT ont été testés pendant sept mois dans divers environnements de bureau, effectuant plus de 77 000 essais, combinant des opérations télécommandées et autonomes.


Le projet de sécurité robotique dévoilé par DeepMind, soulève des questions cruciales sur la gestion éthique et sécuritaire de l'intelligence artificielle (IA) dans le domaine de la robotique. La mise en avant d'une « constitution des robots » montre un effort délibéré de la part de DeepMind pour aborder les préoccupations croissantes liées à la sécurité des robots autonomes.

Les robots alimentés par l'IA pourraient être dangereux pour les humains

Les robots alimentés par l'IA posent des questions cruciales quant à leur impact potentiel sur le monde. Les robots d'IA, équipés de technologies avancées telles que des capteurs, des caméras et des algorithmes d'apprentissage automatique, sont conçus pour effectuer diverses tâches, allant de la fabrication aux soins de santé, en passant par l'éducation et le divertissement. Leur capacité à apprendre et à s'adapter à leur environnement soulève des perspectives révolutionnaires dans divers secteurs.

Cependant, malgré les avantages potentiels, l'utilisation généralisée de robots d'IA soulève des préoccupations significatives. La possibilité de dommages physiques en cas de dysfonctionnement ou de mauvaise utilisation, le risque de déplacement d'emplois avec l'avancée de la technologie, les inquiétudes concernant la vie privée et la sécurité dues aux capteurs avancés, ainsi que les préoccupations liées aux biais et à la discrimination dans les algorithmes d'IA sont autant de points soulevés.

Pour garantir le développement et l'utilisation responsables de ces robots d'IA, la participation de parties prenantes variées, incluant des experts en éthique, en droit et en sciences sociales, est essentielle. L'établissement de réglementations et de lignes directrices claires est également nécessaire pour assurer une utilisation sûre et responsable de ces technologies émergentes.

Au-delà de ces considérations, une question émerge quant à la possibilité d'un lien émotionnel entre les êtres humains et les robots d'IA. Les études suggèrent de plus en plus que les humains peuvent établir des connexions émotionnelles avec ces robots, notamment en raison de leur capacité à simuler des comportements humains. Cependant, ces liens émotionnels soulèvent également des questions éthiques sur la manipulation potentielle des individus par les concepteurs ou les opérateurs des robots.

Bien que les robots d'IA offrent des avantages significatifs, leur adoption nécessite une approche réfléchie, tenant compte des risques potentiels et des implications éthiques associées.

Évaluation critique des initiatives d'AutoRT et de SARA-RT de DeepMind

L'utilisation d'un système de collecte de données, AutoRT, équipé de modèles de langage visuel et étendu, représente une avancée majeure dans la capacité des robots à comprendre et à s'adapter à des environnements inconnus. Cependant, bien que cette initiative démontre une préoccupation sérieuse pour la sécurité, des interrogations subsistent quant à la mise en œuvre concrète de ces directives dans des scénarios du monde réel. Les avancées technologiques, comme l'arrêt automatique en cas de contrainte excessive sur les articulations, ainsi que la désactivation manuelle par les opérateurs humains, sont certes des mesures rassurantes, mais la réelle efficacité de ces mécanismes dans des situations complexes reste à être évaluée.

Les robots utilisent une architecture de réseau neuronal améliorée, SARA-RT, pour optimiser la précision et la vitesse du modèle d'apprentissage RT-2. En outre, RT-Trajectory ajoute des contours en 2D pour améliorer la réalisation de tâches physiques spécifiques. Bien que ces avancées ne permettent pas encore des robots totalement autonomes pour des tâches complexes, elles représentent une étape cruciale vers un avenir où les robots pourraient bénéficier de l'apprentissage du système AutoRT.

Alors que la Robot Constitution vise à établir des limites, elle soulève également des questions sur la définition de ces limites et sur la responsabilité en cas de défaillance du système. Dans un monde où l'IA devient de plus en plus omniprésente, il est impératif de trouver un équilibre entre l'innovation technologique et la sécurité, tout en respectant les principes éthiques fondamentaux.

Le système de collecte de données de Google, AutoRT, peut utiliser un modèle de langage visuel (VLM) et un modèle de langage étendu (LLM) fonctionnant main dans la main pour comprendre son environnement, s'adapter à des environnements inconnus et décider des tâches appropriées. La Constitution du robot, qui s'inspire des « Trois lois de la robotique » d'Isaac Asimov, est décrite comme un ensemble d'« invites axées sur la sécurité » indiquant au LLM d'éviter de choisir des tâches impliquant des humains, des animaux, des objets tranchants et même des appareils électriques.

Pour plus de sécurité, DeepMind a programmé les robots pour qu'ils s'arrêtent automatiquement si la force exercée sur leurs articulations dépasse un certain seuil, et les a dotés d'un interrupteur physique que les opérateurs humains peuvent utiliser pour les désactiver. Pendant sept mois, Google a déployé une flotte de 53 robots AutoRT dans quatre immeubles de bureaux différents et a effectué plus de 77 000 essais. Certains robots étaient contrôlés à distance par des opérateurs humains, tandis que d'autres fonctionnaient soit sur la base d'un script, soit de manière totalement autonome en utilisant le modèle d'apprentissage de l'IA Robotic Transformer (RT-2) de Google.


  1. Un robot autonome sur roues trouve un emplacement avec plusieurs objets ;
  2. Un VLM décrit la scène et les objets à un LLM ;
  3. Un LLM suggère diverses tâches de manipulation pour le robot et décide quelles tâches le robot pourrait effectuer sans assistance, lesquelles nécessiteraient un contrôle à distance par un humain, et lesquelles sont impossibles, avant de faire un choix ;
  4. La tâche choisie est tentée, les données expérimentales sont collectées et les données sont notées pour leur diversité/nouveauté. (Répétition).

Les protocoles de sécurité à plusieurs niveaux sont essentiels

AutoRT est un système de collecte de données. Selon DeepMinf, il s'agit également d'une première démonstration de robots autonomes pour une utilisation dans le monde réel. Il comporte des garde-fous en matière de sécurité, dont l'un consiste à fournir à son décideur basé sur le LLM une Constitution du robot - un ensemble d'invites axées sur la sécurité à respecter lors de la sélection des tâches à confier aux robots.

Comme dit précédemment, ces règles s'inspirent en partie des trois lois de la robotique d'Isaac Asimov, dont la première et la plus importante est qu'un robot « ne doit pas blesser un être humain ». D'autres règles de sécurité exigent qu'aucun robot n'entreprenne de tâches impliquant des êtres humains, des animaux, des objets tranchants ou des appareils électriques.

Cependant, même si les grands modèles sont correctement guidés par l'autocritique, cela ne suffit pas à garantir la sécurité. Le système AutoRT comprend donc des couches de mesures de sécurité pratiques issues de la robotique classique. Par exemple, les robots collaboratifs sont programmés pour s'arrêter automatiquement si la force exercée sur leurs articulations dépasse un seuil donné, et tous les robots actifs sont maintenus dans la ligne de mire d'un superviseur humain disposant d'un interrupteur de désactivation physique.

SARA-RT : rendre les robots transformateurs plus légers et plus rapides

Le système Self-Adaptive Robust Attention for Robotics Transformers (SARA-RT), convertit les modèles de transformateurs robotiques (RT) en versions plus efficaces. L'architecture du réseau neuronal RT développée par l'équipe DeepMind est utilisée dans les systèmes de contrôle robotique, y compris le modèle RT-2. Les modèles SARA-RT-2 seraient 10,6 % plus précis et 14 % plus rapides que les modèles RT-2 après avoir reçu un bref historique d'images. « Nous pensons qu'il s'agit du premier mécanisme d'attention évolutif qui apporte des améliorations de calcul sans perte de qualité », L'équipe de robotique de Google DeepMind.

Bien que les transformateurs soient puissants, ils peuvent être limités par des exigences de calcul qui ralentissent leur prise de décision. Les transformateurs s'appuient essentiellement sur des modules d'attention de complexité quadratique. Cela signifie que si les données d'entrée d'un modèle RT doublent - en dotant un robot de capteurs supplémentaires ou à plus haute résolution, par exemple - les ressources informatiques requises pour traiter ces données sont multipliées par quatre, ce qui peut ralentir la prise de décision.

SARA-RT utilise une nouvelle méthode d'ajustement du modèle appelé up-training. Cette méthode convertit la complexité quadratique en une simple complexité linéaire, ce qui réduit considérablement les besoins de calcul. Cette conversion permet non seulement d'augmenter la vitesse du modèle original, mais aussi d'en préserver la qualité.

Les progrès réalisés dans le domaine des robots d'IA, exemplifiés par l'initiative de Google DeepMind avec sa « constitution des robots », suscitent à la fois un sentiment d'optimisme et des préoccupations. D'un côté, l'introduction de normes de sécurité et de directives inspirées des "Trois lois de la robotique" d'Isaac Asimov représente une réponse proactive aux inquiétudes grandissantes liées aux risques potentiels des intelligences artificielles. Cette démarche témoigne d'une reconnaissance de la nécessité de réglementer et de garantir la sécurité des robots d'IA, marquant ainsi une avancée positive dans le développement de cette technologie.


Cependant, des interrogations persistent quant à la concrétisation effective de ces garanties. La complexité de la réalité des situations réelles peut rendre difficile l'application rigide de principes, même bien intentionnés. L'évolution rapide de la technologie et la possibilité de scénarios inattendus pourraient mettre à l'épreuve l'efficacité des dispositifs de sécurité. Il est impératif que les garanties stipulées dans la « constitution des robots » de Google DeepMind fassent l'objet de tests approfondis et d'ajustements pour assurer leur validité dans divers contextes.

Par ailleurs, l'implication de Google soulève des inquiétudes quant à la responsabilité et à l'éthique, étant donné son statut d'entreprise de premier plan. La puissance de l'IA et des robots dans notre société exige une surveillance et une transparence accrues de la part des entreprises qui les développent. La garantie de la démarche de Google DeepMind nécessite ainsi une surveillance indépendante et la participation active de divers intervenants, notamment des experts en éthique et des représentants de la société civile.

Source : Google DeepMind

Et vous ?

Quel est votre avis sur le sujet ?

Quels sont les risques potentiels liés à l'utilisation croissante des robots d'IA dans des environnements professionnels et quotidiens ?

Quels sont les scénarios de dysfonctionnement des robots d'IA qui suscitent le plus d'inquiétude chez vous ?

Quelles responsabilités les entreprises comme Google DeepMind devraient-elles avoir en termes de surveillance indépendante et de transparence concernant le développement de robots d'IA ?

Quelles seraient les limites et les ambiguïtés potentielles dans la « constitution des robots » de Google DeepMind ?

Voir aussi :

Le Massachusetts propose un projet de loi qui vise à interdire le montage d'armes à feu sur les robots, mais il fait l'objet de critiques en raison des exemptions prévues pour l'armée et la police

L'armée américaine veut créer des robots lourds semi-autonomes armés de missiles, pour accomplir certaines des tâches les plus dangereuses des soldats

Google DeepMind présente RT-X : un modèle d'IA généraliste pour aider à faire progresser la façon dont les robots peuvent apprendre de nouvelles compétences

Une erreur dans cette actualité ? Signalez-nous-la !