IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google DeepMind présente des progrès dans la sécurité des robots d'IA avec une « constitution des robots »
Visant à garantir qu'ils ne représentent pas une menace mortelle

Le , par Bruno

96PARTAGES

8  0 
DeepMind, filiale de Google, présente des avancées significatives en matière de sécurité robotique, dévoilant une « constitution des robots » pour garantir le comportement sûr de ses intelligences artificielles. Le système de collecte de données AutoRT, intégrant des modèles de langage visuel et étendu, est conçu pour permettre aux robots d'appréhender leur environnement, de s'adapter à des situations inconnues et de prendre des décisions appropriées. Inspirée par les célèbres « Trois lois de la robotique » d'Isaac Asimov, cette constitution vise à établir des directives de sécurité claires pour les robots, les empêchant d'entreprendre des actions potentiellement dangereuses pour les humains et leur environnement.

Pour renforcer la sécurité, DeepMind a implanté des dispositifs permettant aux robots de s'arrêter automatiquement en cas de contrainte excessive sur leurs articulations, ainsi qu'un interrupteur physique pour une désactivation manuelle par les opérateurs humains. Les robots équipés des systèmes AutoRT ont été testés pendant sept mois dans divers environnements de bureau, effectuant plus de 77 000 essais, combinant des opérations télécommandées et autonomes.


Le projet de sécurité robotique dévoilé par DeepMind, soulève des questions cruciales sur la gestion éthique et sécuritaire de l'intelligence artificielle (IA) dans le domaine de la robotique. La mise en avant d'une « constitution des robots » montre un effort délibéré de la part de DeepMind pour aborder les préoccupations croissantes liées à la sécurité des robots autonomes.

Les robots alimentés par l'IA pourraient être dangereux pour les humains

Les robots alimentés par l'IA posent des questions cruciales quant à leur impact potentiel sur le monde. Les robots d'IA, équipés de technologies avancées telles que des capteurs, des caméras et des algorithmes d'apprentissage automatique, sont conçus pour effectuer diverses tâches, allant de la fabrication aux soins de santé, en passant par l'éducation et le divertissement. Leur capacité à apprendre et à s'adapter à leur environnement soulève des perspectives révolutionnaires dans divers secteurs.

Cependant, malgré les avantages potentiels, l'utilisation généralisée de robots d'IA soulève des préoccupations significatives. La possibilité de dommages physiques en cas de dysfonctionnement ou de mauvaise utilisation, le risque de déplacement d'emplois avec l'avancée de la technologie, les inquiétudes concernant la vie privée et la sécurité dues aux capteurs avancés, ainsi que les préoccupations liées aux biais et à la discrimination dans les algorithmes d'IA sont autant de points soulevés.

Pour garantir le développement et l'utilisation responsables de ces robots d'IA, la participation de parties prenantes variées, incluant des experts en éthique, en droit et en sciences sociales, est essentielle. L'établissement de réglementations et de lignes directrices claires est également nécessaire pour assurer une utilisation sûre et responsable de ces technologies émergentes.

Au-delà de ces considérations, une question émerge quant à la possibilité d'un lien émotionnel entre les êtres humains et les robots d'IA. Les études suggèrent de plus en plus que les humains peuvent établir des connexions émotionnelles avec ces robots, notamment en raison de leur capacité à simuler des comportements humains. Cependant, ces liens émotionnels soulèvent également des questions éthiques sur la manipulation potentielle des individus par les concepteurs ou les opérateurs des robots.

Bien que les robots d'IA offrent des avantages significatifs, leur adoption nécessite une approche réfléchie, tenant compte des risques potentiels et des implications éthiques associées.

Évaluation critique des initiatives d'AutoRT et de SARA-RT de DeepMind

L'utilisation d'un système de collecte de données, AutoRT, équipé de modèles de langage visuel et étendu, représente une avancée majeure dans la capacité des robots à comprendre et à s'adapter à des environnements inconnus. Cependant, bien que cette initiative démontre une préoccupation sérieuse pour la sécurité, des interrogations subsistent quant à la mise en œuvre concrète de ces directives dans des scénarios du monde réel. Les avancées technologiques, comme l'arrêt automatique en cas de contrainte excessive sur les articulations, ainsi que la désactivation manuelle par les opérateurs humains, sont certes des mesures rassurantes, mais la réelle efficacité de ces mécanismes dans des situations complexes reste à être évaluée.

Les robots utilisent une architecture de réseau neuronal améliorée, SARA-RT, pour optimiser la précision et la vitesse du modèle d'apprentissage RT-2. En outre, RT-Trajectory ajoute des contours en 2D pour améliorer la réalisation de tâches physiques spécifiques. Bien que ces avancées ne permettent pas encore des robots totalement autonomes pour des tâches complexes, elles représentent une étape cruciale vers un avenir où les robots pourraient bénéficier de l'apprentissage du système AutoRT.

Alors que la Robot Constitution vise à établir des limites, elle soulève également des questions sur la définition de ces limites et sur la responsabilité en cas de défaillance du système. Dans un monde où l'IA devient de plus en plus omniprésente, il est impératif de trouver un équilibre entre l'innovation technologique et la sécurité, tout en respectant les principes éthiques fondamentaux.

Le système de collecte de données de Google, AutoRT, peut utiliser un modèle de langage visuel (VLM) et un modèle de langage étendu (LLM) fonctionnant main dans la main...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !