IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pourquoi craindre l'intelligence artificielle ?
Google a lancé des lignes directrices pour la création d'une "IA Responsable"

Le , par Stan Adkens

170PARTAGES

11  0 
Il y a tant d'applications d'intelligence artificielle qui rendent notre vie quotidienne beaucoup plus facile et productive. Au rythme où les innovations se succèdent, tout peut être fait avec une seule commande. L’IA est plus accessible à un nombre croissant de personnes dans le monde. Mais comme cette technologie crée de nouvelles possibilités d'amélioration et d'aide au quotidien, ses progrès soulèvent également des questions sur son fonctionnement, par exemple sur les problèmes qu'elle peut entraîner si elle n'est pas développée de manière responsable. La question est de savoir si nous devons nous inquiéter davantage du monde que nous créons.

Comme son nom l'indique, il s'agit d'une intelligence créée par l'homme, mais réalisée par des machines. Elle possède, dans certaines mesures, les mêmes capacités que les humains : elle apprend, s'améliore et est capable de se débrouiller dans certains domaines. Lorsqu’on parle d’intelligence artificielle, deux grands courants de pensée s’affrontent : ceux qui pensent qu’il s’agit d’un outil, ce, sans plus et ceux qui sont d’avis que ce n’est qu’une question de temps avant qu’elle ne devienne une menace pour la race humaine.


À mesure que nos capacités et nos possibilités en matière d'IA s'étendront, nous verrons également qu'elles seront utilisées à des fins dangereuses ou malveillantes. C’est pourquoi ceux qui considèrent cette technologie comme une menace la regardent avec suspicion et crainte quant à l'impact qu'elle peut avoir sur leur vie. Certaines personnalités célèbres comme Elon Musk font partie de ceux-là.

Le patron de Tesla et de SpaceX a déjà prévenu à plus d’une reprise : l’IA va surpasser les capacités cognitives de l’homme. Musk croit que cette technologie menacera les humains à l'avenir, en particulier sur le lieu de travail. C’est d’ailleurs pour cela que sa société Neuralink travaille sur des interfaces cerveau – machine à insérer dans le crâne pour préparer l’humanité à un « funeste » futur où les robots domineront sur elle. La vérité est que certains films de science-fiction ont également fait peur aux gens, en présentant des futurs dystopiques dans lesquels l’IA en vient à contrôler les humains.

Les chercheurs affirment qu'il est peu probable qu'une IA manifeste des émotions humaines comme l'amour ou la haine et qu'il n'y a aucune raison de s'attendre à ce que l'IA devienne intentionnellement gentille ou méchante. Une IA sera extrêmement efficace pour atteindre ses objectifs, et si ces objectifs ne sont pas les mêmes que les nôtres, nous avons un problème. Pour qu'une IA qui s'améliore et qui apprend soit totalement sûre, elle ne doit pas seulement être sans bogues.

En ce sens, Google s'est inquiété du danger que peut représenter l'IA lorsqu'elle n'est pas développée avec soin et de la manière dont elle interagit avec les gens. L'IA doit apprendre comme un humain, mais rester efficace et ne pas devenir une machine dangereuse. Google a été un acteur majeur dans le développement de l'IA.

Avec son programme de recherche du Pentagone, "Project Maven", la société a "formé" l'IA à la classification des objets dans les images de drones. En d'autres termes, elle a appris aux drones à comprendre ce qu'ils regardent. Le projet a été extrêmement controversé. En fait, il a été tellement controversé en interne que lorsque les employés de Google ont découvert les détails de ce sur quoi ils travaillaient, une douzaine d'entre eux auraient démissionné en signe de protestation, et des milliers d'autres ont déposé une pétition interne sur la participation de l'entreprise au projet.

En réponse à ce retour en arrière, la société a déclaré à l’époque qu'elle n’allait pas renouveler le contrat du Pentagone lorsqu'il expirera en mars 2019. Néanmoins, à la suite de la nouvelle qu'ils se retireront du projet militaire, Google a lancé un code d'éthique concernant ses responsabilités dans le développement de l'IA.

Google dit maintenant que l'intelligence artificielle doit vivre avec des préjugés, et la société veut faire quelque chose à ce sujet. Pour ce faire, Google a lancé des programmes appropriés sur le thème de l'« IA responsable ».

Les directives éthiques de Google pour une "IA Responsable"

Deux des principes de base de l'IA de Google sont « être responsable envers les gens » et « éviter de créer ou de renforcer des préjugés injustes ». Cela inclut le développement de systèmes d'intelligence artificielle interprétables qui placent les personnes au premier plan de chaque étape du processus de développement tout en garantissant que les préjugés injustes qu'un être humain peut avoir ne se reflètent pas dans les résultats d'un modèle.


L’IA socialement bénéfique

Selon cette ligne directrice, Google s'efforce de développer l'intelligence artificielle de manière responsable et établit une série de domaines d'application spécifiques qu'il ne poursuivra pas, comme par exemple ne pas mettre en œuvre l'intelligence artificielle dans des technologies qui peuvent causer des dommages ou des blessures aux personnes. Après son retrait du contrat avec le Pentagone en 2018, Google a promis de ne pas utiliser l'IA pour le développement d'armes, même si la société n’a pas dit qu’elle ne continuera pas à coopérer avec les militaires.

« L'intelligence artificielle doit être socialement bénéfique et avoir un impact important dans un large éventail de domaines, tels que les soins de santé, la sécurité, l'énergie, les transports et l'industrie », a déclaré Anna Ukhanova, responsable du programme technique de Google AI.

Google s'efforcera de faire en sorte que les informations disponibles grâce aux modèles d'IA soient précises et de haute qualité. En outre, la technologie « doit être responsable envers les gens, étant soumise à la direction et au contrôle de l'être humain ». Les algorithmes d'intelligence artificielle et les ensembles de données peuvent refléter, renforcer et réduire les préjugés injustes. En ce sens, Google s'efforcera d'éviter les impacts injustes sur les personnes, en particulier ceux liés à des caractéristiques sensibles telles que la race, l'appartenance ethnique, le sexe, le revenu, la nationalité ou les croyances politiques ou religieuses, entre autres.

Selon Anna Ukhanova, le succès de cette technologie est directement lié à une utilisation responsable. L'apprentissage machine ou l'intelligence artificielle repose généralement sur de grands ensembles de données sur lesquels les systèmes sont "formés", et il n'est pas facile de vérifier ces données. « Souvent, les biais sont déjà présents dans les données. Nous ne sommes pas faits pour traiter des quantités de données aussi importantes », explique Fernanda Viegas, codirectrice des efforts de Google baptisé "People + AI", qui explorent l'aspect humain de l'IA en faisant de la recherche fondamentale et en créant des outils adaptés.

Marquer les limites pour l’IA

Google affirme qu'il est en train de développer d'autres outils pour traiter les données afin de prévenir d'éventuelles inégalités à un stade précoce. « Une étape importante dans la lutte contre les inégalités est la transparence, et de simples changements de conception peuvent souvent faire une grande différence », explique Anna Ukhanova, qui fait des recherches sur l'apprentissage machine et l'intelligence artificielle.

Cependant, il est également important de montrer à l'utilisateur que la technologie a ses limites et d'essayer d'expliquer au mieux comment le système atteint certains résultats. « Le débat est vraiment compliqué. L'intelligence artificielle serait toujours considérée sous des angles extrêmes. Soit elle est considérée comme une technologie qui sait tout et résout tous les problèmes, soit comme quelque chose qui nous mène à l'abîme », a dit Fernanda Viegas.

Cependant, les lignes directrices de Google sont-elles suffisantes pour calmer les craintes concernant l'IA ? Google propose de trouver le juste milieu afin d’aller de l'avant. Par exemple, l'intelligence artificielle est capable de faire de grandes choses, comme détecter le cancer ou prédire les tremblements de terre. « En même temps, nous devons aussi parler des points faibles de la technologie, de ses problèmes et de ses limites. C'est la seule façon de faire en sorte que les gens finissent par se fier à l'intelligence artificielle », a conclu Viegas.

Sources : Google, Vidéo YouTube

Et vous ?

Qu’en pensez-vous ?
Les lignes directrices pour la création d'une "IA responsable" suffiront-elles à apaiser la crainte que les gens ont de cette technologie ?
Pensez-vous que d’autres sociétés de technologie suivront Google dans l’utilisation des directives éthiques pour développer l’IA ?

Voir aussi :

Une IA rédige un essai sur les raisons pour lesquelles l'Homme ne devrait pas craindre l'intelligence artificielle, dans un contexte où certains prédisent la domination de la machine sur l'humain
Elon Musk affirme que la puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau, des tiers qui se la feront insérer dans le crâne
L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
« Je suis un mannequin et je sais que l'intelligence artificielle va bientôt prendre mon travail », a déclaré Sinead Bovell, d'autres domaines liés à la mode seraient également menacés

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 05/01/2021 à 13:05
Google qui donne des "lignes directrices" pour une "IA responsable", ça pourrait être le gag de l'année 2021...
10  0 
Avatar de brulain
Membre habitué https://www.developpez.com
Le 05/01/2021 à 19:49
Ne me dites pas que vous croyez encore aujourd'hui que des multinationales développent l'IA pour votre bien. Si c'est le cas, alors amen...
4  0 
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 05/01/2021 à 15:55
Citation Envoyé par Stan Adkens Voir le message
Qu’en pensez-vous ?
Ca n'a aucun sens d'avoir un éditeur d'IA qui rédige le manifeste de l'IA
Ca fait beaucoup juge et partie
Ce genre de manifeste n'a de sens que s'il est écrit par un consortium qui regroupe l'ensemble des parties prenantes (éditeurs, état, scientifique, philosophe, association, ...)

Citation Envoyé par Stan Adkens Voir le message
Les lignes directrices pour la création d'une "IA responsable" suffiront-elles à apaiser la crainte que les gens ont de cette technologie ?
L'ensemble des publications qui attestent que le vaccin contre la COVID 19 suffisent-elles à apaiser les craintes ?

non seulement, l'écriture d'un manifeste n'apaise rien du tout car il est non obligatoire, non contraignant
Il n'existe aucun organisme de contrôle et en cas de non respect, aucune sanction
bref, ça ne sert strictement à rien
3  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 05/01/2021 à 20:12
"Deux des principes de base de l'IA de Google sont « être responsable envers les gens » et « éviter de créer ou de renforcer des préjugés injustes »"

Et comme une IA peut elle savoir ce qu'est une injustice vis a vis d'un être vivant? Elle a connu la faim, la soif, la maladie? Elle a vue des proche mourir? On lui attribue des valeurs humaine qu'elle n'a pas.
3  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 13/01/2021 à 16:28
Je ne suis pas un spécialiste IA. Mais je sais qu'une IA tourne sur un processeur. L'IA ne "réfléchit" pas, elle n'est qu'une suite d'instructions. C'est donc un "programme" (comme on disait dans le temps, ou un "algorithme". Et un programme donne une sortie/réponse par rapport à une entrée (et à la "qualité" de cette entrée). Rien de neuf sous le soleil.

Au-delà du "marketing" qui chercher à placer le terme IA sur le moindre bout de code, le problème se pose ainsi :
- le but et la qualité d'un programme (ou IA comme on dit maintenant) ET
- la qualité des entrées.

Pour le "but" d'un programme, on peut tout imaginer, mais ça reste un choix humain. A faire, ou à ne pas faire.

Pour la "qualité" d'un programme, on peut approcher l'excellence (que le programme fasse ce qu'on lui demande et rien de plus ni de moins) si on s'en donne le temps et les moyens.

Pour la "qualité" des entrées, ça reste un problème humain.

Y'a-t-il vraiment quelqu'un qui pense qu'une IA (un programme !!!) faite pour la conduite full-autonome (de niveau 5, promis pour l'année prochaine depuis des années soit dit en passant) irait lancer un missile nucléaire ? Restons les pieds sur terre...
3  0 
Avatar de Math71
Membre régulier https://www.developpez.com
Le 06/01/2021 à 11:51
Citation Envoyé par darklinux Voir le message
J ' applaudit , je commence à envoire ras le bol de cette hystérie anti IA , c ' est la mème hystérie que pour les jeux vidéos ou l 'informatique c en général . L ' Humain adore ce faire peur ... l ' IA est un outil ; comme l ' est un tableur ou un éditeur de code , on rafraîchi plus souvent les données , c 'est tout
Mais bien sur, le jour ou on demandera à une IA (qui n'existe pas encore) de tout faire pour nous protéger, l'IA nous dominera/exterminera car nous ne sommes capables que de nous entretuer et détruire notre monde.
Le monde parfait n'existe pas, mais on cherchera a le faire, et malheureusement, l'Humain est le gros problème de ce monde, on détruit tout.

Donc donnez-moi un seul exemple d'une IA qui ne nous nuira pas ?
On en est pas encore la, mais ça va venir très vite !

De plus, comment avoir des données "neutre" ? Les données sont faites par des humains, et aucun humain est neutre.

Certe l'IA est un outil, mais si nous continuons a lui donner plus d'autonomie, on court à notre perte.
2  1 
Avatar de darklinux
Membre extrêmement actif https://www.developpez.com
Le 07/01/2021 à 3:05
Citation Envoyé par Math71 Voir le message
Mais bien sur, le jour ou on demandera à une IA (qui n'existe pas encore) de tout faire pour nous protéger, l'IA nous dominera/exterminera car nous ne sommes capables que de nous entretuer et détruire notre monde.
Le monde parfait n'existe pas, mais on cherchera a le faire, et malheureusement, l'Humain est le gros problème de ce monde, on détruit tout.

Donc donnez-moi un seul exemple d'une IA qui ne nous nuira pas ?
On en est pas encore la, mais ça va venir très vite !

De plus, comment avoir des données "neutre" ? Les données sont faites par des humains, et aucun humain est neutre.

Certe l'IA est un outil, mais si nous continuons a lui donner plus d'autonomie, on court à notre perte.
Nous ne sommes pas dans un film Marvel . Une IA depend de sa programmation et des ces données . Un programme ne peux outrepassé ces limites , nous ne sommes pas dans " Person of interest " , arrétez donc de vous faire peur
1  0 
Avatar de Math71
Membre régulier https://www.developpez.com
Le 07/01/2021 à 8:09
Citation Envoyé par darklinux Voir le message
Nous ne sommes pas dans un film Marvel . Une IA depend de sa programmation et des ces données . Un programme ne peux outrepassé ces limites , nous ne sommes pas dans " Person of interest " , arrétez donc de vous faire peur
Comme vous le dites si bien, ça dépend de sa programmation et ces données. Et quel est le facteur commun ? L'Humain, et il n'y a rien de plus imparfait qu'un humain.
C'est impossible de créer un programme parfait, donc une IA ne sera jamais parfaite et devira forcément de son but premier étant donné qu'on aura pas anticipé toutes les possibilités.

Des chercheurs sont en train de mettre au point une IA pour des drones de combat, donc l'IA tuera, avec certes des critères bien précis, mais vu que c'est nous qui donnons les données, et qu'on a forcément un avis biaisé sur les différentes "menaces", sommes nous sur que ça ne se retournera pas contre nous ? Non, car nous sommes imparfait.

Pour moi, le film qui montre tout le problème de l'IA, c'est I Robot.
Ca sera créé pour nous rentre la vie plus simple, mais il y aura forcément une contradiction entre le but de l'IA et nos intérêt.

L'IA d'aujourd'hui n'est pas encore un problème, arrêtons nous la avant de donner encore plus d'autonomie à l'IA.

Le but actuel de l'IA, c'est qu'elle nous ressemble, donc vu que nous détruisons tout, pourquoi l'IA ne ferait pas pareil ?
1  0 
Avatar de Saverok
Expert éminent https://www.developpez.com
Le 07/01/2021 à 17:12
Citation Envoyé par SimonDecoline Voir le message
Si j'ai bien tout compris, dans nos "démocraties" modernes, les lois qui organisent les élections sont votées par des élus. C'est tout aussi débile.
C'est totalement différent car il y a les parties d'oppositions, les débats publics (parlement, sénat,...), les commissions, le conseil constitutionnel, ...
Y a les mécaniques de contre-pouvoir.

J'ai noté que le manifeste de l'IA doit être écrit par un consortium qui représente tous les partis, y compris les éditeurs.
Les éditeurs ont un rôle essentiel pour la rédaction de ce manifeste car ils connaissent le sujets à fond
Par contre, ils ne doivent pas être les seuls et surtout, ça ne doit pas être 1 seul éditeur, mais plusieurs

Bref, Google qui écrit seul dans son coin le manifeste de l'IA n'a aucun sens
1  0 
Avatar de darklinux
Membre extrêmement actif https://www.developpez.com
Le 08/01/2021 à 4:01
Citation Envoyé par Saverok Voir le message
C'est totalement différent car il y a les parties d'oppositions, les débats publics (parlement, sénat,...), les commissions, le conseil constitutionnel, ...
Y a les mécaniques de contre-pouvoir.

J'ai noté que le manifeste de l'IA doit être écrit par un consortium qui représente tous les partis, y compris les éditeurs.
Les éditeurs ont un rôle essentiel pour la rédaction de ce manifeste car ils connaissent le sujets à fond
Par contre, ils ne doivent pas être les seuls et surtout, ça ne doit pas être 1 seul éditeur, mais plusieurs

Bref, Google qui écrit seul dans son coin le manifeste de l'IA n'a aucun sens
Une entreprise n ' est pas une democratie , elle a des comptre a rendre que si elle triche ou vole
1  0