Pour protéger ses hôtes, l'application de location à court terme Airbnb utilise maintenant un outil alimenté par l'IA qui prend en compte la "personnalité" des invités en ligne lorsqu'ils réservent un logement, selon le site Web de nouvelles scientifiques et technologiques Futurism. Selon les documents de brevet examinés par le quotidien Evening Standard, Airbnb possède les droits d'un logiciel conçu pour scanner la présence en ligne des gens afin de prédire s'ils sont dignes de confiance. L'outil prend en compte même le casier judiciaire dans son évaluation de la "fiabilité et la compatibilité" des utilisateurs Web dans le but de prévoir l'aptitude à louer une propriété.
Selon le brevet, Airbnb pouvait déployer son logiciel pour scanner les sites, y compris les posts sur les médias sociaux, à la recherche de caractéristiques telles que "la conscience et l'ouverture" par rapport aux vérifications habituelles de crédit et d'identité et à ce qu'il décrit comme des "bases de données tierces sécurisées". Des caractéristiques telles que "névrose et implication dans des crimes" et "narcissisme, machiavélisme ou psychopathie" sont "perçus comme indignes de confiance".
Si vous avez été refusé de réserver une location Airbnb, c'est peut-être parce que l'intelligence artificielle de la plateforme communautaire a déterminé que vous êtes un psychopathe. La technologie de vérification des antécédents a été révélée dans un brevet délivré par l'Office européen des brevets et publié aux États-Unis l'année dernière, selon Evening Standard. L'outil de vérification est l'œuvre de Trooly, une startup qu’Airbnb a acquise en 2017, après que la société basée en Californie ait aidé la plateforme de l’immobilier à éviter les problèmes depuis 2015, en filtrant les annonces mensongères.
Évaluation des invités par l’IA pour déterminer des clients aux caractères "indignes de confiance"
Selon le quotidien londonien, la technologie d’Airbnb utilise l'intelligence artificielle pour repérer les personnes "associées" à de faux profils de réseau social ou celles qui ont donné de faux détails. Le brevet vu par le quotidien suggère également que les utilisateurs sont mal notés si les mots clés, les images ou les vidéos qui leur sont associés sont liés à la drogue ou à l'alcool, à des sites ou des organisations haineuses ou au travail du sexe. Les personnes « impliquées dans la pornographie » ou qui ont « écrit du contenu en ligne avec un langage négatif » seront également notées à la baisse.
Selon un article de quartz qui a rapporté l’achat de Trooly en juin 2017, la startup de vérification des antécédents utilise des informations provenant du Web public, du Web noir, des médias sociaux autorisés et de sa propre agrégation de dossiers pour évaluer les références des individus et des entreprises. Selon l’article, le site Web de Trooly affirmait à l’époque que les prédictions comparativement fiables sont « exemptes de biais que les vérifications d'antécédents, les cotes de crédit et les outils de gestion du risque de la vieille école ».
Airbnb n’a pas répondu à une demande de commentaires d’Evening Standard concernant la mesure dans laquelle le site Web utilise l'outil de Trooly. Cependant, son site Web indique l'utilisation que la plateforme fait de son IA pour évaluer les clients potentiels : « Chaque réservation d'Airbnb est notée pour le risque avant qu'elle ne soit confirmée. Nous utilisons l'analyse prédictive et l'apprentissage machine pour évaluer instantanément des centaines de signaux qui nous aident à repérer et à enquêter sur les activités suspectes avant qu'elles ne se produisent ».
L'apprentissage machine analyse les informations trouvées sur le demandeur de logement, y compris, par exemple, un article lié à un crime, et peut "pondérer " la gravité des infractions. Ses sources d'information sont ensuite prises en compte pour former un "diagramme de la personne", selon le brevet. Selon le quotidien, ces données combinées permettent d’analyser la façon dont le client agit envers les autres hors ligne. L'apprentissage machine calcule ensuite la "compatibilité" de l'hôte et du client.
L’IA d’Airbnb arrive alors que la société fait face depuis des années aux problèmes des clients indélicats
Selon Business Insider, l'application de location à court terme a tenté d'assurer la sécurité des invités et des hôtes à la suite de plusieurs crises très médiatisées l'année dernière. La société aurait interdit les fêtes dans ses listes après que cinq personnes aient été tuées en octobre lors d'une fusillade à un Airbnb en Californie, et d'autres hôtes ont accusé les invités d'avoir subi des millions de dollars de dommages. Airbnb est également aux prises avec des hôtes qui pratiquent des escroqueries à long terme par le biais de l'application, en se faisant passer pour des propriétaires qui affichent des listes frauduleuses sur le site. Donc si l'outil peut éliminer les fauteurs de troubles potentiels et les faux hôtes, il est facile de voir pourquoi la société serait désireuse de le mettre en œuvre.
Cependant, selon Futurism, il est difficile de dire si une IA peut réellement prédire si une personne est un psychopathe – ou du moins quelqu'un qu’Airbnb ne voudrait pas voir chez les hôtes – uniquement à partir des informations en ligne la concernant.
Dans une déclaration à Business Insider, un porte-parole d'Airbnb a confirmé qu'elle est propriétaire du brevet, mais qu'elle n'applique pas actuellement toutes les méthodes de filtrage du logiciel telles que décrites dans le dépôt de brevet. Il a ajouté que la société se limite aux vérifications des antécédents des utilisateurs. « Comme pour toute autre entreprise, nous déposons un certain nombre de brevets, allant de la recherche de listes à l'automatisation de la disponibilité des réservations, et cela ne signifie pas nécessairement que nous mettons en œuvre tout ou partie de ce qu'ils contiennent », a déclaré le porte-parole.
Les applications de l’IA se sont multipliées ces dernières années. Des chercheurs de l'Université de Cambridge ont publié en décembre dernier une proposition dans la revue Ethics and Information Technology qui exploite les techniques de cybersécurité basée sur l’IA pour donner le contrôle à ceux qui sont ciblés par les discours haineux, sans recourir à la censure. En effet, ces chercheurs ne s’alignent pas sur le principe de détection automatique du discours haineux, qui est selon eux difficile, parce que les définitions de ces contenus varient en fonction de la nation. D’après eux, le discours haineux doit être signalé par ceux qui y sont exposés, après que le « préjudice psychologique » voulu ait été infligé.
Les experts de Cambridge Language et Machine Learning utilisent, par conséquent, des bases de données de menaces et d'insultes violentes pour créer des algorithmes qui peuvent fournir un score pour la probabilité d'un message en ligne contenant des formes de discours haineux. Et à mesure que ces algorithmes s'affinent, les discours de haine potentiels pourraient être identifiés et « mis en quarantaine ». Les utilisateurs recevraient une alerte d'avertissement avec un « Hainomètre » (baromètre indiquant le score de gravité du discours haineux), le nom de l'expéditeur et une option pour afficher le contenu ou le supprimer sans l'afficher.
Selon des commentateurs du sujet concernant l’IA d’Airbnb, la technologie de la plateforme de location ne pourra fonctionner qu’avec les utilisateurs qui utilisent leur vrai nom sur Internet ou qui utilisent la même adresse e-mail pour leur compte de média social que pour leurs posts de réservations AirBNB.
Sources : Futurism, Documents de brevet
Et vous ?
Que pensez-vous de l’IA d’Airbnb ?
L’outil d’IA d’Airbnb scanne Internet à la recherche d'indices pour écarter les clients non fiables. N’y aurait-il pas de risques de biais liés à cette technologie, selon vous ?
Lire aussi
Des chercheurs font appel à un outil basé sur l'IA pour mettre en quarantaine le discours haineux, afin d'éviter de passer par la censure et donner à l'utilisateur plus de contrôle
L'IA identifie des caractéristiques auparavant inconnues associées à la récurrence du cancer, selon un nouveau rapport
Ubisoft a construit une nouvelle IA pour apprendre à une voiture à se conduire dans un jeu de course, en utilisant l'apprentissage par renforcement
IA : des scientifiques du MIT conçoivent un algorithme capable d'interpréter des images, pour répondre à des questions sur leur contenu
Airbnb prétend que son IA peut prédire si les clients sont des psychopathes,
Après avoir scanné leur vie en ligne et regroupé des informations sur eux
Airbnb prétend que son IA peut prédire si les clients sont des psychopathes,
Après avoir scanné leur vie en ligne et regroupé des informations sur eux
Le , par Stan Adkens
Une erreur dans cette actualité ? Signalez-nous-la !