Meta Platforms, anciennement nommé Facebook, est la société qui possède et exploite Facebook, Instagram, Threads, WhatsApp et Meta AI, entre autres. Meta se classe parmi les plus grandes sociétés américaines de technologie de l'information, aux côtés d'autres sociétés du Big Five, Alphabet (Google), Amazon, Apple et Microsoft. Meta AI, la division centrée sur l'intelligence artificielle, se considère comme un laboratoire de recherche universitaire, axé sur la production de connaissances pour la communauté de l'IA.
L'assistant IA de Meta a déclaré à tort que la récente tentative d'assassinat de l'ancien président Donald Trump n'avait pas eu lieu, une erreur qu'un cadre de l'entreprise attribue désormais à la technologie qui alimente son chatbot et d'autres. Joel Kaplan, responsable mondial de la politique de Meta, qualifie de "malheureuses" les réponses de son IA aux questions sur la fusillade.
Il explique que Meta AI a d'abord été programmée pour ne pas répondre aux questions sur la tentative d'assassinat, mais que l'entreprise a supprimé cette restriction après que les gens ont commencé à s'en rendre compte. Il reconnaît également que « dans un petit nombre de cas, Meta AI a continué à fournir des réponses incorrectes, y compris en affirmant parfois que l'événement n'avait pas eu lieu - ce que nous nous efforçons de corriger rapidement ».
« Ce type de réponses est appelé hallucinations. Il s'agit d'un problème commun à tous les systèmes d'IA générative et d'un défi permanent pour la manière dont l'IA traite les événements en temps réel à l'avenir », poursuit M. Kaplan, qui dirige les efforts de lobbying de Meta. « Comme tous les systèmes d'IA générative, les modèles peuvent renvoyer des résultats inexacts ou inappropriés, et nous continuerons à traiter ces problèmes et à améliorer ces fonctionnalités au fur et à mesure qu'elles évolueront et que davantage de personnes partageront leurs commentaires. »
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Meta AI won’t give any details on the attempted ass*ss*nation.<br><br>We’re witnessing the suppression and coverup of one of the biggest most consequential stories in real time.<br><br>Simply unreal. <a href="https://t.co/BoBLZILp5M">pic.twitter.com/BoBLZILp5M</a></p>— Libs of TikTok (@libsoftiktok) <a href="https://twitter.com/libsoftiktok/status/1817654239587701050?ref_src=twsrc%5Etfw">July 28, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>[/TWITTER]
Voici les déclarations de Meta concernant cet incident :
Examen du label de vérification des faits et des réponses de Meta AI
Il y a eu deux problèmes notables liés au traitement du contenu politique sur nos plateformes la semaine dernière - l'un concernait une photo de l'ancien président Trump après la tentative d'assassinat, à laquelle nos systèmes ont incorrectement appliqué une étiquette de vérification des faits, et l'autre concernait des réponses de Meta AI au sujet de la fusillade. Dans les deux cas, nos systèmes s'efforçaient de protéger l'importance et la gravité de l'événement. Bien qu'aucun de ces cas ne soit le résultat d'un parti pris, ils sont regrettables et nous comprenons pourquoi ils ont pu donner cette impression aux gens. C'est pourquoi nous nous efforçons constamment d'améliorer nos produits et nous continuerons à résoudre rapidement tout problème dès qu'il se présentera.
Nous avons enquêté et voici ce que nous avons trouvé :
Tout d'abord, il est connu que les chatbots d'IA, y compris Meta AI, ne sont pas toujours fiables lorsqu'il s'agit d'annoncer des nouvelles ou de renvoyer des informations en temps réel. En termes simples, les réponses générées par les grands modèles de langage qui alimentent ces chatbots sont basées sur les données sur lesquelles ils ont été formés, ce qui peut parfois créer des problèmes compréhensibles lorsque l'IA est interrogée sur des sujets en temps réel qui évoluent rapidement et qui surviennent après qu'elle a été formée. Il s'agit notamment d'événements d'actualité, tels que la tentative d'assassinat, pour lesquels il existe initialement une énorme confusion, des informations contradictoires ou des théories du complot dans le domaine public (y compris de nombreuses affirmations manifestement erronées selon lesquelles la tentative d'assassinat n'a pas eu lieu). Plutôt que de laisser l'Meta AI donner des informations incorrectes sur la tentative d'assassinat, nous l'avons programmée pour qu'elle ne réponde tout simplement pas aux questions sur l'attentat après qu'il a eu lieu - et qu'elle donne à la place une réponse générique indiquant qu'elle ne pouvait pas fournir d'informations. C'est la raison pour laquelle certaines personnes ont signalé que notre IA refusait de parler de l'événement. Nous avons depuis mis à jour les réponses fournies par Meta AI au sujet de la tentative d'assassinat, mais nous aurions dû le faire plus tôt. Dans un petit nombre de cas, Meta AI a continué à fournir des réponses incorrectes, affirmant parfois que l'événement n'avait pas eu lieu. Ce type de réponses est appelé hallucinations. Il s'agit d'un problème commun à tous les systèmes d'IA générative et d'un défi permanent pour la façon dont l'IA traite les événements en temps réel à l'avenir. Comme tous les systèmes d'IA générative, les modèles peuvent renvoyer des résultats inexacts ou inappropriés, et nous continuerons à résoudre ces problèmes et à améliorer ces fonctionnalités au fur et à mesure qu'elles évolueront et que d'autres personnes nous feront part de leurs commentaires.
Deuxièmement, nous avons également rencontré un problème lié à la diffusion d'une photo trafiquée de l'ancien président Trump, le poing en l'air, qui donnait l'impression que les agents des services secrets souriaient. La photo ayant été modifiée, une étiquette de vérification des faits a été initialement et correctement apposée. Lorsqu'un label de vérification des faits est appliqué, notre technologie détecte les contenus qui sont identiques ou presque exactement identiques à ceux évalués par les vérificateurs de faits, et ajoute également un label à ces contenus. Compte tenu des similitudes entre la photo trafiquée et l'image originale - qui ne sont que subtilement (bien qu'importantes) différentes - nos systèmes ont incorrectement appliqué cette vérification des faits à la vraie photo également. Nos équipes ont travaillé pour corriger rapidement cette erreur.
Ces deux problèmes sont en cours de résolution. Nous nous engageons à faire en sorte que nos plateformes soient un lieu où les gens peuvent s'exprimer librement, et nous nous efforçons toujours d'apporter des améliorations.
Il y a eu deux problèmes notables liés au traitement du contenu politique sur nos plateformes la semaine dernière - l'un concernait une photo de l'ancien président Trump après la tentative d'assassinat, à laquelle nos systèmes ont incorrectement appliqué une étiquette de vérification des faits, et l'autre concernait des réponses de Meta AI au sujet de la fusillade. Dans les deux cas, nos systèmes s'efforçaient de protéger l'importance et la gravité de l'événement. Bien qu'aucun de ces cas ne soit le résultat d'un parti pris, ils sont regrettables et nous comprenons pourquoi ils ont pu donner cette impression aux gens. C'est pourquoi nous nous efforçons constamment d'améliorer nos produits et nous continuerons à résoudre rapidement tout problème dès qu'il se présentera.
Nous avons enquêté et voici ce que nous avons trouvé :
Tout d'abord, il est connu que les chatbots d'IA, y compris Meta AI, ne sont pas toujours fiables lorsqu'il s'agit d'annoncer des nouvelles ou de renvoyer des informations en temps réel. En termes simples, les réponses générées par les grands modèles de langage qui alimentent ces chatbots sont basées sur les données sur lesquelles ils ont été formés, ce qui peut parfois créer des problèmes compréhensibles lorsque l'IA est interrogée sur des sujets en temps réel qui évoluent rapidement et qui surviennent après qu'elle a été formée. Il s'agit notamment d'événements d'actualité, tels que la tentative d'assassinat, pour lesquels il existe initialement une énorme confusion, des informations contradictoires ou des théories du complot dans le domaine public (y compris de nombreuses affirmations manifestement erronées selon lesquelles la tentative d'assassinat n'a pas eu lieu). Plutôt que de laisser l'Meta AI donner des informations incorrectes sur la tentative d'assassinat, nous l'avons programmée pour qu'elle ne réponde tout simplement pas aux questions sur l'attentat après qu'il a eu lieu - et qu'elle donne à la place une réponse générique indiquant qu'elle ne pouvait pas fournir d'informations. C'est la raison pour laquelle certaines personnes ont signalé que notre IA refusait de parler de l'événement. Nous avons depuis mis à jour les réponses fournies par Meta AI au sujet de la tentative d'assassinat, mais nous aurions dû le faire plus tôt. Dans un petit nombre de cas, Meta AI a continué à fournir des réponses incorrectes, affirmant parfois que l'événement n'avait pas eu lieu. Ce type de réponses est appelé hallucinations. Il s'agit d'un problème commun à tous les systèmes d'IA générative et d'un défi permanent pour la façon dont l'IA traite les événements en temps réel à l'avenir. Comme tous les systèmes d'IA générative, les modèles peuvent renvoyer des résultats inexacts ou inappropriés, et nous continuerons à résoudre ces problèmes et à améliorer ces fonctionnalités au fur et à mesure qu'elles évolueront et que d'autres personnes nous feront part de leurs commentaires.
Deuxièmement, nous avons également rencontré un problème lié à la diffusion d'une photo trafiquée de l'ancien président Trump, le poing en l'air, qui donnait l'impression que les agents des services secrets souriaient. La photo ayant été modifiée, une étiquette de vérification des faits a été initialement et correctement apposée. Lorsqu'un label de vérification des faits est appliqué, notre technologie détecte les contenus qui sont identiques ou presque exactement identiques à ceux évalués par les vérificateurs de faits, et ajoute également un label à ces contenus. Compte tenu des similitudes entre la photo trafiquée et l'image originale - qui ne sont que subtilement (bien qu'importantes) différentes - nos systèmes ont incorrectement appliqué cette vérification des faits à la vraie photo également. Nos équipes ont travaillé pour corriger rapidement cette erreur.
Ces deux problèmes sont en cours de résolution. Nous nous engageons à faire en sorte que nos plateformes soient un lieu où les gens peuvent s'exprimer librement, et nous nous efforçons toujours d'apporter des améliorations.
Source : "Review of Fact-Checking Label and Meta AI Responses" (Meta)
Et vous ?
Pensez-vous que cette déclaration est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Meta annonce que Llama 3 est "le LLM le plus performant à ce jour", bientôt disponible sur AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM et Snowflake
Mark Zuckerberg imagine un avenir où les créateurs de contenu créent des clones d'eux-mêmes à l'aide de l'IA, alors que la faible qualité du contenu généré par l'IA contribue à la dégradation de l'état du Web
Donald Trump déteste tellement Facebook et son créateur Mark Zuckerberg qu'il milite pour le maintien de TikTok aux États-Unis. Il affirme que TikTok favoriserait la concurrence après avoir tenté de le bannir