2024 est l'une des années électorales les plus importantes de l'histoire, avec des courses aux enjeux considérables dans plus de 50 pays à travers le monde. Il s'agit également du premier grand cycle électoral au cours duquel les outils d'IA générative seront largement mis à la disposition des électeurs, des gouvernements et des campagnes politiques. Dans un communiqué publié lundi, OpenAI a déclaré qu'elle s'appuierait sur des programmes de vérification des informations et d'authenticité des images pour garantir aux utilisateurs l'accès à des informations de haute qualité tout au long des élections.
L'entreprise ajoutera des références numériques définies par une coalition tierce d'entreprises d'IA qui encodent des détails sur l'origine des images créées à l'aide de son outil de génération d'images, DALL-E 3. L'entreprise indique qu'elle expérimente un nouvel outil de "classification de la provenance" qui peut détecter les images générées par l'IA qui ont été créées à l'aide de DALL-E. Elle espère mettre cet outil à la disposition des électeurs, des gouvernements et des campagnes électorales.
Elle espère mettre cet outil à la disposition de son premier groupe de testeurs, composé de journalistes, de chercheurs et d'autres plateformes technologiques, afin de recueillir leurs commentaires. OpenAI continuera d'intégrer sa plateforme ChatGPT aux reportages en temps réel dans le monde entier, "y compris l'attribution et les liens", a déclaré l'entreprise.
Comment OpenAI aborde les élections mondiales de 2024
Nous nous efforçons de prévenir les abus, d'assurer la transparence des contenus générés par l'IA et d'améliorer l'accès à des informations précises sur les élections.
La protection de l'intégrité des élections nécessite la collaboration de tous les acteurs du processus démocratique, et nous voulons nous assurer que notre technologie n'est pas utilisée d'une manière qui pourrait nuire à ce processus.
Nos outils permettent aux citoyens d'améliorer leur vie quotidienne et de résoudre des problèmes complexes, qu'il s'agisse d'utiliser l'IA pour améliorer les services publics ou de simplifier les formulaires médicaux pour les patients.
Nous voulons nous assurer que nos systèmes d'IA sont construits, déployés et utilisés en toute sécurité. Comme toute nouvelle technologie, ces outils présentent des avantages et des défis. Ils sont également sans précédent, et nous continuerons à faire évoluer notre approche au fur et à mesure que nous en apprendrons davantage sur la manière dont nos outils sont utilisés.
Alors que nous nous préparons pour les élections de 2024 dans les plus grandes démocraties du monde, notre approche consiste à poursuivre notre travail sur la sécurité des plateformes en diffusant des informations précises sur le vote, en appliquant des politiques mesurées et en améliorant la transparence. Nous disposons d'un effort interfonctionnel dédié au travail électoral, rassemblant l'expertise de nos systèmes de sécurité, du renseignement sur les menaces, des équipes juridiques, d'ingénierie et de politique afin d'enquêter rapidement et de traiter les abus potentiels.
Voici les principales initiatives dans lesquelles nos équipes investissent pour préparer les élections de cette année :
Prévenir les abus
Nous attendons des gens qu'ils utilisent nos outils de manière sûre et responsable, et les élections ne font pas exception à la règle. Nous nous efforçons d'anticiper et de prévenir les abus, tels que les "deepfakes" trompeurs, les opérations d'influence à grande échelle ou les chatbots usurpant l'identité de candidats. Avant de lancer de nouveaux systèmes, nous les soumettons à une équipe d'experts, nous demandons aux utilisateurs et aux partenaires externes de nous faire part de leurs commentaires et nous mettons en place des mesures d'atténuation de la sécurité afin de réduire le risque de préjudice. Depuis des années, nous développons des outils pour améliorer l'exactitude des faits, réduire les préjugés et refuser certaines demandes. Ces outils constituent une base solide pour notre travail sur l'intégrité des élections. Par exemple, DALL-E dispose de garde-fous pour refuser les demandes de génération d'images de personnes réelles, y compris de candidats.
Nous affinons régulièrement nos politiques d'utilisation de ChatGPT et de l'API au fur et à mesure que nous apprenons comment les gens utilisent ou tentent d'abuser de notre technologie. En voici quelques-unes pour les élections :
Transparence autour du contenu généré par l'IA
Une meilleure transparence sur la provenance des images - y compris la capacité de détecter les outils utilisés pour produire une image - peut permettre aux électeurs d'évaluer une image en ayant confiance dans la manière dont elle a été créée. Nous travaillons sur plusieurs initiatives en matière de provenance. Au début de cette année, nous mettrons en œuvre les certificats numériques de la Coalition for Content Provenance and Authenticity - une approche qui encode les détails de la provenance du contenu à l'aide de la cryptographie - pour les images générées par DALL-E 3.
Nous expérimentons également un classificateur de provenance, un nouvel outil de détection des images générées par DALL-E. Nos tests internes ont donné des résultats préliminaires prometteurs, même lorsque les images ont été soumises à des types courants de modifications. Nous prévoyons de le mettre bientôt à la disposition de notre premier groupe de testeurs - y compris des journalistes, des plateformes et des chercheurs - afin de recueillir leurs commentaires.
Enfin, ChatGPT s'intègre de plus en plus aux sources d'information existantes - par exemple, les utilisateurs commenceront à avoir accès à des reportages d'actualité en temps réel dans le monde entier, y compris les attributions et les liens. La transparence sur l'origine des informations et l'équilibre des sources d'information peut aider les électeurs à mieux évaluer les informations et à décider par eux-mêmes de ce en quoi ils peuvent avoir confiance.
Améliorer l'accès aux informations électorales faisant autorité
Aux États-Unis, nous travaillons avec la National Association of Secretaries of State (NASS), la plus ancienne organisation professionnelle non partisane de fonctionnaires du pays. ChatGPT dirigera les utilisateurs vers CanIVote.org, le site Web qui fait autorité en matière d'informations électorales aux États-Unis, lorsqu'on leur posera certaines questions relatives aux procédures électorales, par exemple sur le lieu de vote. Les leçons tirées de ce travail serviront de base à notre approche dans d'autres pays et régions.
Nous aurons d'autres informations à partager dans les mois à venir. Nous nous réjouissons de continuer à travailler avec nos partenaires et à apprendre d'eux afin d'anticiper et de prévenir les abus potentiels de nos outils à l'approche des élections mondiales de cette année.
Nous nous efforçons de prévenir les abus, d'assurer la transparence des contenus générés par l'IA et d'améliorer l'accès à des informations précises sur les élections.
La protection de l'intégrité des élections nécessite la collaboration de tous les acteurs du processus démocratique, et nous voulons nous assurer que notre technologie n'est pas utilisée d'une manière qui pourrait nuire à ce processus.
Nos outils permettent aux citoyens d'améliorer leur vie quotidienne et de résoudre des problèmes complexes, qu'il s'agisse d'utiliser l'IA pour améliorer les services publics ou de simplifier les formulaires médicaux pour les patients.
Nous voulons nous assurer que nos systèmes d'IA sont construits, déployés et utilisés en toute sécurité. Comme toute nouvelle technologie, ces outils présentent des avantages et des défis. Ils sont également sans précédent, et nous continuerons à faire évoluer notre approche au fur et à mesure que nous en apprendrons davantage sur la manière dont nos outils sont utilisés.
Alors que nous nous préparons pour les élections de 2024 dans les plus grandes démocraties du monde, notre approche consiste à poursuivre notre travail sur la sécurité des plateformes en diffusant des informations précises sur le vote, en appliquant des politiques mesurées et en améliorant la transparence. Nous disposons d'un effort interfonctionnel dédié au travail électoral, rassemblant l'expertise de nos systèmes de sécurité, du renseignement sur les menaces, des équipes juridiques, d'ingénierie et de politique afin d'enquêter rapidement et de traiter les abus potentiels.
Voici les principales initiatives dans lesquelles nos équipes investissent pour préparer les élections de cette année :
Prévenir les abus
Nous attendons des gens qu'ils utilisent nos outils de manière sûre et responsable, et les élections ne font pas exception à la règle. Nous nous efforçons d'anticiper et de prévenir les abus, tels que les "deepfakes" trompeurs, les opérations d'influence à grande échelle ou les chatbots usurpant l'identité de candidats. Avant de lancer de nouveaux systèmes, nous les soumettons à une équipe d'experts, nous demandons aux utilisateurs et aux partenaires externes de nous faire part de leurs commentaires et nous mettons en place des mesures d'atténuation de la sécurité afin de réduire le risque de préjudice. Depuis des années, nous développons des outils pour améliorer l'exactitude des faits, réduire les préjugés et refuser certaines demandes. Ces outils constituent une base solide pour notre travail sur l'intégrité des élections. Par exemple, DALL-E dispose de garde-fous pour refuser les demandes de génération d'images de personnes réelles, y compris de candidats.
Nous affinons régulièrement nos politiques d'utilisation de ChatGPT et de l'API au fur et à mesure que nous apprenons comment les gens utilisent ou tentent d'abuser de notre technologie. En voici quelques-unes pour les élections :
- Nous cherchons encore à comprendre l'efficacité de nos outils pour la persuasion personnalisée. Tant que nous n'en savons pas plus, nous n'autorisons pas les gens à créer des applications pour les campagnes politiques et le lobbying.
- Les gens veulent savoir et croire qu'ils interagissent avec une personne, une entreprise ou un gouvernement réel. C'est pourquoi nous n'autorisons pas les concepteurs à créer des chatbots qui prétendent être de vraies personnes (par exemple, des candidats) ou de vraies institutions (par exemple, une administration locale).
- Nous n'autorisons pas les applications qui dissuadent les gens de participer aux processus démocratiques, par exemple en présentant de manière erronée les processus de vote et les qualifications (par exemple, quand, où ou qui a le droit de voter) ou en décourageant le vote (par exemple, en affirmant qu'un vote n'a pas de sens).
- Grâce à nos nouveaux TPG, les utilisateurs peuvent nous signaler des violations potentielles.
Transparence autour du contenu généré par l'IA
Une meilleure transparence sur la provenance des images - y compris la capacité de détecter les outils utilisés pour produire une image - peut permettre aux électeurs d'évaluer une image en ayant confiance dans la manière dont elle a été créée. Nous travaillons sur plusieurs initiatives en matière de provenance. Au début de cette année, nous mettrons en œuvre les certificats numériques de la Coalition for Content Provenance and Authenticity - une approche qui encode les détails de la provenance du contenu à l'aide de la cryptographie - pour les images générées par DALL-E 3.
Nous expérimentons également un classificateur de provenance, un nouvel outil de détection des images générées par DALL-E. Nos tests internes ont donné des résultats préliminaires prometteurs, même lorsque les images ont été soumises à des types courants de modifications. Nous prévoyons de le mettre bientôt à la disposition de notre premier groupe de testeurs - y compris des journalistes, des plateformes et des chercheurs - afin de recueillir leurs commentaires.
Enfin, ChatGPT s'intègre de plus en plus aux sources d'information existantes - par exemple, les utilisateurs commenceront à avoir accès à des reportages d'actualité en temps réel dans le monde entier, y compris les attributions et les liens. La transparence sur l'origine des informations et l'équilibre des sources d'information peut aider les électeurs à mieux évaluer les informations et à décider par eux-mêmes de ce en quoi ils peuvent avoir confiance.
Améliorer l'accès aux informations électorales faisant autorité
Aux États-Unis, nous travaillons avec la National Association of Secretaries of State (NASS), la plus ancienne organisation professionnelle non partisane de fonctionnaires du pays. ChatGPT dirigera les utilisateurs vers CanIVote.org, le site Web qui fait autorité en matière d'informations électorales aux États-Unis, lorsqu'on leur posera certaines questions relatives aux procédures électorales, par exemple sur le lieu de vote. Les leçons tirées de ce travail serviront de base à notre approche dans d'autres pays et régions.
Nous aurons d'autres informations à partager dans les mois à venir. Nous nous réjouissons de continuer à travailler avec nos partenaires et à apprendre d'eux afin d'anticiper et de prévenir les abus potentiels de nos outils à l'approche des élections mondiales de cette année.
Source : OpenAI
Et vous ?
Qu'en pensez-vous ?
Cette annonce est elle crédible ou pertinente, ou est ce que c'est juste du buzz marketing pour faire bonne figure ?
Voir aussi :
Grok, le rival de ChatGPT d'Elon Musk, est en train d'être déployé pour les utilisateurs de X Premium, mais le côté "audacieux et rebelle" du chatbot suscite des réactions mitigées
L'un des créateurs de ChatGPT pense que le développement des systèmes d'intelligence artificielle peut conduire à une catastrophe, une élimination des humains par les machines
Craignez-vous que l'information ne soit plus du tout fiable sur Internet à cause de l'intelligence artificielle ? vers une ère de désinformation sans précédent à cause des chatbots et deepfakes ?