IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Telegram a supprimé environ 15 millions de groupes illicites de sa plateforme de messagerie en utilisant l'IA
Faisant face à une pression croissante pour débarrasser son application de tout contenu illégal

Le , par Jade Emy

5PARTAGES

5  0 
Telegram rapporte avoir supprimé environ 15 millions de groupes illicites de sa plateforme de messagerie, en utilisant l'IA pour s'attaquer au problème. La nouvelle page de modération témoigne de la volonté de Telegram de faire preuve de transparence dans ses activités. Cette annonce intervient alors que l'affaire juridique de son PDG Pavel Durov est encore en cours pour manque de modérations de la plateforme.

Au cours des derniers mois, la plateforme Telegram a été soumise à une pression croissante pour débarrasser son application de tout contenu illégal. Cet examen minutieux a abouti à l'arrestation du PDG Pavel Durov en France, où il fait face à des accusations liées au matériel nuisible et illégal partagé via l'application. L'enquête portait notamment sur le manque de modérateurs sur Telegram et que la police considérait que cette situation permettait à des activités criminelles de se poursuivre sans entrave sur l'application de messagerie.

Suite à cette arrestation, Telegram a modifié ses termes concernant la modération des discussions privées. Le PDG de Telegram a déclaré que l’application transmettra le numéro de téléphone et l'adresse IP d'un utilisateur si les autorités lui en font la demande, ajoutant : "Nous ne laisserons pas de mauvais acteurs mettre en péril l'intégrité de notre plateforme pour près d'un milliard d'utilisateurs."

Bien que Pavel Durov soit toujours soumis à des restrictions strictes à la suite de sa première comparution devant le tribunal, le service de messagerie instantanée affirme avoir fait des progrès considérables dans la résolution du problème de modération. La plateforme indique avoir supprimé plus de 15 millions de groupes et de canaux impliqués dans des fraudes et d'autres activités illégales.

Comment Telegram a utilisé l'IA pour supprimer des millions de groupes soupçonnés d'être illicites

Telegram a attribué son succès à "l'amélioration des outils de modération de l'IA de pointe", décrivant cela comme un pas en avant dans la réduction des contenus illicites. Cette mesure fait suite à une campagne de répression annoncée en septembre, au cours de laquelle Pavel Durov a fait part de l'intention de l'entreprise de répondre aux demandes du gouvernement en faveur d'une réglementation plus stricte en matière de contenu.

La nouvelle page de modération témoigne de la volonté de Telegram de faire preuve de transparence dans ses activités. Dans un message publié sur son canal Telegram, Durov a souligné que l'entreprise était déterminée à lutter contre les activités illégales. Il a révélé que l'équipe de modération a travaillé avec diligence dans les coulisses au cours des derniers mois, supprimant "des millions de contenus qui violent ses conditions d'utilisation, notamment l'incitation à la violence, le partage de matériel pédopornographique et le commerce de marchandises illégales".


Durov s'est engagé à tenir les utilisateurs informés en temps réel des efforts de l'équipe de modération. Selon la nouvelle page de Telegram consacrée à la modération, la plateforme a considérablement renforcé l'application de la loi depuis l'arrestation de Durov, et il est clair que l'équipe n'a pas chômé. La suppression des comptes illicites est en cours depuis 2015, mais les chiffres sont stupéfiants : plus de 15,4 millions de groupes et de canaux illégaux ont été bloqués rien qu'en 2024.

Cette année, Telegram a également intensifié sa lutte contre les contenus pédopornographiques (CSAM), en interdisant 703 809 groupes et chaînes. Outre les rapports d'utilisateurs et la modération proactive, Telegram collabore avec des organisations tierces pour lutter contre les CSAM, ce qui a conduit à des milliers d'interdictions instantanées.

Parmi les plus grands contributeurs à ces efforts figurent l'Internet Watch Foundation, le National Center for Missing and Exploited Children, le Canadian Center for Child Protection et Stitching Offlimits.


Les efforts de modération de Telegram

L'engagement de la plateforme à lutter contre la violence et la propagande terroriste n'est pas nouveau. Depuis 2016, Telegram fournit des mises à jour quotidiennes sur ces initiatives, ce qui lui a valu la reconnaissance d'Europol. En collaboration avec de nombreuses organisations depuis 2022, Telegram a interdit 100 millions de contenus terroristes, dont 129 099 bloqués pour la seule année 2024.

Pendant ce temps, l'affaire judiciaire de Durov en France est toujours en cours, et au vue des accusations, l'affaire n'est pas encore proche d'une résolution. Lors de son arrestation, le Tribunal Judiciaire de Paris a présenté 12 lourds chefs d'accusation contre le PDG de Telegram. En général, les accusations portent sur le fait que Pavel Durov n’aurait pas pris de mesures pour réduire les utilisations criminelles de Telegram. Bien qu'il soit actuellement en liberté sous caution de 5 millions d'euros, la plateforme semble donc déterminée à poursuivre ses efforts de nettoyage.


Voici les informations partagées par Telegram sur ces efforts de modération :

Vue d'ensemble de la modération sur Telegram

Telegram bloque des dizaines de milliers de groupes et de canaux chaque jour et supprime des millions de contenus qui violent ses conditions d'utilisation, notamment l'incitation à la violence, le partage de contenus pédopornographiques et le commerce de marchandises illégales. Depuis 2015, la modération combine les signalements utilisateurs avec une surveillance proactive alimentée par l'apprentissage automatique. Début 2024, cet effort a été renforcé par des outils de modération IA de pointe.

Telegram applique une politique de tolérance zéro à l'égard du contenu pédopornographique (CSAM). Depuis 2018, les images publiques sont automatiquement vérifiées par rapport à une base de données de hachage des CSAM interdits par nos modérateurs au cours de la dernière décennie. En 2024, nous avons élargi cette base de données avec des hachages provenant d'organisations comme Internet Watch Foundation. Telegram publie des rapports de transparence quotidiens sur la suppression des contenus CSAM.

En plus de ses mesures proactives et des signalements des utilisateurs, Telegram traite des milliers de signalements sur le CSAM provenant d'organisations tierces internationales via des adresses email automatisées.

Les appels à la violence et la propagande terroriste n'ont pas leur place sur Telegram. Depuis 2016, Telegram publie des rapports transparents quotidiennement sur la suppression des contenus terroristes. Les efforts de Telegram en matière de lutte contre le terrorisme ont été reconnus par Europol. Depuis 2022, Telegram a considérablement intensifié ses efforts en partenariat avec des organisations telles que l'ETIDAL, le Centre mondial de lutte contre l'idéologie extrémiste. Rien qu'en collaborant avec l'ETIDAL, les modérateurs de Telegram ont supprimé plus de 100 millions de contenus terroristes.
Source : Telegram

Et vous ?

Pensez-vous que ces rapports de modération de Telegram sont crédibles ou pertinents ?
Quel est votre avis sur la situation ?

Voir aussi :

Les discours haineux sur Telegram ont augmenté de 433 % depuis le 7 octobre 2023 et les nouvelles politiques de confidentialité sont jugées inutiles par les experts, selon un rapport

L'échec des systèmes IA de modération de Meta : des centaines de publicités pour des drogues passent à travers les mailles du filet, malgré ses politiques qui en interdisent la promotion

Telegram, le service de messagerie dont le patron a été arrêté en France, refuse de participer aux programmes internationaux visant à détecter et à supprimer les contenus pédopornographiques en ligne

Une erreur dans cette actualité ? Signalez-nous-la !