RAPPORT DE TRANSPARENCE DE LA PLATEFORME TIKTOK
1er juillet 2019 –31 décembre 2019
Date de publication : 9 juin 2020
Introduction
TikTok est une plateforme d'expression créative et nous encourageons nos utilisateurs à y partager ce qui les rend uniques.
Evoluer dans un environnement sûr permet à nos utilisateurs de se sentir à l'aise, libre de s'exprimer et de laisser libre cours à leur créativité. C’est pourquoi notre priorité absolue est de leur offrir un environnement sûr et une expérience positive.
Notre avons publié notre premier rapport de transparence le 30 décembre 2019 et nous nous sommes engagés à informer notre communauté de façon régulière afin de lui présenter la façon dont nous répondons aux demandes d'obtention de données et dont nous protégeons la propriété intellectuelle et ce, de façon responsable.
Le rapport de transparence a été complété pour fournir des informations concernant :
- Notre approche et nos politiques pour assurer la sécurité de notre communauté ;
- La manière dont nous définissons et renforçons nos Règles Communautaires ;
- Les outils mis à disposition de notre communauté et les démarches éducatives et de sensibilisation mises en oeuvre ;
- Le volume de vidéos supprimées pour non-respect de nos Règles Communautaires.
En complément, nous commençons à prendre en compte des éléments de mesure en lien avec neuf catégories de contenus.
Fin 2019, nous avons mis en place une nouvelle infrastructure de modération de contenu qui nous permet d'offrir plus de transparence lorsque nous indiquons les raisons pour lesquelles un contenu a été retiré. Dans ce rapport, nous mettons en avant les raisons qui ont conduit à la suppression de vidéos durant le mois de décembre au regard de cette nouvelle infrastructure de modération. Dans nos prochains rapports nous pourrons présenter ses données sur une période complète de six mois.
Nous mettons tout en oeuvre pour mériter chaque jour la confiance de notre communauté. Aussi, nous continuerons sans cesse à faire évoluer nos rapports de transparence afin de répondre aux questions de nos utilisateurs, du législateur et d'experts. Notre but principal est que TikTok reste un lieu source d'inspiration et de divertissement pour tous.
TikTok s'engage pleinement à assurer la sécurité de ses utilisateurs
Pour TikTok, rien n'est plus important que d'assurer la sécurité de ses utilisateurs. En tant que plateforme mondiale, des milliers de collaborateurs travaillent au maintien d'un environnement sûr. Les contenus et comportements en ligne sont traités par un ensemble de règles, de technologies et de modérations, qui peuvent mener à la suppression de vidéos, au bannissement de comptes qui iraient à l'encontre de nos Règles Communautaires et de nos Conditions de Services.
Responsabiliser la communauté via différents outils
En plus des technologies et des systèmes de modération mis en place (voir ci-dessous), de nombreuses fonctionnalités sont à la disposition des utilisateurs pour qu'ils puissent prendre le contrôle de leur expérience en ligne. Il s'agit de moyens très simples à activer pour restreindre l'accès à leur contenu, définir des filtres de commentaires automatiques, désactiver la fonction de messagerie ou bloquer d’autres utilisateurs. De plus, s'ils constatent un manquement à nos Règles Communautaires, nous les invitons à le signaler auprès de nos équipes, directement depuis l’application.
Confidentialité des comptes
TikTok propose un large éventail de paramètres de confidentialité que les utilisateurs peuvent activer lors de la création de leur compte ou à tout autre moment. Actuellement, concernant les comptes privés, seuls les abonnés autorisés peuvent visionner ou commenter les vidéos de l’utilisateur concerné ou lui envoyer un message direct. La fonctionnalité de messagerie peut être très simplement désactivée ou bien encore limitée ; cette fonctionnalité est désactivée et inaccessible sur les comptes des utilisateurs de moins de 16 ans. Par ailleurs, les utilisateurs peuvent supprimer un abonné ou bien encore empêcher un autre utilisateur de les contacter.
Autres contrôles de contenus
Les créateurs de contenu doivent avoir le contrôle sur la façon dont les autres utilisateurs peuvent interagir avec leurs vidéos. TikTok propose aux utilisateurs de nombreuses options pour paramétrer leurs comptes et vidéos comme par exemple la possibilité de limiter les commentaires ou de décider de qui peut réaliser des duos. Ils peuvent également activer des filtres de commentaires en créant une liste personnalisée de mots clés qui seront automatiquement bloqués. Ils peuvent également désactiver les commentaires sur une vidéo spécifique, limiter les commentaires à un public sélectionné ou désactiver entièrement les commentaires sur leurs vidéos.
De plus, nous sensibilisons régulièrement nos utilisateurs aux options de sécurité et de bien-être digital à leur disposition via des formats vidéo diffusés sur l'application et le Centre de sécurité. Par exemple, nous avons réalisé avec l'aide de créateurs une série de vidéos qui encouragent les utilisateurs à maîtriser leur temps d'écran. Notre fonction de gestion du temps d'écran permet aux utilisateurs de fixer un seuil maximum d'utilisation de l'application. Ils peuvent également décider d'activer le mode restreint qui limite l'apparition de contenus qui pourraient ne pas convenir à tous les publics. Ces fonctionnalités sont disponibles en permanence dans la section Bien-être numérique des paramètres de l'application.
Accorder nos Règles Communautaires avec les attentes de notre communauté
TikTok est une communauté mondiale dont les membres sont à la recherche d'une expérience authentique et positive. Notre engagement envers notre communauté débute avec nos Règles Communautaires. Elles constituent un code de conduite qui permet de proposer un environnement sécurisé et bienveillant. Ces Règles Communautaires sont régulièrement mises à jour afin de protéger nos utilisateurs de tendances et contenus qui pourraient être dangereux. Elles sont destinées à favoriser la confiance, le respect et la dimension positive de la communauté TikTok.
Nous attendons de l’ensemble de nos utilisateurs qu'ils respectent nos Règles Communautaires pour que TikTok reste un lieu divertissant, fun, où chacun est le bienvenu. Le non-respect de ces règles peut entraîner la suppression de contenus et de comptes.
Application de nos règles
A travers le monde, des dizaines de milliers de vidéos sont téléchargées sur TikTok chaque minute. Chacune de ces vidéos exige une responsabilité accrue de notre part pour protéger la sécurité et le bien-être de nos utilisateurs. Pour faire respecter nos Règles Communautaires, nous utilisons un ensemble de technologies et de systèmes de modération de contenu qui identifient et suppriment les contenus et les comptes qui les transgresseraient.
Technologie
Le volet technologique est un élément clé dans la mise en œuvre de nos politiques ; nos systèmes sont développés pour signaler automatiquement les contenus qui pourraient transgresser nos Règles Communautaires. Ces systèmes prennent en compte des modèles d'identification de formes ou de comportements afin de signaler les contenus susceptibles d'enfreindre nos Règles Communautaires. Ceci nous permet de prendre des mesures rapides et de limiter les préjudices éventuels. Par exemple, la grande majorité des contenus tels que les spams et les escroqueries sont automatiquement supprimés. Nous étudions régulièrement l'évolution des tendances, les résultats de travaux universitaires et les meilleures pratiques du secteur pour améliorer constamment nos systèmes.
Contenu supprimé durant le second semestre 2019
Sur la seconde partie de l'année (du 1e juillet au 31 décembre 2019), nous avons supprimé 49.247.689 de vidéos au global ce qui représente moins de 1% de l'ensemble des vidéos créées par nos utilisateurs. Ces vidéos ont été supprimées pour avoir avoir avoir enfreint nos Règles Communautaires ou nos conditions de services. Nos systèmes ont proactivement identifié et supprimé 98.2% de ces vidéos avant qu'un utilisateur ne les signale. Sur l'ensemble des vidéos, supprimées, 89.4% l'ont été avant qu'elles aient été vues.
Le tableau ci-après présente les 5 marchés avec le plus grand nombre de vidéos supprimées.
Fin 2019, nous avons mis place un nouveau système de modération de contenu qui nous permet d'offrir plus de transparence lors de l'indication des raisons pour lesquelles un contenu a été retiré. Lorsqu'une vidéo va à l'encontre de nos Règles Communautaires, elle est identifiée en fonction de la règle ou des différentes règles qu'elle enfreint et est ensuite supprimée. Ainsi, une même vidéo peut apparaitre sous de multiples catégories. Pour le mois de décembre 2019, lorsque nous avons mis en place notre nouveau système de modération de contenu, la répartition des règles enfreintes s'appuie sur ces nouvelles catégories.
Au cours du mois de décembre, 25,5% des vidéos retirées l'ont été sous la catégorie 'Nudité Adulte et activités sexuelles'. Pour préserver la sécurité des enfants, 24,8% des vidéos ont été supprimées car elles enfreignaient nos règles relatives à la protection des mineurs. Ceci couvre des contenus tels que des comportements à risque, dangereux ou des comportements illégaux pour des mineurs comme la consommation d'alcool ou de drogue ou bien encore plus graves et pour lesquels nous avons décidé un retrait immédiat et la fermeture des comptes incriminés. Ces derniers ont été signalés auprès de la NCMEC et des autorités compétentes lorsque nécessaire. Les contenus liés aux activités illégales et marchandises réglementées représentent 21,5% des suppressions. En outre, 15,6% des vidéos retirées l'ont été pour avoir enfreint nos règles relatives au suicide, à l'automutilation ou pour comportement dangereux qui reflète principalement la suppression de challenges à risque. Enfin, 8,6% des vidéos supprimées ont enfreint nos règles liées aux contenus violents et visuellement explicites ; 3% pour harcèlement ou intimidation ; et moins de 1% pour atteinte à nos règles relatives aux discours haineux, à l'intégrité et à l'authenticité ou relatives aux personnes ou organisations dangereuses.
Depuis, la majorité de nos contenus ont été traités par notre nouveau système de modération. Nos rapports ultérieurs comprendront des données plus détaillées, tant pour le contenu que les comptes et porteront sur l'ensemble de la période concernée.
Terminologie et définitions
Lorsque nous définissons quel contenu est adapté à la communauté TikTok, nous avons recours aux termes et définitions ci-dessous pour orienter notre stratégie de modération. Nous travaillons avec des experts reconnus et d’horizons très différents afin de mieux cerner un contexte réglementaire en constante évolution et d'élaborer des politiques et des stratégies de modération permettant de faire face aux contenus et aux comportements inappropriés et ce, dès leur apparition. Parmi eux, nous comptons les huit experts de notre conseil consultatif sur les contenus aux États-Unis et des organisations dont ConnectSafely.org, le National Center for Missing and Exploited Children et WePROTECT Global Alliance.
- Personnes et organisations dangereuses : les personnes ou organisations dangereuses qui pourraient promouvoir le terrorisme, la criminalité ou tout autre type de comportement susceptible de nuire ne sont pas autorisées sur notre plateforme. Lorsqu'il existe une menace crédible pour la sécurité publique, nous bannissons le compte et coopérons avec les autorités judiciaires compétentes.
- Activités illégales et marchandises réglementées : nous interdisons la commercialisation, la vente, la promotion et l'utilisation de certains produits réglementés, ainsi que la mise en avant ou la promotion d'activités criminelles. Certains contenus peuvent être supprimés s'ils se réfèrent à des activités ou à des produits considérés comme illégaux ou réglementés dans la majeure partie des régions du monde, même si ces activités ou produits ne sont pas illégaux dans la juridiction où ils ont été diffusés. Des exceptions sont autorisées pour les contenus qui s’avèrent utiles au public, tels que les contenus éducatifs, scientifiques, artistiques et d'actualités.
- Contenu violent et visuellement explicite : Nous n'autorisons pas les contenus qui sont excessivement dégradants ou choquants, en particulier ceux qui encouragent ou glorifient la violence extrême ou les souffrances. Des exceptions sont autorisées dans certaines circonstances, par exemple un contenu d'actualité ou destiné à sensibiliser le public. Lorsque nous identifions un risque réel de violence ou de menace pour la sécurité publique, nous bannissons le compte et collaborons avec les autorités judiciaires compétentes si nécessaire.
- Suicide, automutilation et actes dangereux : nous n'encourageons pas la participation à des activités susceptibles de nuire. Nous ne permettons pas non plus aux utilisateurs d'encourager d'autres personnes à prendre part à des activités dangereuses. Tout contenu qui encourage l'automutilation ou le suicide est interdit, mais nous permettons à nos utilisateurs de partager leurs expériences afin de sensibiliser à ces sujets.
Nous travaillons avec des experts du secteur à travers le monde pour parvenir à un mode de modération équilibré. Si des éléments indiquent un danger imminent d'automutilation, TikTok peut contacter les services d'urgence locaux pour qu’ils procèdent à une vérification de l'état de santé de l’utilisateur.
- Discours haineux : nous ne tolérons aucun contenu qui attaque ou incite à la violence contre une personne ou un groupe de personnes sur des critères distinctifs protégés par la loi. Nous interdisons tout contenu incluant un discours haineux et nous le supprimons de notre plateforme.
- Harcèlement et intimidation : les utilisateurs doivent se sentir en sécurité pour pouvoir s'exprimer sans craindre d'être rabaissés, humiliés, intimidés ou harcelés. Nous prenons très au sérieux la détresse psychologique que peut provoquer un contenu abusif sur une personne, et nous ne tolérons aucun contenu ou comportement abusif sur notre plateforme.
- Nudité et activités sexuelles des utilisateurs adultes : Nous n'autorisons pas de contenu sexuellement explicite ou gratifiant sur TikTok, y compris tout contenu visuel de cette nature. Tout contenu à connotation sexuelle comporte de nombreux risques, tels que des sanctions légales dans certaines juridictions et peut porter atteinte à nos utilisateurs en partageant des images non consenties (par exemple le "revenge porn"). De plus, dans certaines cultures, un contenu à caractère ouvertement sexuel peut choquer. Des exceptions concernant la nudité et un contenu sexuellement explicite sont autorisées à des fins éducatives, documentaires, scientifiques ou artistiques.
- Sécurité des mineurs : nous prenons très au sérieux la sécurité des enfants et appliquons une politique de tolérance zéro à l'égard de comportements prédateurs ou de pédopiégeage des mineurs (grooming). Nous interdisons tout contenu qui décrit ou diffuse des actes de maltraitante infantile, de nudité ou d’exploitation sexuelle d'enfants, tant en format numérique que réel, et nous signalons ce type de contenu aux autorités judiciaires compétentes. Nous interdisons aussi tout contenu représentant des mineurs qui se livrent à des activités délinquantes.
- Intégrité et authenticité : tout contenu qui vise à tromper ou à induire en erreur l'un de nos membres met en danger notre communauté basée sur la confiance. Nous n'autorisons pas de tels contenus sur notre plate-forme. Les activités telles que le "spamming", l'usurpation d'identité et les campagnes de désinformation sont également interdites.
Conformité des demandes des autorités locales
Les sections ci-dessous présentent le volume des demandes légales reçues des gouvernements et autorités locales dans le monde entier au cours du second semestre 2019 et la nature de notre réponse. Nous respectons les droits et la vie privée de nos utilisateurs. C'est pourquoi nous demandons aux autorités publiques de soumettre par écrit leur demande accompagnée des documents légaux appropriés. Nous ne prenons pas en compte des demandes qui ne sont effectuée par les voies appropriées.
Demandes légales d’information sur les utilisateurs
Toute demande d'information que nous recevons est soigneusement examinée afin de déterminer si elle est justifiée d'un point de vue légal ; par exemple si l'entité requérante est autorisée à recueillir des éléments de preuve dans le cadre d'une enquête policière ou à enquêter sur une situation d'urgence présentant un danger imminent. Pour en savoir plus sur nos politiques et pratiques, veuillez consulter nos Directives relatives aux demandes de données des services de lutte contre la criminalité.
Le tableau suivant indique le nombre de demandes d'information reçues par pays au cours de la deuxième moitié de 2019 (du 1er juillet au 31 décembre 2019) et le taux de réponse de notre société à ces demandes.
REMARQUE : TikTok n'a pas reçu de demande légale d'obtention de données de compte de la part de pays ou de marchés autres que ceux indiqués dans la liste ci-dessus.
Demandes de retrait de contenu émanants d'autorités publiques
De temps en temps, les autorités publiques nous soumettent des demandes en vue de retirer du contenu de notre plateforme comme par exemple concernant des législations locales interdisant les comportements obscènes, les discours haineux, des contenus d'adulte, etc... Nous examinons ces éléments conformément à nos Règles Communautaires, à nos Conditions de services, ainsi qu'à la législation en vigueur et prenons la décision adaptée. Si nous pensons qu'un signalement n'est pas légalement recevable ou ne va pas à l'encontre de nos standards, nous ne prenons aucune mesure.
Le tableau suivant présente les demandes reçues de la part de d'autorités publiques durant le second semestre 2019 (du 1er juillet au 31 décembre 2019) en vue de supprimer ou de limiter des contenus.
REMARQUE : TikTok n'a reçu aucune demande de la part d’autorités publiques de retrait ou de restriction de contenu provenant de pays ou de marchés autres que ceux présents dans la liste ci-dessus.
Demandes de retrait de contenu qui enfreint les lois relatives à la propriété Intellectuelle
TikTok repose sur la créativité de ses utilisateurs. La plateforme leur permet de s'exprimer en toute liberté et nous faisons tout pour la protéger. Nos Règles Communautaires et Conditions de services interdisent les contenus qui enfreignent les règles de propriété intellectuelle.
Nous traitons les demandes de retrait justifiées, sur la base du non-respect de la législation sur les droits d'auteur, notamment le Digital Millennium Copyright Act (DMCA). Dès réception d'une requête émanant d'un détenteur de droits portant sur une éventuelle atteinte à la propriété intellectuelle, TikTok retirera le contenu en infraction dans les meilleurs délais.
Toute activité qui enfreint les droits d'auteur de tiers peut entraîner la suspension ou la suppression du compte. Pour plus d'informations sur la manière dont nous évaluons les plaintes pour violation des droits d'auteur, veuillez consulter notre Politique sur la propriété intellectuelle.
REMARQUE : Seuls les signalements de violation des droits d'auteur émis par les détenteurs de droits d'auteur, leurs mandataires ou leurs avocats sont inclus dans nos chiffres relatifs au retrait des contenus protégés par des droits d'auteur.
Étape suivante
Nous sommes fiers des progrès que nous avons accomplis pour que TikTok soit une communauté authentique, inclusive et sûre pour tous ceux qui veulent y exprimer leur créativité. Mais nous avons conscience que nous pouvons faire plus. Aussi, nous vous invitons à nous faire part de vos commentaires concernant ce rapport en nous contactant par email via l'adresse transparencyreport [at] tiktok [point] com