Rapporto sulla Trasparenza di TikTok 2019 H2

Rapporto sulla Trasparenza di TikTok

1° luglio 2019 - 31 dicembre 2019

Data di pubblicazione: 9 luglio 2020

Introduzione

TikTok si fonda sull'espressione creativa. Incoraggiamo i nostri utenti a celebrare ciò che li rende speciali all'interno della nostra community variegata e in continua crescita.  Sentirsi sicuri aiuta a esprimersi agevolmente e apertamente, permettendo alla creatività di prosperare. È per questo che la nostra priorità assoluta è quella di promuovere un'esperienza sicura e positiva per tutti gli utenti di TikTok. 
Abbiamo pubblicato il nostro primo Rapporto sulla trasparenza il 30 dicembre 2019 e ci siamo impegnati ad aggiornare regolarmente la nostra community in merito a come stiamo rispondendo responsabilmente alle richieste dati proteggendo la proprietà intellettuale.  Questa volta abbiamo ampliato il rapporto in modo da aggiungere informazioni relative a:

  • Il nostro approccio e le nostre politiche per la protezione della sicurezza della nostra community
  • Il modo in cui determiniamo e applichiamo le Linee guida della Community
  • Il modo in cui rafforziamo la nostra community con strumenti e insegnamenti
  • Il volume di video eliminati per violazioni delle Linee guida della Community

Inoltre, stiamo iniziando a segnalare i parametri di moderazione dei contenuti rispetto a nove delle nostre categorie di norme in materia. Alla fine dello scorso anno, abbiamo iniziato ad implementare una nuova infrastruttura di moderazione dei contenuti che ci permette di avere una maggiore trasparenza nel comunicare i motivi che hanno portato alla rimozione dei video che hanno violato le nostre linee guida. In questo rapporto, condivideremo i motivi per cui i video sono stati rimossi nel solo mese di Dicembre, ma nelle prossime edizioni saremo in grado di comunicare questi dati per la totalità dei sei mesi. 
Ci impegniamo quotidianamente a guadagnare la fiducia della nostra community. Continueremo a sviluppare questo Rapporto in base al feedback che riceveremo dai nostri utenti, policymaker ed esperti. Il nostro obiettivo finale è quello di dare la massima visibilità alle nostre procedure e alle nostre azioni in modo che TikTok possa continuare a essere per tutti un ambiente allegro e stimolante. 

TikTok è totalmente impegnato a garantire la sicurezza dei nostri utenti

Non c'è niente di più importante per noi della protezione della sicurezza dei nostri utenti. Come piattaforma globale, impieghiamo migliaia di persone che operano nei mercati in cui è presente TikTok per mantenere un ambiente sicuro e protetto. Rispondiamo a comportamenti e contenuti problematici mediante un insieme articolato di politiche, tecnologie e azioni di moderazione, che possono includere la rimozione di video o il blocco di account che violano le Linee Guida della Community o i Termini di servizio.

Strumenti per supportare la nostra community                                     

Oltre alle misure tecnologiche e alle azioni di moderazione (di cui si daranno maggiori dettagli a breve), abbiamo anche messo a disposizione dei nostri utenti numerosi meccanismi di controllo in modo che possano gestire in autonomia la propria esperienza. Queste semplici opzioni permettono agli utenti di limitare chi può interagire con i loro contenuti, filtrare i commenti, disabilitare completamente i messaggi o bloccare altri utenti. Infine, se dovessero notare qualcosa che violi le Linee Guida della Community, possono inviare una segnalazione al nostro team direttamente dalla app.

Privacy dell'account                            

TikTok offre una vasta gamma di impostazioni di privacy attivabili dagli utenti sia in fase di configurazione dell'account, sia in un qualsiasi momento successivo. Per esempio, con un account privato, soltanto i follower approvati potranno visionare o commentare i video di un utente o inviargli un messaggio diretto. La funzionalità Messaggi Diretti può inoltre essere facilmente limitata o totalmente disattivata, per gli account degli utenti di età inferiore ai 16 anni questa viene invece disabilitata automaticamente. Inoltre, gli utenti possono rimuovere un follower oppure bloccare un altro utente per non essere contattati.

Ulteriori controlli sui contenuti

I creator producono i propri contenuti ed è giusto che possano esercitare un controllo sulle modalità di interazione permesse agli altri utenti.  TikTok offre agli utenti robuste opzioni a livello di account e di video per la personalizzazione delle impostazioni dei propri contenuti, per esempio, la possibilità di restringere la lista delle persone abilitate a commentare o duettare con un video pubblicato. Gli utenti possono anche applicare filtri ai commenti in entrata, creando un elenco personalizzato di parole chiave che verranno automaticamente bloccate dai commenti relativi ai propri video. Gli utenti possono scegliere, in alternativa, di disabilitare i commenti relativi a un determinato video, limitare i commenti a un pubblico predefinito o disattivare del tutto la possibilità di commentare i loro video.
Inoltre, forniamo attivamente istruzioni agli utenti circa le opzioni disponibili mediante appositi video sulla sicurezza e il benessere, contenuti in-app e anche attraverso il nostro Centro Sicurezza. Ad esempio, abbiamo collaborato con alcuni dei nostri migliori creator per produrre una serie di video che incoraggiano gli utenti a tenere d'occhio il tempo passato davanti allo schermo. La nostra funzione di Gestione del Tempo consente agli utenti di fissare un limite al tempo che vogliono trascorrere su TikTok. Un utente può anche scegliere di abilitare la Modalità limitata, che pone delle restrizioni alla comparsa di contenuti che potrebbero non essere adatti a tutti i tipi di pubblico. Queste funzionalità sono sempre disponibili nella sezione Controllo Applicazione, all’interno delle impostazioni dell'app. 

La defizionione delle aspettative dei nostri utenti attraverso le Linee Guida della Community

TikTok è una community globale di persone desiderose di vivere un'esperienza autentica e positiva. Il nostro impegno nei confronti degli utenti inizia dalle nostre politiche, le quali sono state definite nelle Linee Guida della Community. Queste ultime costituiscono un importante codice di condotta per garantire un ambiente sicuro e amichevole. Aggiorniamo periodicamente queste linee guida per proteggere i nostri utenti da tendenze e contenuti in evoluzione che potrebbero non essere sicuri. Inoltre, sono state pensate per contribuire a diffondere un senso di fiducia, rispetto e positività all'interno della commmunity di TikTok.
Confidiamo che tutti gli utenti rispettino le Linee Guida della Community mantenendo l'esperienza su TikTok positiva ed accogliente per tutti. In caso di violazione di queste norme potrebbe essere necessario procedere alla rimozione di contenuti o account

L'applicazione delle nostre politiche

Ogni minuto decine di migliaia di video in tutto il mondo vengono caricati su TikTok. Ogni nuovo video determina una maggiore responsabilità da parte nostra per proteggere la sicurezza e il benessere dei nostri utenti. Per applicare le Linee Guida della Community, usiamo una combinazione di tecnologie e moderazione di contenuti per identificare e rimuovere i video e gli account che hanno violato le linee guida.

Tecnologia

La tecnologia è un aspetto fondamentale nell'attuazione delle nostre policy, i nostri sistemi sono stati sviluppati in modo da identificare automaticamente i contenuti che potrebbero violare le Linee Guida della Community. Questi sistemi tengono conto di elementi come modelli o segnali comportamentali per contrassegnare i contenuti che costituiscono potenziali violazioni, e questo ci consente di intervenire rapidamente e limitare eventuali problemi. Studiamo regolarmente le tendenze in evoluzione, i risultati della ricerca e le migliori pratiche del settore allo scopo di migliorare continuamente i nostri sistemi. 

Moderazione dei contenuti                                 

La tecnologia che abbiamo a disposizione oggi non è sufficiente, da sola, ad assicurare che le policy vengano rispettate. Ad esempio, conoscere il contesto locale è importante per determinare se alcuni determinati tipi di contenuto, come la satira, costituisce una violazione. Pertanto, il nostro team di moderatori qualificati, contribuisce ad analizzare e rimuovere i contenuti che violano le nostre regole. In alcuni casi, il team rimuove proattivamente i contenuti violativi in evoluzione o di tendenza, come challenge pericolose o disinformazione che può causare danni. 
Un altro modo in cui moderiamo i contenuti si basa sulle segnalazioni che riceviamo dai nostri utenti. Cerchiamo di facilitare agli utenti la segnalazione di contenuti o account potenzialmente inappropriati tramite la nostra funzione di segnalazione in-app, che consente a un utente di scegliere da un elenco di motivi per cui pensano che qualcosa potrebbe violare le nostre linee guida (come violenza o lesioni, molestie o incitamento all'odio). Successivamente, i moderatori valutano i contenuti segnalati per verificare se violano le Linee Guida della Community o i Termini di Servizio di TikTok: se la violazione è confermata, il contenuto viene rimosso.

Contenuti su cui si è intervenuto nel secondo semestre del 2019

Nel secondo semestre dell'anno scorso (1° luglio - 31 dicembre 2019), abbiamo rimosso a livello globale 49,247,689 video, ovvero meno dell'1% di tutti i video creati dai nostri utenti, per aver violato le Linee Guida della Community o i Termini di servizio. I nostri sistemi hanno individuato e rimosso proattivamente il 98.2% di questi video prima di ricevere segnalazioni da parte dei nostri utenti.  E fra i video totali rimossi, l’89,4% è stato rimosso prima ancora che altri utenti li visualizzassero. 
La tabella qui sotto mostra i 5 paesi con il maggior numero di video rimossi.

Paese Totale Video Rimossi
India 16,453,360
Stati Uniti 4,576,888
Pakistan 3,728,162
Regno Unito 2,022,728
Russia 1,258,853

Alla fine dell'anno scorso abbiamo iniziato a implementare una nuova infrastruttura di moderazione dei contenuti che ci consente di essere più trasparenti nel segnalare i motivi per cui i video vengono rimossi dalla nostra piattaforma. Quando un video viola le Linee Guida della Community, esso viene etichettato con la policy o le norme che viola e viene rimosso. Ciò significa che lo stesso video può apparire in più categorie. Per il mese di dicembre 2019, durante il quale è entrata in funzione la nostra nuova infrastruttura di moderazione dei contenuti, forniamo un'analisi delle categorie per i video rimossi tramite questa stessa.
Durante il mese di dicembre, il 25,5% dei video che abbiamo rimosso rientrava nella categoria della nudità adulta e delle attività sessuali. Per un eccesso di prudenza e al fine di tutelare gli utenti più giovani, il 24,8% dei video che abbiamo rimosso ha violato le nostre norme di sicurezza per i minori, che includono i contenuti che rappresentano comportamenti dannosi, pericolosi o illegali per i minori, come consumo di bevande alcoliche o droghe, nonché contenuti più gravi per i quali prendiamo immediatamente azioni per rimuovere, chiudere gli account e riferire all'NCMEC e alle forze dell'ordine, a seconda dei casi. I contenuti contenenti attività illegali e merci regolamentate costituivano il 21,5% delle rimozioni. Inoltre, il 15,6% dei video rimossi violava le nostre norme in materia di suicidio, autolesionismo e atti pericolosi, il che dimostra il nostro impegno nell'eliminare challenge pericolose.  Dei rimanenti video rimossi, l'8,6% ha violato la policy riguardante contenuti violenti ed espliciti; il 3% è racchiuso nella categoria di molestie e bullismo; e meno dell'1% conteneva contenuti che violavano le norme in materia di incitamento all'odio, integrità e autenticità, oltre a individui e organizzazioni pericolosi.
Da allora abbiamo trasferito la maggior parte delle code di revisione dei contenuti al nostro nuovo sistema di moderazione dei contenuti. Le future relazioni includeranno dati più dettagliati per l'intero periodo di tempo di ogni report.

Terminologia e definizioni                                                           

Nel determinare quali contenuti sono appropriati per la community di TikTok, utilizziamo i seguenti termini e definizioni per orientare la nostra strategia di moderazione. Collaboriamo con una serie di esperti di fiducia che ci aiutano a capire il contesto mutevole delle politiche in questo settore e a realizzare policy e strategie di moderazione per rispondere a contenuti e a comportamenti complessi a mano a mano che si presentano. Tra i nostri collaboratori vi sono  gli otto esperti del nostro Gruppo Consulente sui Contenuti negli Stati Uniti (U.S. Content Advisory Panel) e organizzazioni come ConnectSafely.org, il National Center for Missing and Exploited Children, WePROTECT Global Alliance, e altre ancora.

  • Individui e organizzazioni pericolosi: Non permettiamo a individui o organizzazioni pericolosi di utilizzare la nostra piattaforma per promuovere terrorismo, criminalità o altri comportamenti potenzialmente dannosi. Quando esiste una minaccia credibile per la sicurezza pubblica, rispondiamo bloccando l'account e collaborando con le autorità legali competenti secondo necessità e al momento opportuno.
  • Attività illegali e beni regolamentati: vietiamo il commercio, la vendita, la promozione e l'uso di determinati beni regolamentati, nonché la rappresentazione e la promozione di attività criminali. Alcuni contenuti potranno essere rimossi se si riferiscono ad attività o beni illegali o regolamentati nella maggior parte della regione o del mondo, anche se le attività o i beni in questione sono legali in base alle leggi locali nel luogo in cui vengono postati i contenuti.  Vengono ammesse eccezioni per i contenuti che costituiscono un valore per il pubblico, ad esempio i contenuti educativi, scientifici, artistici o significativi a titolo informativo.
  • Contenuti violenti ed espliciti: non permettiamo contenuti eccessivamente macabri o scioccanti, in particolare quelli che promuovono o esaltano la violenza o la sofferenza estrema. Vengono ammesse eccezioni in casi particolari, ad esempio per contenuti significativi a titolo informativo o che si propongono di svolgere opera di sensibilizzazione riguardo a determinate tematiche. Quando individuiamo un rischio reale di violenza o minaccia alla sicurezza pubblica, l'account viene bloccato e collaboriamo con le autorità legali competenti, secondo necessità e al momento opportuno.
  • Suicidio, autolesionismo e atti pericolosi: non promuoviamo la partecipazione ad attività che potrebbero causare danni alle persone. Né consentiamo agli utenti di incoraggiare altri a partecipare ad attività pericolose. Non permettiamo contenuti che promuovono l'autolesionismo o il suicidio, ma consentiamo ai nostri utenti di condividere le proprie esperienze al fine di svolgere opera di sensibilizzazione riguardo a tali questioni. 
    TikTok collabora con esperti del settore in tutto il mondo per far sì che la nostra azione di moderazione possa essere equilibrata e corretta.  Se troviamo materiale che rivela la possibilità di un pericolo imminente di autolesionismo, TikTok può decidere di contattare i servizi di emergenza locali al fine di effettuare un controllo. 
  • Incitamento all'odio: non tolleriamo contenuti che attaccano o incitano alla violenza contro un individuo o un gruppo di individui in base a caratteristiche protette. Non permettiamo contenuti nei quali figuri l'incitamento all'odio, e rimuoveremo tali contenuti dalla nostra piattaforma.
  • Molestie e bullismo: gli utenti devono sentirsi sicuri di esprimersi senza timore di scherno, umiliazione, bullismo o molestie. Siamo pienamente consapevoli del disagio psicologico che i contenuti offensivi possono causare sui singoli e non tolleriamo contenuti o comportamenti offensivi sulla nostra piattaforma.
  • Nudità adulta e attività sessuali: non permettiamo contenuti sessualmente espliciti o pruriginosi su TikTok, incluso quando vengono proposti sotto forma di animazioni. I contenuti sessualizzati espongono a diversi rischi, come le sanzioni legali che possono scattare in alcuni paesi o i danni che possono essere arrecati ai nostri utenti attraverso la condivisione non consensuale di materiale di questo tipo (ad esempio, in casi di pornovendetta). Inoltre, i contenuti esplicitamente sessuali possono essere offensivi in alcune culture. Sono ammesse eccezioni per contenuti contraddistinti da nudità o contenuti sessualmente espliciti nel caso in cui abbiano fini educativi, documentari, scientifici o artistici.
  • Sicurezza dei minori: siamo costantemente impegnati a garantire la sicurezza dei minori e non tolleriamo comportamenti predatori o di adescamento nei loro confronti. Non permettiamo contenuti che rappresentano o diffondono abusi su minori, nudità o sfruttamento sessuale di minori in formato sia digitale sia reale e segnaliamo tali contenuti alle autorità legali competenti. Inoltre, non sono consentiti contenuti raffiguranti minori coinvolti in comportamenti illeciti.
  • Integrità e autenticità: i contenuti intesi a ingannare o fuorviare qualsiasi utente mettono a repentaglio la nostra comunità, fondata sulla fiducia reciproca. Tali contenuti non sono consentiti sulla nostra piattaforma.  In questa categoria sono comprese le attività come spamming, sostituzione di persona e campagne di disinformazione.

Conformità con le richieste governative

Le sezioni seguenti forniscono informazioni riguardo al volume di richieste legali che abbiamo ricevuto dalle autorità governative in tutto il mondo durante il secondo semestre del 2019 e alle risposte che abbiamo dato nei vari casi. Onoriamo le richieste che ci vengono fatte attraverso i canali appropriati e dove richiesto dalla legge. In alcune limitate situazioni di emergenza, TikTok potrà condividere alcune informazioni su un utente senza alcun processo legale, qualora venga ritenuto in buona fede, che la condivisione di queste è necessaria a prevenire il rischio imminente di morte o di gravi lesioni fisiche a qualsiasi persona.

Richieste legali di informazioni relative a utenti

Qualsiasi richiesta di informazioni che riceviamo viene attentamente esaminata per accertarne la sufficienza giuridica per determinare, ad esempio, se l'ente richiedente è autorizzato a raccogliere prove in relazione a un'indagine delle forze dell'ordine o a indagare su un'emergenza che può comportare un danno imminente.  Per ulteriori informazioni sulle nostre politiche e pratiche, è possibile consultare le nostre Linee Guida per Richieste delle Autorità. 
La tabella seguente riporta il numero di richieste di informazioni che abbiamo ricevuto da singoli Paesi nel secondo semestre del 2019 (1° luglio - 31 dicembre 2019) e la percentuale dei casi in cui abbiamo accolto tali richieste. 

NOTA: TikTok non ha ricevuto alcuna richiesta legale di informazioni relative ad account da Paesi che non figurano in questo elenco. 

Richieste da parte delle Autorità relative alla rimozione di contenuti

Di tanto in tanto riceviamo richieste da parte delle Autorità per la rimozione di contenuti dalla nostra piattaforma, insieme a richieste sulle leggi locali che proibiscono l'oscenità, i discorsi di odio, i contenuti per adulti e altro ancora. Queste richieste vengono da noi esaminate seguendo le Linee Guida della Community, i Termini di servizio e la legge vigente per poi prendere le misure necessarie. Se riteniamo che una segnalazione non è legalmente valida o che non viola le nostre regole, ci riserviamo il diritto di non agire.
La tabella seguente riporta le richieste ricevute da enti legali nel secondo semestre del 2019 (1° luglio - 31 dicembre 2019) per la rimozione o la restrizione di contenuti. 

NOTA: TikTok non ha ricevuto alcuna richiesta da parte di autorità governative per la rimozione o la limitazione di contenuti da parte di Paesi che non figurano in questo elenco. 

Rimozioni per violazione della proprietà intellettuale

La creatività dei nostri utenti alimenta TikTok. Sulla piattaforma le loro capacità di espressione personale risplendono. Per tale ragione ci impegniamo per tenerle al sicuro.
Le Linee Guida della Community e i Termini di Servizio proibiscono quei contenuti che violano la proprietà intellettuale di terzi. Accogliamo le richieste di rimozione basate su violazioni della legge del copyright, come il Digital Millennium Copyright Act (DMCA). Dopo aver ricevuto una notifica 
da parte di un titolare di diritti di proprietà intellettuale riguardo a una potenziale violazione, TikTok procederà alla rimozione tempestiva dei contenuti che hanno determinato l'infrazione.
Qualsiasi attività che violi i diritti d'autore di terzi può determinare la sospensione o l'eliminazione dell'account coinvolto. Per ulteriori informazioni sulle modalità con cui valutiamo le denunce di violazione del diritto d’autore, è possibile consultare la nostra Politica sulla proprietà intellettuale

NOTA:  solo le notifiche di rimozione per violazione del copyright da parte dei legittimi proprietari, delle loro agenzie o avvocati sono incluse nelle nostre statistiche di rimozione dei contenuti protetti da copyright.

Prossimi passi

Siamo orgogliosi dei progressi che abbiamo compiuto per assicurare che TikTok sia una comunità autentica, inclusiva e sicura per chiunque voglia esprimere i propri talenti creativi.  Ma sappiamo che siamo in grado di fare ancora di più. Vi incoraggiamo a darci il vostro feedback su questo rapporto; potete mettervi in contatto con noi tramite l'indirizzo transparencyreport [at] tiktok [dot] com. Non vediamo l'ora di poter condividere ulteriori informazioni nel prossimo rapporto.   


Archivi del Rapporto sulla Trasparenza

1° gennaio - 30 giugno 2020
1° luglio - 31 dicembre 2019
1° gennaio - 30 giugno 2019