Skip to main content
Mensen veilig houden

Onze contentmoderatie aanpak

Miljoenen mensen van over de hele wereld creëren, delen, ontdekken en verbinden op TikTok, en we doen er alles om onze groeiende community een veilige, inclusieve en authentieke omgeving te kunnen blijven bieden. Meer dan 40.000 beveiligingsprofessionals werken hard om TikTok veilig te houden.


De regels vaststellen voor een veilige TikTok-ervaring

In onze Communityrichtlijnen hebben we de normen en gedragscode vastgesteld waarmee we een veilige en inclusieve omgeving voor onze community kunnen handhaven, en waarmee we oprecht contact en authentieke content aanmoedigen. Ons beleid is ontwikkeld door experts vanuit verschillende disciplines en we streven ernaar om deze regels op een rechtvaardige, consequente en eerlijke manier te handhaven. We reviewen en updaten onze Communityrichtlijnen regelmatig zodat ze aansluiten bij nieuw gedrag en nieuwe risico´s. Ons doel is om onze gevarieerde community een veilige en aantrekkelijke ervaring te bieden.

Handhaven van onze Communityrichtlijnen

Om onze community en ons platform te beschermen, verwijderen we content en accounts die onze Communityrichtlijnen schenden. Creators worden hiervan op de hoogte gesteld, met de reden van verwijdering en ze krijgen de mogelijkheid om hiertegen bezwaar aan te tekenen. Verder, als content door ons wordt beschouwd als niet geschikt voor 13 en ouder, komt die content niet in aanmerking voor aanbeveling in de Voor jou-feed. \Om onze Communityrichtlijnen effectief te kunnen handhaven, maken we gebruik van een combinatie van technologie en moderatoren.

Geautomatiseerde moderatietechnologie

Video´s die zijn geüpload naar TikTok worden eerst beoordeeld met onze geautomatiseerde moderatietechnologie, dat als doel heeft om content te identificeren die in strijd is met onze Communityrichtlijnen. Deze systemen zoeken naar verschillende signalen binnen de content, zoals bepaalde trefwoorden, afbeeldingen, titels, beschrijvingen en audio. Als er geen schending is gevonden, kan de content worden bekeken op het platform. Als er een mogelijke schending is gevonden, wordt de content door het geautomatiseerde moderatiesysteem of doorverwezen naar ons veiligheidsteam voor verdere controle of automatisch verwijderd, als met grote mate van zekerheid is vastgesteld dat de content onze Communityrichtlijnen schendt. Deze automatische verwijdering gebeurt als schendingen overduidelijk zijn, zoals bij naaktheid of als de veiligheid van jongeren in het geding is. Wij blijven investeren in het verbeteren van de accuraatheid van onze geautomatiseerde moderatiesystemen, zodat wij overtredende content op grotere schaal effectiever kunnen verwijderen en tegelijkertijd het aantal onjuiste verwijderingen kunnen verminderen; als gebruikers menen dat wij een fout hebben gemaakt, kunnen zij in beroep gaan tegen de verwijdering van hun content.

Contentmoderators

Voor een eerlijke en consistente beoordeling van potentieel schendende content, zijn er naast onze geautomatiseerde moderatiesystemen ook moderators werkzaam. Zij houden rekening met extra context en nuance die niet altijd door de technologie worden opgepikt. Wij modereren content in meer dan 70 talen, met gespecialiseerde moderatieteams die complexe problemen aanpakken, zoals desinformatie.

Met menselijke controle verbeteren we tevens onze geautomatiseerde moderatiesystemen doordat feedback wordt gegeven aan de onderliggende machine learning-modellen. Zo versterken we voortdurend de detectiemogelijkheden. Deze continue verbetering helpt het aantal potentieel verontrustende video’s die moderatoren bekijken te verminderen, waardoor ze zich meer kunnen richten op de content waarvoor meer begrip van context en nuance nodig is.

Dit zijn de verantwoordelijkheden van contentmoderators:

  • Content bekijken die door de technologie is opgemerkt: Als onze geautomatiseerde moderatiesystemen mogelijk problematische content oppikken, maar geen automatische beslissing kunnen nemen om deze te verwijderen, wordt de content doorgestuurd naar onze veiligheidsteams voor verdere review. Om dit werk te ondersteunen, hebben we technologie ontwikkeld waarmee risicovolle of verdachte items in videoframes kunnen worden geïdentificeerd, zoals wapens. De contentmoderators kunnen vervolgens de video zorgvuldig binnen de context bekijken. Door deze technologie kunnen moderators efficiënter werken doordat ze overtredende beelden of objecten beter kunnen identificeren, schendingen snel kunnen herkennen en op basis daarvan beslissingen kunnen nemen.
  • Rapporten van onze community bekijken: We bieden onze community gebruiksvriendelijke apps en online rapportagetools zodat ze content kunnen melden waarvan ze vinden dat het onze Communityrichtlijnen schendt. Hoewel deze rapporten belangrijk zijn, wordt het grootste deel van de verwijderde content proactief herkend, voordat deze bekeken wordt of aan ons wordt gerapporteerd.
  • Populaire content reviewen: Schadelijke content heeft de potentie om snel populair te worden en kan zo een bedreiging vormen voor onze community. Om dit risico te verkleinen, kunnen door onze geautomatiseerde moderatiesystemen video´s die veel worden bekeken worden doorgestuurd naar onze contentmoderators om te bekijken of ze voldoen aan onze Communityrichtlijnen.
  • Bezwaren beoordelen: Als gebruikers niet akkoord gaat met onze beslissing om hun content of account te verwijderen, kunnen ze een bezwaar indienen voor heroverweging. Deze bezwaren worden doorgestuurd naar de contentmoderators, die vervolgens bepalen of de content weer vertoond mag worden op het platform of dat het account weer actief mag worden.

Een zorgzame werkomgeving creëren voor betrouwbaarheids- en veiligheidsprofessionals

We streven ernaar om een zorgzame werkomgeving te creëren voor werknemers, en betrouwbaarheids- en veiligheidsprofessionals in het bijzonder. We gebruiken een bewezen aanpak om programma´s en bronnen te ontwikkelen waarmee we moderators ondersteunen bij hun geestelijk welzijn.

Wij richten ons vooral op preventieve zorgmaatregelen om het risico op psychisch letsel te minimaliseren met goed getimede ondersteuning, opleiding en tools, direct vanaf de aanstelling en vervolgens doorlopend tijdens het hele dienstverband. Zo willen we onze medewerkers veerkrachtiger maken en het risico op psychisch letsel minimaliseren. Dit kunnen tools en functies zijn waarmee werknemers de blootstelling aan grafische inhoud zelf kunnen controleren als ze content modereren of bekijken, zoals grijs maken, dempen en vervagen; training voor managers om hen te helpen herkennen wanneer een teamlid extra psychische ondersteuning nodig heeft; en klinische en therapeutische ondersteuning.

We bieden onze betrouwbaarheids- en veiligheidsprofessionals een lidmaatschap aan van de Trust and Safety Professional Association (TSPA). Via dit lidmaatschap hebben ze toegang tot bronnen bedoeld voor loopbaanontwikkeling, kunnen ze deelnemen aan workshops en events en contacten leggen met collega´s binnen de hele branche.

Samenwerken aan succes

We merken dat een van de beste manieren om onze community te beschermen doorlopend contact en samenwerking is met verschillende experts en groepen die gespecialiseerd zijn op gebieden zoals gezinsveiligheid, wellness, digitale geletterdheid, fact-checking, desinformatie en online beveiliging.

Ook hebben we speciale regionale Veiligheidsadviesraden, waaronder een Contentadviesraad uit de VS, waarin onafhankelijke deskundigen op het gebied van online veiligheid zitting hebben om ons te helpen toekomstige Communityrichtlijnen en functies te ontwikkelen die niet alleen de uitdagingen van nu aanpakken, maar ons ook voorbereiden op toekomstige problemen in de sector.

Deze cruciale partnerschappen helpen ons de handhaving van onze Communityrichtlijnen te verbeteren, de veiligheids- en privacycontroles van ons platform te versterken en onze educatieve middelen uit te breiden, aangezien wij streven naar een veilige, inclusieve en authentieke omgeving voor onze community.

Was dit nuttig?

thumps upJathumps downNee