Sicherheitszentrum

TikTok Transparenzbericht

01. Juli 2019 - 31. Dezember 2019

veröffentlicht: 09. Juli 2020

Einleitung

TikTok ist eine Plattform für Kreativität. In einer diversen und wachsenden Gemeinschaft regen wir unsere Nutzer*innen dazu an, das zu feiern, was sie einzigartig macht. Wir wollen unseren Nutzer*innen eine sichere Umgebung bieten, damit sie ihre Kreativität entfalten und sich wohlfühlen können. Daher ist es unsere Top-Priorität, eine sichere und positive Erfahrung für alle auf TikTok zu fördern. 

Unseren ersten Transparenzbericht haben wir am 30. Dezember 2019 veröffentlicht. Wir haben es uns zur Aufgabe gemacht, unsere Gemeinschaft regelmäßig darüber zu informieren, wie wir auf verantwortungsbewusste Art und Weise auf Datenanfragen reagieren und wie wir geistiges Eigentum schützen. 

Mit unserem aktuellen Bericht wollen wir noch transparenter informieren und zusätzlich folgende Punkte veröffentlichen:                     

  • Unser Ansatz und unsere Grundsätze zum Schutz der Sicherheit unserer Community
  • Wie wir unsere Community-Richtlinien festlegen und umsetzen
  • Wie wir unserer Gemeinschaft die notwendigen Tools und Informationen an die Hand geben
  • Die Anzahl der Videos, die aufgrund von Verstößen gegen die Community-Richtlinien entfernt werden

Wir berichten außerdem Zahlen zur Moderation von Inhalten in neun Kategorien. 

Ende vergangenen Jahres haben wir mit der Einführung einer neuen Infrastruktur zur Moderation von Inhalten begonnen, die es uns ermöglicht, transparenter über die Gründe zu berichten, warum bestimmte Videos entfernt wurden. In diesem Bericht veröffentlichen wir die Gründe, weshalb Videos im Dezember entfernt wurden, und zwar mit Hilfe unserer neuen Infrastruktur zur Moderation von Inhalten. In den nachfolgenden Berichten können wir diese Daten dann für den gesamten Sechsmonatszeitraum mitteilen.

Wir setzen uns jeden Tag aufs neue dafür ein, das Vertrauen unserer Gemeinschaft zu verdienen. Wir werden diesen Bericht weiter ausbauen, um auf Feedback von unseren Nutzer*innen, politischen Entscheidungsträger*innen sowie Expert*innen einzugehen. Unser oberstes Ziel ist es, TikTok als einen Ort zu bewahren, der alle inspiriert und allen Freude macht. 

Die Sicherheit unserer Nutzer*innen hat für TikTok oberste Priorität

Es gibt nichts Wichtigeres für uns als die Sicherheit unserer Nutzer*innen. Wir sind eine globale Plattform - In allen Märkten, in denen TikTok vertreten ist, arbeiten tausende Menschen tagtäglich daran, ein sicheres, geschütztes App-Umfeld aufrechtzuerhalten. Wir gehen auf problematisches Verhalten und problematischen Inhalt mithilfe einer Kombination aus Richtlinien, Technologie und Moderation ein, wozu auch das Entfernen von Videos oder das Verbot von Konten gehören können, die gegen die Community-Richtlinien oder die  Nutzungsbedingungen verstoßen. 

Wir versorgen unsere Community mit den richtigen Tools                                      

Zusätzlich zu den Technologie- und Moderationsmaßnahmen (mehr dazu weiter unten), geben wir unseren Nutzer*innen direkte Kontrolle über Tools, mit denen sie ihre eigene Erfahrung verwalten und kontrollieren können. Mit diesen Kontrollmöglichkeiten können Nutzer*innen auf unkomplizierte Weise einschränken, wer ihren Inhalt sehen und mit ihnen interagieren kann. Sie können außerdem automatische Kommentarfilter einstellen, Nachrichten deaktivieren oder andere Nutzer*innen blockieren. Inhalte, die ihrer Meinung nach gegen unsere Community-Richtlinien verstoßen, können Nutzer*innen direkt in der App unserem Team melden.

Kontodatenschutz                                    

TikTok bietet ein vielfältiges Angebot an Datenschutzeinstellungen, die Nutzer*innen beim Einrichten des Kontos oder zu einem späteren Zeitpunkt aktivieren können. Bei einem privaten Konto beispielsweise können nur von Nutzer*innen zugelassene Follower deren Videos kommentieren oder eine Direktnachricht schicken. Der Nachrichtenaustausch kann jederzeit eingeschränkt oder vollkommen ausgeschaltet werden - für angemeldete Konten von Personen unter 16 Jahren ist diese Funktion außerdem automatisch deaktiviert. Nutzer*innen können Follower entfernen oder andere Nutzer*innen blockieren, sodass sie nicht kontaktiert werden können.

Zusätzliche Inhaltskontrollen

Creator*innen erschaffen ihre Inhalte und sollten daher auch Kontrolle darüber haben, wie andere mit diesen interagieren. TikTok gibt Nutzer*innen verschiedene Optionen, mit denen sie ihre Inhaltseinstellungen optimieren können - auf Kontoebene sowie für spezifische Videos. Beispielsweise können Nutzer*innen kontrollieren, wer kommentieren oder ein Duett mit einem ihrer Videos machen darf. Nutzer*innen können Kommentarfilter aktivieren, indem sie eine Liste mit ganz bestimmten Schlüsselwörtern erstellen, die automatisch in den Kommentaren zu ihren Videos blockiert werden sollen. Nutzer*innen können außerdem Kommentare zu einem bestimmten Video deaktivieren, Kommentare auf bestimmte Personen beschränken oder Kommentare zu Videos vollkommen ausschalten.

Eine weitere Maßnahme, um für die Sicherheit unserer Nutzer*innen zu sorgen, sind unsere in der App integrierten Videos zu Sicherheit und Wohlergehen ("Digital Wellbeing"). Wir informieren außerdem über unsere Sicherheitsmaßnahmen und -optionen in unserem Sicherheitszentrum. In diesem Zusammenhang haben wir mit einigen unserer Top Creator*innen an einer Videoserie gearbeitet, die Nutzer*innen auffordert, ihre Screen-Zeit im Auge zu behalten. Unsere Funktion  Screen-Zeitmanagement ("Screen Time Management") gestattet Nutzer*innen, eine Zeitgrenze für die in der TikTok App verbrachte Zeit zu setzen. Nutzer*innen können mit dem Eingeschränkten Modus ("Restricted Mode") das Anzeigen von Inhalten einschränken, der nicht für alle Altersgruppen geeignet ist. Diese Funktionen ist immer im Abschnitt zum "Digital Wellbeing" in unseren App-Einstellungen verfügbar.  

Erwartungen an die Community als Bestandteil unserer Community-Richtlinien

TikTok ist eine globale Gemeinschaft von Menschen, die nach einer authentischen und positiven Erfahrung suchen. Unser Engagement für diese Gemeinschaft beginnt mit unseren Community-Richtlinien. Unsere Community-Richtlinien sind ein wichtiger Verhaltenskodex für ein sicheres und freundliches Umfeld. Wir aktualisieren diese Richtlinien regelmäßig, um unsere Nutzer*innen vor Trends und Inhalten zu schützen, die möglicherweise nicht sicher sind. Sie sollen Vertrauen, Respekt und Positivität für die TikTok-Gemeinschaft fördern.

Wir vertrauen darauf, dass alle Nutzer*innen unsere Community-Richtlinien respektieren und dass TikTok damit für jeden eine einladende Plattform ist, die Spaß macht. Verstöße gegen diese Richtlinien können dazu führen, dass Inhalte oder Konten entfernt werden.

Durchsetzung unserer Richtlinien                                 

Weltweit werden jede Minute Zehntausende Videos auf TikTok hochgeladen. Mit jedem Video steigt auch unsere Verantwortung, die Sicherheit und das Wohlergehen unserer Nutzer*innen zu schützen. Um unsere Community-Richtlinien durchzusetzen, setzen wir eine Kombination aus Technologie und Inhaltsmoderation ein, um Inhalte und Konten, die gegen unsere Richtlinien verstoßen, zu erkennen und zu entfernen. 

Technologie

Technologie ist ein wichtiger Bestandteil der effektiven Durchsetzung unserer Richtlinien, und unsere Systeme wurden so entwickelt, dass sie automatisch Inhalt kennzeichnen, der möglicherweise gegen unsere Community-Richtlinien verstoßen könnte. 

Diese Systeme berücksichtigen u.a. Muster und Verhaltenssignale, um potentiell nicht erlaubte Inhalte zu kennzeichnen. So können wir schnell reagieren und potenziellen Schaden reduzieren.

Wir sehen uns regelmäßig die neuesten Trends, akademische Studien und Best Practices in der Industrie an, um unsere Systeme ständig zu verbessern. 

Inhaltsmoderation                            

Die Technologie ist heute noch nicht so fortgeschritten, dass wir uns bei der Durchsetzung unserer Richtlinien allein auf sie verlassen können. In bestimmten Fällen, beispielsweise bei Satire, kann der Kontext wichtig sein, um zu bestimmen, ob ein Verstoß vorliegt. Daher hilft unser Team von geschulten Moderator*innen bei der Überprüfung und Entfernung von Inhalten. In einigen Fällen entfernt dieses Team proaktiv Inhalte, die einen Verstoß darstellen, wie z.B. sich entwickelnde gefährliche Challenges oder schädliche Fehlinformationen. 

Eine weitere Möglichkeit, wie wir Inhalte moderieren, sind Meldungen, die wir von unseren Nutzer*innen erhalten. Wir möchten es unseren Nutzer*innen erleichtern, potenziell unangemessenen Inhalt oder unangemessene Konten mithilfe unserer in der App integrierten Berichtsfunktion an uns zu melden. Nutzer*innen können aus einer Liste von Gründen auswählen, warum ihrer Meinung nach ein Video oder ein Konto gegen unsere Richtlinien verstößt (wie zum Beispiel durch das Darstellen von Gewalt oder Verletzungen, Belästigung oder Hassrede). Moderator*innen können dann den gemeldeten Inhalt evaluieren, um zu entscheiden, ob er gegen die Community-Richtlinien verstößt. Wenn das der Fall ist, wird der Inhalt entfernt.

Inhalt aus der zweiten Jahreshälfte des Jahres 2019

In der zweiten Jahreshälfte des letzten Jahres (1. Juli - 31. Dezember, 2019) haben wir weltweit 49.247.689 Videos entfernt, weil sie entweder gegen die Community-Richtlinien oder die Nutzungsbedingungen verstoßen haben. Das ist weniger als 1% aller Videos, die von unseren Creator*innen in diesem Zeitraum erstellt wurden. Unsere Systeme haben proaktiv 98,2% dieser Videos gefunden und entfernt, bevor uns ein Nutzer diese berichtet hat. 89,4% dieser Videos wurden sogar entfernt, bevor sie jemand sehen konnte.

Die folgende Tabelle zeigt die zehn Länder bzw. Märkte mit der höchsten Anzahl an entfernten Videos:

Land/Markt Anzahl der gelöschten Videos
Indien 16,453,360
USA 4,576,888
Pakistan 3,728,162
Vereinigtes Königreich 2,022,728
Russland 1,258,853

Ende vergangenen Jahres haben wir mit der Einführung einer neuen Infrastruktur zur Moderation von Inhalten begonnen, die es uns ermöglicht, die Gründe für die Entfernung von Videos von unserer Plattform transparenter zu berichten. Wenn ein Video gegen unsere Community-Richtlinien verstößt, wird es mit der oder den Richtlinien gekennzeichnet, gegen die es verstößt, und dann entfernt. Das bedeutet, dass dasselbe Video in mehreren Richtlinienkategorien erscheinen kann. Für den Monat Dezember 2019 stellen wir eine Aufschlüsselung der Richtlinienkategorien zur Verfügung, aus denen Videos entfernt wurden, da diese Videos mit Hilfe unserer neuen Infrastruktur zur Moderation von Inhalten bearbeitet wurden.

Im Dezember gehörten 25,5% der entfernten Videos zur Kategorie "Nacktheit bei Erwachsenen und sexuelle Aktivitäten".

24,8% der entfernten Videos verstießen gegen unsere Richtlinien für den Schutz von Minderjährigen. Diese beziehen sich auf Inhalte, die schädliches, gefährliches oder illegales Verhalten von Minderjährigen wie Alkohol- oder Drogenkonsum darstellen, sowie auf schwerwiegendere Inhalte, bei denen wir sofort Maßnahmen ergreifen, wie Konten zu entfernen und gegebenenfalls Strafverfolgungsbehörden mit einzubeziehen.

Inhalte, die rechtswidrige Handlungen und regulierte Waren enthielten, machten 21,5% der entfernen Inhalte aus. Darüber hinaus verstießen 15,6% der entfernten Videos gegen unsere Richtlinie zu Suizid, Selbstverletzung und gefährlichen Handlungen, was in erster Linie unsere Entfernung riskanter Challenges widerspiegelt. Von den verbleibenden entfernten Videos verstießen 8,6% gegen unsere Richtlinie für gewalttätige und explizite Inhalte; 3% fielen unter unsere Richtlinie für Belästigung und Mobbing; und weniger als 1% enthielten Inhalte, die gegen unsere Richtlinien für Hassrede, Integrität und Authentizität sowie gegen gefährliche Personen und Organisationen verstießen. 

Inzwischen haben wir den Großteil unserer zur Moderation gekennzeichneten Inhalte auf unser neues Inhaltsmoderationssystem umgestellt, und unsere nachfolgenden Berichte werden detailliertere Daten zu Inhalten und Konten über den gesamten Zeitraum jedes Berichts enthalten. 

Terminologie und Definitionen                                                                     

Bei der Entscheidung, welche Inhalte für die TikTok Community angemessen sind, verwenden wir diese Begriffe und Definitionen, die unsere Moderationsstrategie bestimmen. Wir arbeiten mit einer Vielzahl sachkundiger Experten zusammen, die uns helfen, die dynamische Richtlinienlandschaft besser zu verstehen. So können wir Richtlinien und Strategien entwickeln, um auf problematische Inhalte und Verhaltensweisen zu reagieren, sobald wir diese feststellen. Dazu gehören u.a. acht Experten in unserem eigenen U.S. Content Advisory Council sowie Organisationen wie ConnectSafely.org, das National Center for Missing and Exploited Children, WePROTECT Global Alliance und viele weitere.

  • Gefährliche Personen und Organisationen: Wir gestatten keinen gefährlichen Personen oder Organisationen die Nutzung unserer Plattform, um Terrorismus, Verbrechen oder anderes Verhalten zu fördern, das anderen Schaden zufügen könnte. Wenn wir eine glaubhafte Bedrohung der öffentlichen Sicherheit feststellen, sperren wir zuerst das entsprechende Konto und kontaktieren dann die verantwortliche Justizbehörde, sofern dies notwendig und angemessen ist.
  • Rechtswidrige Handlung und regulierte Waren: Wir verbieten den Handel, den Verkauf, die Verkaufsförderung und die Verwendung bestimmter reglementierter Güter und auch die Darstellung oder Förderung krimineller Aktivitäten. Inhalt, der sich auf Aktivitäten oder Güter bezieht, die illegal sind oder im Großteil der Welt reglementiert sind, können entfernt werden. Dies gilt auch, wenn die jeweiligen Aktivitäten oder Güter in der Gerichtsbarkeit legal sind, in der sie gepostet wurden. Wir räumen Ausnahmen für Inhalte ein, die Wert für die Öffentlichkeit schaffen, wie pädagogischer, wissenschaftlicher, künstlerischer und aktueller Inhalt.
  • Gewalttätige und explizite Inhalte: Wir erlauben keine Inhalte, die übermäßig brutal oder schockierend sind, insbesondere keine Inhalte, die extreme Gewalt oder Leid fördern oder verherrlichen. Wir machen unter bestimmten Umständen Ausnahmen, wenn es sich zum Beispiel um aktuellen, nachrichtlichen Inhalt handelt oder Inhalte, die das Bewusstsein für ein Anliegen stärken sollen. Wenn wir ein echtes Gewaltrisiko oder eine echte Bedrohung der öffentlichen Sicherheit feststellen, sperren wir zuerst das entsprechende Konto und kontaktieren dann die verantwortliche Justizbehörde, sofern dies notwendig und angemessen ist.
  • Suizid, Selbstverletzung und gefährliche Handlungen: Wir fördern keine Beteiligung an Aktivitäten, die zu Schaden führen können. Wir gestatten Nutzer*innen auch nicht, andere dazu aufzufordern, an gefährlichen Aktivitäten teilzunehmen. Wir gestatten keine Inhalte, die Selbstverletzung oder Suizid fördern. Hingegen gestatten wir unseren Nutzer*innen, ihre Erfahrungen diesbezüglich mit anderen zu teilen, um das Bewusstsein für das Thema zu stärken. 

    Wir arbeiten weltweit mit Industriexperten zusammen, um das richtige Maß für unsere Moderation zu finden. Wenn wir Inhalte sehen, die möglicherweise auf eine unverzügliche Selbstverletzungsgefahr hinweisen, kann TikTok lokale Notfalldienste alarmieren, um die Gesundheit der Nutzer*innen zu gewährleisten.
  • Hassrede: Wir tolerieren keine Inhalte, die eine Person oder eine Personengruppe basierend auf geschützten Eigenschaften angreift oder zur Gewalt gegen diese aufruft. Wir gestatten keine Inhalte, die Hassrede enthalten, und wir entfernen diese von der Plattform.
  • Belästigung und Mobbing: Nutzer*innen sollen sich selbst ausdrücken, ohne Angst davor zu haben, beschämt, gedemütigt, schikaniert oder belästigt zu werden. Wir wissen, dass beleidigender Inhalt psychischen Stress und Leid bei Personen auslösen können und wir tolerieren keinen beleidigenden Inhalt oder beleidigendes Verhalten auf unserer Plattform.
  • Nacktheit bei Erwachsenen und sexuelle Handlungen: Wir gestatten keine Inhalte auf TikTok, die sexuell eindeutig sind oder der sexuellen Befriedigung dienen, einschließlich Animationen dieser Art. Sexualisierte Inhalte sind mit zahlreichen Risiken verbunden, wie der Verhängung von Bußgeldern in einigen Ländern sowie der Schädigung von Nutzer*innen durch die Weiterleitung von nicht einvernehmlich aufgenommenen Bildern, beispielsweise sogenannte „Rachepornos“. Explizit sexueller Inhalt kann in bestimmten Kulturen auch als Beleidigung aufgefasst werden. Wir gestatten Nacktheit und sexuell expliziten Inhalt aus pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Gründen.
  • Schutz Minderjähriger: Wir haben uns dem Schutz von Kindern verschrieben und zeigen keine Toleranz für unlauteres und rücksichtsloses Verhalten gegenüber Minderjährigen. Wir gestatten keinen Inhalt, der Kindesmissbrauch, Nacktheit von Kindern oder sexuellen Missbrauch von Kindern darstellt oder verbreitet, sei es in digitalem oder realen Format, und wir berichten solchen Inhalt unverzüglich den relevanten Justizbehörden. Wir gestatten auch keinen Inhalt, der Minderjährige bei strafbaren Handlungen darstellt.
  • Integrität und Authentizität: Inhalte, die darauf abzielen, unsere Community-Mitglieder zu täuschen oder in die Irre zu führen, gefährden unsere auf Vertrauen basierende Gemeinschaft. Wir tolerieren solchen Inhalt nicht auf unserer Plattform. Dazu zählen Aktvitäten wie Spamming, Identitätsbetrug und Desinformationskampagnen.

Bearbeitung von behördlichen Anfragen

Die nachstehenden Abschnitte enthalten Angaben zu Anfragen von Regierungsbehörden aus der zweiten Hälfte des Jahres 2019, und wie wir darauf reagiert haben.

Wir kommen nur Anfragen nach, die uns über die ordnungsgemäßen Kanäle übermittelt werden und bei denen eine Gesetzesgrundlage besteht. In begrenzten Notfallsituationen können wir Nutzerdaten ungeachtet rechtlicher Verfahren offenlegen, wenn wir Grund zu der Annahme haben, dass eine solche Maßnahme erforderlich ist, um die unmittelbare Gefahr des Todes oder der schweren Verletzung einer Person abzuwenden.

Rechtliche Anfragen hinsichtlich der Herausgabe von Nutzerdaten

Jede Anfrage auf Herausgabe von Nutzerdaten, die bei uns eingeht, wird sorgfältig auf ihre rechtliche Zulänglichkeit geprüft, um festzustellen, ob die ersuchende Stelle befugt ist, im Zusammenhang mit einer Strafverfolgungsuntersuchung Beweise zu erfassen oder einen Notfall mit unmittelbar bevorstehendem Schaden zu untersuchen.  Mehr zu unseren Richtlinien und Vorgehensweisen finden Sie in unseren Richtlinien zur Datenanforderung bei Gesetzesvollstreckung: Law Enforcement Data Request Guidelines (Richtlinien zur Datenanforderung bei Gesetzesvollstreckung).

In der folgenden Tabelle sehen Sie die Anzahl der Anfragen, die wir jeweils in der zweiten Hälfte des Jahres 2019 (1. Juli – 31. Dezember, 2019) erhalten haben, und wie wir auf diese Anfragen reagiert haben.

HINWEIS: TikTok hat keine rechtlichen Anfragen für Kontoinformationen von anderen Ländern/Märkten als den oben aufgelisteten erhalten.

Behördliche Anfragen zur Entfernung von Inhalten                                     

Gelegentlich erhalten wir Anfragen von Regierungsbehörden, um Inhalte auf unserer Plattform zu entfernen, wie z.B. Forderungen, die mit lokalen Gesetzen zusammenhängen, die Obszönität, Hassreden, oder Inhalte für Erwachsene verbieten. Wir prüfen diese Inhalte im Sinne unserer Community-Richtlinien, unserer Nutzungsbedingungen, geltendem Recht und ergreifen entsprechende Maßnahmen. Wenn wir der Meinung sind, dass eine Anfrage nicht rechtsgültig ist oder der betroffene Inhalt nicht gegen unsere Standards verstößt, ergreifen wir keine Maßnahmen.                                        

Die folgende Tabelle zeigt die Anfragen, die wir von Rechtspersonen in der zweiten Hälfte des Jahres 2019 (1. Juli – 31. Dezember, 2019) erhalten haben, um Inhalt zu entfernen oder einzuschränken.

HINWEIS: TikTok hat keine behördlichen Anfragen zum Entfernen oder Einschränken von Inhalten von anderen Ländern/Märkten als den oben aufgelisteten erhalten.

Entfernung von Inhalten wegen Verletzung von Rechten an geistigem Eigentum

Entfernung von Inhalten wegen Verletzung von Rechten an geistigem Eigentum

Die Kreativität unserer Nutzer*innen ist der Hauptmotor für TikTok. Unsere Plattform ermöglicht es Nutzern*innen, sich auszudrücken, und wir bemühen uns, sie dabei zu schützen. Unsere Community-Richtlinien und Nutzungsbedingungen verbieten Inhalte, die das geistige Eigentum Dritter verletzen.                                

Wir halten uns an gültige Anfragen zum Entfernen von Inhalten basierend auf dem Urheberrecht, wie dem Digital Millennium Copyright Act (DMCA). Nach Erhalt einer Benachrichtigung des Inhabers oder der Inhaberin geistigen Eigentums, gegen das gegebenfalls verstoßen wurde, entfernt TikTok den rechtswidrigen Inhalt so schnell wie möglich.                                        

Jegliche Aktivitäten, die gegen das Urheberrecht anderer verstoßen, können zu einer Sperrung oder Entfernung eines Kontos führen. Weitere Informationen dazu, wie wir Benachrichtigungen hinsichtlich der Verletzung des Urheberrechts evaluieren, finden Sie in unserer Richtlinie zum geistigen Eigentum ("Intellectual Property Policy")

HINWEIS: Nur Hinweise zur Entfernung von urheberrechtlich geschütztem Inhalt von Urheberrechtseigentümern, ihren Vertretern oder Rechtsanwälten werden in unserer Statistik erfasst.

Was ist geplant?

Wir sind stolz auf die Fortschritte, die wir machen, um sicherzustellen, dass TikTok eine authentische, integrative und sichere Gemeinschaft für jeden ist, der seine kreative Seite zum Ausdruck bringen möchte. Aber wir wissen auch, dass wir noch mehr machen müssen. Wir hoffen, dass Sie uns Feedback zu diesem Bericht geben. Bitte schreiben Sie uns an transparencyreport [at] tiktok [dot] com. Wir freuen uns darauf,  im nächsten Bericht noch mehr Informationen mit Ihnen zu teilen. 



Transparenzbericht-Archiv

Jul 1 - Dec 31, 2019
Jan 1 - Jun 30, 2019