Sicherheitszentrum

TRANSPARENZBERICHT TIKTOK 

1. Januar 2020 – 30. Juni 2020

Veröffentlicht: 22. September 2020, 9 Uhr CET 


Einführung

Millionen von Nutzer*innen, darunter 100 Millionen US-Amerikaner*innen, lieben TikTok als einen Ort der Unterhaltung, des kreativen Ausdrucks und für persönliche Verbindungen. Unsere höchste Priorität ist es, dabei zu helfen, ein sicheres Erlebnis in unserer App zu gewährleisten, und damit das Zusammengehörigkeitsgefühl unserer wachsenden globalen Community zu fördern. Ohne Transparenz lässt sich dieses Ziel jedoch nicht erreichen.

TikTok setzt alles daran, das transparenteste und verantwortungsbewussteste Unternehmen der Branche zu sein, wenn es sich um die Sicherheit unserer Nutzer*innen handelt. Wir lassen unseren Worten Taten folgen: Die Moderation von Inhalten, Algorithmen sowie Datenschutz- und Datensicherheitsmaßnahmen sind in unserem globalen Transparency and Accountability Center einsehbar. Wir veröffentlichen diese Transparenzberichte, um einen Einblick in die Anzahl und die Art der Inhalte zu geben, die aufgrund eines Verstoßes gegen unsere Community Richtlinien oder Nutzungsbedingungen entfernt wurden. Wir informieren ferner darüber, wie wir mit Auskunftsanfragen von Strafverfolgungsbehörden, mit Anfragen von Regierungsbehörden zur Entfernung von Inhalten und mit Hinweisen zur Entfernung urheberrechtlich geschützter Inhalte umgehen. Wir stellen außerdem alle Verbesserungen vor, die wir in der ersten Hälfte des Jahres 2020 vorgenommen haben, um die Sicherheit auf unserer Plattform zu erhöhen. 

Wir sind stolz auf die Fortschritte, die wir in den oben genannten Bereichen gemacht haben. Wir wollen auch weiterhin mit jedem Bericht weitere Informationen zur Verfügung stellen. Wir freuen uns über Ihr Feedback oder Ihre Fragen dazu. Bitte senden Sie uns eine E-Mail an transparency[at]tiktok[dot]com

Erhöhung der Sicherheit und Förderung der Community auf TikTok 

Wir haben in der ersten Hälfte des Jahres 2020 Maßnahmen ergriffen, um eine Reihe von Richtlinien, Produkten und Partnerschaften zu etablieren, welche die Sicherheit in der App sowie einen verantwortungsvollen Umgang der Community bei Nutzung der App fördern sollen.  

Richtlinien 

Zu Beginn des Jahres 2020 haben wir unsere Community-Richtlinien erweitert und ergänzt. Das Ziel dieser Richtlinien ist es, eine sichere und kreative Umgebung in der App zu schaffen. Dazu zählen neue Richtlinien für irreführende Inhalte, um die Verbreitung von Fehlinformationen zu verhindern, differenziertere Richtlinien beispielsweise bezüglich Hassrede, als auch Richtlinien, welche die soziale Inklusion fördern. Wir folgen darüber hinaus den Freiwilligen Grundsätzen zur Bekämpfung der sexuellen Ausbeutung und des Missbrauchs von Kindern im Internet (Voluntary Principles to Counter Online Child Sexual Exploitation and Abuse) und dem EU-Verhaltenskodex zur Bekämpfung von Desinformation.

Produkte 

Einhaltung unserer Richtlinien 

Um die Einhaltung unserer Richtlinien zu unterstützen, haben wir für unsere Nutzer*innen eine einfache Möglichkeit geschaffen, Fehlinformationen zur weiteren Überprüfung direkt an unser Team weiterzuleiten. In acht Märkten haben wir ein Fact-Checking-Programm eingeführt, dass uns hilft, irreführende Inhalte, wie beispielsweise Fehlinformationen über das Coronavirus, Wahlen und den Klimawandel zu verifizieren. Darüber hinaus haben wir in die App integrierte Aufklärungs-PSAs zu Hashtags eingeführt, die sich auf wichtige Themen des öffentlichen Diskurses beziehen, wie beispielsweise auf Wahlen, Black Lives Matter sowie Verschwörungstheorien einschließlich QAnon.

Nutzer*innen mit verlässlichen und informativen Inhalten versorgen

Wir haben weiter daran gearbeitet, unsere Nutzer*innen durch Sicherheitsvideos in der App über unsere Community-Richtlinien und Sicherheitsmaßnahmen zu informieren. Zur Förderung der digitalen Kompetenz haben wir ein Jugendportal eingeführt, über das sich junge Nutzer*innen und ihre Familien über den sicheren Umgang mit dem Internet und die in TikTok implementierten Sicherheitsfunktionen informieren können. Außerdem haben wir Videos im TikTok-Stil mit beliebten Creator*innen gedreht, um unserer Community Medienkompetenz zu vermitteln und über Fehlinformationen aufzuklären.

Wir haben die Erstellung von Inhalten gefördert, die unseren Nutzer*innen verlässliche und hilfreiche Informationen zu verschiedenen Themengebieten vermitteln. Als das neuartige Coronavirus sich ausbreitete, haben wir durch Informationsseiten in der App die Inhalte zuverlässiger Quellen unterstützt sowie Livestreams und Hashtag-Challenges mit der Weltgesundheitsorganisation (WHO), dem Internationalen Roten Kreuz, UNICEF Indien und bekannten Persönlichkeiten aus dem öffentlichen Gesundheitswesen und der Wissenschaft gefördert. Beispiele sind der amerikanische Fernsehmoderator der Kinder-Wissenschaftssendung Bill Nye the Science Guy und die gemeinnützige Organisation Prince's Trust. Zur Unterstützung unserer Black Community haben wir in unserer App spezielle Seiten entwickelt, auf denen Nutzer*innen sich über die Afroamerikanische Geschichte und über Organisationen, die sich für soziale Gerechtigkeit einsetzen, informieren können. Gleichzeitig feierten wir den Black Music Month mit der Würdigung Schwarzer Creator*innen und Künstler*innen.


Den Jugendschutz verbessern 

TikTok hat eine Reihe von Sicherheitsfeatures eingeführt, mit denen Eltern und junge Nutzer*innen ihr TikTok-Erlebnis auf der Grundlage individueller Bedürfnisse anpassen können. Mithilfe der Funktion Family Pairing können Eltern ihr TikTok-Konto mit dem ihrer Teenager verknüpfen. Auf diese Weise können sie definieren, welche Art von Inhalten ihre Teenager sehen, Bildschirmzeiten steuern und über die Einstellungen für Direktnachrichten entscheiden. TikTok deaktiviert automatisch Direktnachrichten an registrierte Konten, deren Inhaber*innen das 16. Lebensjahr noch nicht vollendet haben. Außerdem erlauben wir keinen Nutzer*innen das Versenden von privaten Bildern, als präventive Maßnahme gegen gefährliche oder beleidigende Inhalte.

Partnerschaften

Wir schätzen das Feedback und die Beiträge von Experten, NGOs und anderen Organisationen sehr, weil sie dazu beitragen, dass unsere Richtlinien, Produkte und Sicherheitsvorkehrungen für unsere Community wirkungsvoller und umfassender werden. In der ersten Hälfte des Jahres 2020 hat TikTok eine Reihe von wichtigen globalen Partnerschaften mit führenden Sicherheitsorganisationen geschlossen. Die Partnerschaften beinhalten eine wichtige Partnerschaft mit dem National Center for Missing and Exploited Children (Nationalen Zentrum für vermisste und ausgebeutete Kinder) und mit der WePROTECT Global Alliance, um einen Beitrag zur Bekämpfung von Inhalten über sexuelle Ausbeutung und sexuellen Missbrauch von Kindern zu leisten. In Indien haben wir eine Partnerschaft mit dem Data Security Council of India geschlossen, um das Bewusstsein für sichere Online-Verhaltensweisen zu schärfen. Und in den USA haben wir unser Content Advisory Council mit Experten zu Themen wie z. B. Hassrede, inklusive KI, Jugendschutz sowie unser Creator Diversity Collective eingeführt, das Menschen mit ganz unterschiedlichem Hintergrund zusammenbringt, um Vielfalt, Inklusion und Repräsentation von Diversität in unseren Programmen und auf unserer Plattform sicherzustellen.

Durchsetzung der Community-Richtlinien

In der ersten Hälfte des Jahres 2020 (1. Januar bis 30. Juni) wurden weltweit 104.543.719 Videos aufgrund eines Verstoß gegen unsere Community-Richtlinien oder unsere Nutzungsbedingungen entfernt. Das entspricht weniger als 1 % aller auf TikTok hochgeladenen Videos. Wir entfernten 96,4 % dieser Videos, bevor Nutzer*innen sie uns meldeten, und 90,3 % wurden entfernt, bevor sie von Nutzer*innen gesehen wurden. 

Die nachfolgende Tabelle zeigt die Anzahl der Videos, die aufgrund von Verstößen gegen die Richtlinien entfernt wurden. Wenn ein Video gegen unsere Community-Richtlinien verstößt, wird es mit der Richtlinie bzw. den Richtlinien gekennzeichnet, gegen die es verstößt und dann entfernt. Das bedeutet, dass ein und dasselbe Video in mehreren Richtlinienkategorien gezählt werden kann.


Infolge der Coronavirus-Pandemie haben wir uns bei der Erkennung und automatischen Entfernung von Inhalten, welche unsere Richtlinien verletzenden, in Märkten wie Indien, Brasilien und Pakistan noch stärker auf Technologien gestützt. Von den insgesamt entfernten Videos wurden 10.698.297 wegen eines Verstoßes gegen unsere Community-Richtlinien gekennzeichnet und automatisch entfernt. Diese Videos sind in der Tabelle nicht berücksichtigt. 

Diese Tabelle zeigt die fünf Länder/Märkte mit der höchsten Zahl entfernter Videos.  

Land / Markt Insgesamt entfernte Inhalte
Indien 37,682,924
Vereinigte Staaten 9,822,996
Pakistan 6,454,384
Brasilien 5,525,783
Großbritannien 2,949,620


Behördenanfragen

Die nachfolgenden Abschnitte geben einen Einblick in den Umfang und die Art der behördlichen Anfragen, die wir in der ersten Hälfte des Jahres 2020 von Strafverfolgungsbehörden und Regierungen auf der ganzen Welt erhalten haben. Sie zeigen auch, wie wir damit umgegangen sind.

Wir erhalten Anfragen von Strafverfolgungsbehörden und Regierungen auf der ganzen Welt oder von Inhaber*innen von IP-Rechten. Wir berücksichtigen Anfragen, die über die korrekten Kanäle an uns herangetragen werden, und solche, für die dies anderweitig gesetzlich vorgeschrieben ist.

Anfragen von Strafverfolgungsbehörden nach Informationen von Nutzer*innen

TikTok verpflichtet sich, berechtigte Anfragen von Strafverfolgungsbehörden zu erfüllen, wobei jedoch die Privatsphäre und Rechte unserer Nutzer*innen geschützt werden. Um Zugang zu nicht öffentlich verfügbaren Nutzer*inneninformationen zu erhalten, müssen Strafverfolgungsbehörden entsprechende rechtskräftige Dokumente für die gewünschten Informationen vorlegen, wie etwa eine Vorladung, einen Gerichtsbeschluss, eine richterliche Anordnung, einen Durchsuchungsbefehl oder eine Notfall-Anfrage. Jede Informationsanfrage, die bei uns eingeht, wird sorgfältig auf ihre rechtliche Zulässigkeit geprüft, beispielsweise um festzustellen, ob die jeweilige Stelle dazu befugt ist, Beweise im Zusammenhang mit einer Strafverfolgungsuntersuchung zu erfassen oder im Falle eines Notfall mit unmittelbar bevorstehendem Schaden zu ermitteln. 

In seltenen Notsituationen legt TikTok Nutzer*inneninformationen ohne gerichtliches Verfahren offen. Dies geschieht, wenn wir nach bestem Wissen und Gewissen Grund zu der Annahme haben, dass die Offenlegung der Informationen erforderlich ist, um eine unmittelbare Lebensgefahr oder die Gefahr einer schweren Körperverletzung abzuwenden. Weitere Informationen zu unseren Richtlinien und Vorgehensweisen finden Sie in unseren Richtlinien zur Datenanforderung bei Gesetzesvollstreckung.                   

Diese Tabelle zeigt die Anzahl und die Art der Anfragen nach Nutzer*inneninformationen, die bei uns in der ersten Hälfte des Jahres 2020 (1. Januar bis 30. Juni 2020) eingegangen sind und die Anzahl der Anfragen, denen wir nachgekommen sind.

Land / Markt Anfragen von Regierungsbehörden Angegebene Konten insgesamt Entfernte Konten or beschränkte Konten Entfernte Inhalte or beschränkte Inhalte
Australien 13 14 8 5
Belgien 10 10 2 8
Kanada 1 1 0 1
Deutschland 4 4 1 3
Dänemark 1 1 0 1
Indien 55 244 8 225
Norwegen 14 24 17 1
Neuseeland 1 1 0 1
Pakistan 4 40 2 129
Russland 15 259 9 296
Singapur 1 2 2 0
Türkei 9 36 2 34
Taiwan 1 6 0 0
Großbritannien 2 5 2 3
Vereinigte Staaten 4 4 2 4


Anfragen von Regierungsbehörden hinsichtlich der Beschränkung von Inhalten

Gelegentlich erhalten wir Anfragen von Regierungsbehörden mit der Aufforderung, Inhalte auf unserer Plattform entsprechend lokalen Gesetzen einzuschränken oder zu entfernen. Wir überprüfen den gesamten Inhalt auf Übereinstimmung mit unseren Community-Richtlinien, unseren Nutzungsbedingungen und dem geltenden Recht und ergreifen dann entsprechende Maßnahmen. Wenn wir der Auffassung sind, dass eine Anfrage nicht rechtmäßig ist oder nicht gegen unsere Standards verstößt, können wir die Verfügbarkeit des angezeigten Inhalts in dem Land, in dem er angeblich rechtswidrig ist, beschränken oder entscheiden, keine Maßnahmen zu ergreifen.

Diese Tabelle zeigt die Anfragen von Regierungsbehörden mit der Aufforderung, Inhalte zu entfernen oder zu beschränken, die bei uns in der ersten Hälfte des Jahres 2020 (1. Januar bis 30. Juni 2020) eingegangen sind und die Anzahl der Anfragen, denen wir nachgekommen sind. 

Entfernungen von Inhalten im Zusammenhang mit Verstößen gegen Rechte an geistigem Eigentum 

Die Kreativität unserer Nutzer*innen ist der Kern von TikTok. Auf unserer Plattform haben sie die Möglichkeit, ihre Persönlichkeit auszuleben und wir bemühen uns nach Kräften, Ihnen dabei Schutz und Sicherheit zu gewährleisten. Unsere Community-Richtlinien und Nutzungsbedingungen verbieten Inhalte, die das geistige Eigentum Dritter verletzen. Wir erfüllen begründete Entfernungs-Anfragen, die auf Verstößen gegen das Urheberrecht, wie z. B. dem Digital Millennium Copyright Act (DMCA), basieren. Nach Eingang einer rechtsgültigen Anzeige eines/r Rechtsinhabers/in über einen potenziellen Verstoß gegen die Rechte an geistigem Eigentum entfernt TikTok die rechtsverletzenden Inhalte zeitnah. Jede Aktivität, die gegen die Urheberrechte anderer verstößt, kann zur Sperrung oder Entfernung des Kontos führen. Weitere Informationen darüber, wie wir Vorwürfe von Urheberrechtsverletzungen bewerten, finden Sie in unserer Richtlinie zu geistigem Eigentum

Diese Tabelle zeigt die bei uns eingegangenen, auf Urheberrecht bezogenen Anfragen zur Entfernung von Inhalten und die Häufigkeit, mit der wir Inhalte entfernt haben. 

Urheberrechtsbezogene Entfernungsanfragen Prozentsatz der Anfragen, die zur Entfernung von urheberrechtsbezogenen Inhalten führten
10625 89.6%


Anhang 

Terminologie und Begriffsbestimmungen

Bei der Entscheidung, welche Inhalte für die TikTok-Community angemessen sind, verwenden wir die folgenden Begriffe und Begriffsbestimmungen als Orientierungshilfen im Rahmen unserer Moderationsstrategie. Wir arbeiten mit einer Reihe anerkannter Expert*innen zusammen, die uns dabei helfen, die dynamische politische Landschaft zu verstehen und Richtlinien und Moderationsstrategien zu entwickeln, um mit schwierigen Inhalten und Verhaltensweisen zeitnah zu ihrer Entstehung umgehen zu können. Dies sind unter anderem die neun Experten unseres U.S. Content Advisory Council und Organisationen wie National PTA, National Center for Missing and Exploited Children, WePROTECT Global Alliance, und andere.

  • Gefährliche Personen und Organisationen: Wir gestatten keinen gefährlichen Personen oder Organisationen die Nutzung unserer Plattform zur Förderung von Terrorismus, Verbrechen oder anderem Verhalten, das Dritten Schaden zufügen könnte. In Fällen einer glaubhaften Bedrohung der öffentlichen Sicherheit, sperren wir das betreffende Konto und arbeiten mit den zuständigen Justizbehörden im notwendigen und angemessenen Rahmen zusammen.
  • Rechtswidrige Handlungen und regulierte Waren: Wir untersagen Handel, Vertrieb, Werbung und Nutzung bestimmter gesetzlich regulierter Waren sowie die Darstellung oder Förderung rechtswidriger Handlungen. Inhalte werden unter Umständen entfernt, wenn sich diese auf Handlungen oder Waren beziehen, die in einem Großteil einer bestimmten Region oder der Welt illegal oder reglementiert sind. Dies gilt auch dann, wenn die fraglichen Handlungen oder gesetzlich regulierten Waren in dem Land legal sind, in dem entsprechende Inhalte gepostet wurden. Wir machen Ausnahmen für Inhalte, die einen Wert für die Öffentlichkeit schaffen, wie pädagogische, wissenschaftliche, künstlerische oder berichterstattungswerte Inhalte.
  • Gewalttätige und verstörende Inhalte: Wir gestatten keine Inhalte, die übermäßig brutale oder schockierende Darstellungen enthalten, insbesondere keine Inhalte, die extreme Gewalt oder extremes Leid fördern oder verherrlichen. Wir machen unter bestimmten Umständen Ausnahmen, wenn es sich zum Beispiel um aktuelle, nachrichtenrelevante Inhalte handelt oder um Inhalte, die das öffentliche Bewusstsein für bestimmte Themen fördern. Sollten wir eine echte Gefahr von Gewalt oder Bedrohung der öffentlichen Sicherheit feststellen, entfernen wir das Konto und arbeiten gegebenenfalls mit den zuständigen Justizbehörden zusammen.
  • Suizid, Selbstverletzung und gefährliche Handlungen: Wir fördern keine Beteiligung an Aktivitäten, bei denen Menschen zu Schaden kommen könnten. Zudem gestatten wir Nutzer*innen nicht, andere zur Beteiligung an gefährlichen Handlungen aufzurufen. Wir gestatten keine Inhalte, die zu selbstverletzendem Verhalten oder Suizid aufrufen. Allerdings gestatten wir Nutzer*innen, sich über ihre Erfahrungen auszutauschen, um andere für diese Thematik zu sensibilisieren. 
    Wir arbeiten weltweit mit Branchenexperten zusammen, um unsere Moderation ausgewogen zu gestalten. Werden wir auf Inhalte aufmerksam gemacht, welche die unmittelbare Gefahr von Selbstverletzungen nahelegen, kann TikTok die örtlichen Notdienste kontaktieren und sie um Unterstützung bitten.
  • Hassrede: Wir dulden keine Inhalte, in denen einzelne Personen oder Gruppen aufgrund ihrer Zugehörigkeit zu einer Bevölkerungsgruppe angegriffen werden oder zu Gewalt gegen diese Personen oder Gruppen aufgerufen wird. Wir erlauben keine Inhalte, die Hassrede enthalten und werden von unserer Plattform entfernt. 
  • Belästigung und Mobbing: Nutzer*innen sollten ihre Meinungen zum Ausdruck bringen können ohne Angst davor zu haben, ausgelacht, gedemütigt, schikaniert oder belästigt zu werden. Wir sind uns der negativen psychischen Folgen bewusst, die herabwürdigende Inhalte auf Einzelne haben können. Daher dulden wir keine herawürdigenden Inhalte oder Verhaltensweisen auf unserer Plattform.
  • Nacktheit bei Erwachsenen und sexuelle Handlungen: Wir gestatten auf TikTok keinerlei Inhalte, die sexuell eindeutig sind oder der sexuellen Befriedigung dienen, einschließlich animierter Inhalte solcher Art. Sexualisierte Inhalte sind mit zahlreichen Risiken verbunden, wie der Verhängung von Bußgeldern in einigen Ländern sowie dem Risiko der Schädigung von Nutzer*innen durch die Weiterleitung von nicht einvernehmlich aufgenommenen Bildern, beispielsweise sogenannte „Rachepornos“ (revenge porn). Außerdem kann sexuell eindeutiger Inhalt in bestimmten Kulturen als anstößig empfunden werden. Wir gestatten Nacktheit und sexuell eindeutige Inhalte zu zu pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Zwecken.
  • Schutz Minderjähriger: Wir tun alles, um den Schutz von Kindern zu gewährleisten und dulden keinerlei nachstellende oder sexuell motivierte Annäherung an Minderjährige wie das sogenannte „Grooming“. Wir gestatten keine Inhalte, in denen Kindesmissbrauch, nackte Kinder oder die sexuelle Ausbeutung von Kindern dargestellt oder verbreitet wird, weder in digitaler Form noch in der realen Welt, und melden solche Inhalte den relevanten Justizbehörden. Wir gestatten keine Inhalte, in denen Minderjährige bei strafbaren Handlungen dargestellt werden.
  • Integrität und Authentizität: Inhalte, die darauf abzielen, unsere Community-Mitglieder zu täuschen oder in die Irre zu führen, gefährden unsere auf Vertrauen beruhende Gemeinschaft. Wir dulden keine Inhalte dieser Art auf unserer Plattform. Dazu zählen Aktivitäten wie Spamming, Identitätsbetrug oder Desinformationskampagnen.


Archivierte Transparenzberichte

1. Januar bis 30. Juni 2020
1. Juli bis 31. Dezember 2019
1. Januar bis 30. Juni 2019