セーフティセンター

TikTok透明性レポート

2019年7月1日~2019年12月31日

リリース日:2020年7月9日

はじめに

TikTokは創造的な表現という基盤の上に成り立っています。私たちは多様性に富み成長を続けるコミュニティの中で、ユーザーの皆様が表現する個性を尊重します。皆様が安心して自己表現できる場を提供し、創造性を促進します。これこそが、TikTokが皆様にとって安全安心、そしてポジティブな体験を最優先する理由です。
私たちは2019年12月30日に第一回透明性レポートを発行し、データリクエストへの責任ある対応や知的財産の保護についてコミュニティに対し定期的に情報発信することを約束しました。今回はレポートを拡張し、以下の情報について提供致します:

  • コミュニティの安全を守るためのアプローチとポリシー
  • コミュニティガイドラインの確立と実施方法
  • ツールと教育を通してコミュニティを強化する方法
  • コミュニティガイドライン違反により削除された動画の事例

さらに、今回より当社の9つのコンテンツポリシーカテゴリーに対応するコンテンツ・モデレーション指標を報告してまいります。本レポートの付録には2019年12月1日から2020年2月29日に間に削除された動画の削除理由の内訳が記載されています。昨年コンテンツ・モデレーションへの投資を行い、このような情報の共有が可能になりました。この新しいシステムは全世界に拡大中で、違反動画が削除された理由を公開することで当社の透明性が高められると考えています。
私たちは日々コミュニティの信頼に応える努力をしています。ユーザー、政策立案担当者、専門家から寄せられたフィードバックに対応し、今後も報告内容を進化させていきます。私たちの最終目標は、プロセスとアクションを最大限可視化し、TikTokをすべての人にとって活気のある楽しい場所にすることです。

TikTokはユーザーの安全に全力を尽くします

私たちにとって最も重要なことは、ユーザーの安全を守ることです。TikTokはグローバルプラットフォームとして安全安心なアプリ環境を維持するため、数千人規模のの担当者を関連市場全体に配置し、ポリシー、テクノロジー、モデレーションを組み合わせ、問題行動やコンテンツに対処しています。これには、コミュニティガイドラインTikTokサービス規約 に違反する動画の削除やアカウントの停止などが含まれます。

ツールを活用したコミュニティの強化                                              

テクノロジーとモデレーション対策(詳細は後述)に加え、ユーザーが自身の体験を個々に管理できるよう、多数の管理機能を直接利用できるようにしています。これらの管理機能を使用すれば、コンテンツを操作できるユーザーの制限、自動コメントフィルターの設定、メッセージの無効化、他のユーザーのブロックなどが可能となります。また、コミュニティガイドライン違反が疑われるものを見つけた場合は、アプリを通して運営チームに直接報告することができます。

アカウントのプライバシー                                  

TikTok は、ユーザーがアカウント設定中や設定後にいつでも有効にできる詳細プライバシー設定を提供しています。例えば、非公開アカウントでは、承認されたフォロワーのみ、ユーザーの動画を表示、コメント、またダイレクトメッセージの送信をすることができます。メッセージ機能は簡単に制限または完全にオフにすることができ、この機能は16歳未満の登録アカウントでは自動的に無効になります。さらに、ユーザーはフォロワーを削除したり、他のユーザーからの連絡をブロックすることもできます。

その他のコンテンツ管理

コンテンツを作成したクリエーターは、他のユーザーがコンテンツにどうアクセスするかを管理する権限があります。TikTok は、アカウントレベルおよび個別の動画に対するコンテンツ設定の充実したカスタマイズオプションを提供しており、作成した動画にコメントをしたり、デュエットできるユーザーを制限することができます。また、ユーザーも動画のコメント欄で自動的にブロックされる特定キーワードのリストを作成し、コメントフィルターを有効にすることが可能です。特定の動画に対するコメントを無効にしたり、特定の視聴者のコメントを制限したり、動画に対するコメントを完全に無効にしたりすることも選択できます。
私たちはさらに、アプリ内の安全性・健全性に関する動画やセーフティセンターを通じて、ユーザーの使える設定について積極的に情報提供をしています。たとえば、有名なクリエイターと提携し、ユーザーが画面時間を表示するように促す動画を提供したりしています。スクリーンタイム管理機能を使えば、ユーザーがTikTokに費やす時間の上限を設定できます。ユーザーは制限モードを有効にすることもできます。これにより、すべてのユーザーにとって適切とは言えないコンテンツが制限されます。これらの機能はアプリ設定内の「デジタルウェルビーイング」からいつでも利用できます。

コミュニティガイドラインでコミュニティの期待を設定する

TikTokは、正しく、ポジティブな体験を求める人々のグローバルコミュニティです。私たちのコミュニティに対するコミットメントは、コミュニティガイドラインに規定されるポリシーに反映されています。コミュニティガイドラインは、安全で友好的環境のための大切な行動規範です。中身は随時更新され、変化し続けるトレンドや危険なコンテンツからユーザーを守ります。これらはTikTokコミュニティの信頼性、尊重、ポジティブ性を育むためのものです。
すべてのユーザーが私たちのコミュニティガイドラインを遵守し、TikTokを楽しく友好的な場として協力してくれることを信じています。これらの方針に違反すると、コンテンツやアカウントが削除されることがあります。

ポリシーの遵守                     

世界中で、毎分何万もの動画がTikTokに投稿されています。私たちには、すべての動画に対してユーザーの安全と健全性を保護するという大きな責任があります。コミュニティガイドラインを適用するため、テクノロジーとコンテンツ・モデレーションを併用し、ガイドラインに違反するコンテンツやアカウントを特定し、削除します。

テクノロジー

テクノロジーは、ポリシーを効果的に適用するうえで重要な要素であり、コミュニティガイドラインに違反している可能性のあるコンテンツに自動的にフラグを付与するシステムを開発しています。このシステムは、行動様式などを加味し、潜在的違反コンテンツにフラグを立てます。これにより、迅速な対応と潜在的危害を軽減することができます。たとえば、スパムや詐欺コンテンツの大部分は自動的に削除されます。私たちは継続的にシステムを強化するべく、進化するトレンド、学術研究、業界ベストプラクティスを継続的に研究しています。

コンテンツモデレーション                            

今日のテクノロジーは、ポリシーを適用する際にテクノロジーだけに頼ることができるほど発達していません。たとえば、風刺のようなコンテンツが違反行為であるかどうかを判断する際には、前後の文脈が重要になることがあります。そのため、研修を受けた当社のモデレーターチームが、当社の基準に違反するコンテンツかどうかの審査および削除作業をサポートします。危険なチャレンジや有害な誤情報など、影響が大きい違反コンテンツの場合は、このチームが主体的に削除いたします。
コンテンツをモデレーションするもう 1 つの方法として、ユーザーから受け取った報告を活用します。アプリ内の報告機能により、ユーザーが不適切な可能性のあるコンテンツやアカウントに簡単にフラグを立てられるようにしています。ユーザーは当社のガイドラインに違反することが疑われる場合、その理由(暴力、危害、嫌がらせ、ヘイトスピーチなど)をユーザーがリストから選択し、報告できます。その後、モデレーターは報告されたコンテンツを評価し、それがTikTokのコミュニティガイドラインまたは利用規約に違反しているかどうかを精査します。違反している場合はコンテンツが削除されます。

2019年度下半期に削除対象となったコンテンツ

昨年下半期(2019年7月1日~12月31日)に、コミュニティガイドラインまたは利用規約に違反により削除された動画件数は全世界で49,247,689件で、これはユーザーが作成した全動画の1%未満です。私たちの積極的なモデレーションシステムにより、それら動画の98.2%においてユーザーからの報告以前に発見、削除しており、そのうち89.4%が誰にも見られる前に削除されています。
以下のグラフは、削除された動画の量が最も多い5つの市場を示しています。 

国名・市場 全削除数
インド 16,453,360
アメリカ合衆国 4,576,888
パキスタン 3,728,162
イギリス 2,022,728
ロシア 1,258,853

昨年末、私たちは新しいコンテンツ・モデレーションの仕組みを導入し、投稿された動画が当社のプラットフォームから削除された理由をより透明性をもって報告できるようにしました。投稿された動画がコミュニティガイドラインに違反している場合は、違反したポリシー(複数の違反カテゴリーの場合を含む)が表示され、削除されます。2019年12月には、違反した動画を削除したポリシーカテゴリの内訳を発表していますが、これらの動画は新しいコンテンツ・モデレーションの仕組みが適用されたものです。
12月中に削除した動画のうち、25.5%が「成人のヌードや性行為」に該当しました。子供たちの安全を配慮した結果、削除された動画の24.8%はアルコールや薬物の使用など、未成年者にとって有害で違法な行為を描写したコンテンツを対象とした「未成年者の安全」のポリシーに違反していました。私たちは必要に応じて、迅速にアカウントを削除、停止し、NCMEC及び法執行機関に報告しています。「不正行為と規制される物」を含んだコンテンツは削除された動画の21.5%を占めました。加えて、削除された15.6%の動画は「自殺、自傷行為、危険行為」に関するポリシーに違反していました。残りの削除された動画は、8.6%が「暴力的で刺激的なコンテンツ」のポリシーに違反、3%が「嫌がらせといじめ」のポリシーに違反、「ヘイトスピーチ」、「誠実性と信頼性」、「危険な個人・組織」のポリシーに違反するコンテンツがそれぞれ1%未満含まれていました。 
私たちはその後、コンテンツレビューの大部分を新しいコンテンツ・モデレーションの仕組みへと移行しました。今後のレポートでは、各レポートの全期間に渡る、コンテンツとアカウント両方についてのより詳細なデータをお伝えします。

用語と定義                                                           

コンテンツがTikTok コミュニティに適切かどうかを判断する際、以下の用語と定義を使用してモデレーション戦略を決定します。信頼のおける多くの専門家の協力を得て、ダイナミックなポリシー動向を理解し、問題コンテンツや行動に対処するポリシーやモデレーション戦略を構築しています。米国コンテンツ諮問委員会の8人の専門家、ConnectSafely.orgやNational Center for Missing and Exploited Children、WePROTECTグローバルアライアンスその他と協力しています。

  • 危険な個人・組織: 私たちは、危険な個人または組織がテロ、犯罪、または害を及ぼす可能性のあるその他の行動を促進する目的で当社のプラットフォームを使用することを許可しません。公共の安全に対して明かな脅威がある場合、当社はアカウントを禁止して問題に対応し、必要に応じて関連法当局と協力します。
  • 不正行為と規制される物: 当社は、特定の規制対象物品の貿易、販売、宣伝、使用、および犯罪行為の描写または宣伝を禁止します。一部のコンテンツが、ある地域または多くの国で違法または規制されている活動や物品に関連する場合、当該活動や物品が投稿について合法である場合でも削除されることがあります。教育、科学、芸術、ニュース価値のあるコンテンツなど、一般市民に価値を提供するコンテンツについては、例外として認められています。
  • 暴力的で刺激的なコンテンツ: 過度に陰惨なコンテンツや衝撃的なコンテンツ、特に暴力や苦しみを助長または賛美するコンテンツは許可しません。特定の状況(ニュース価値のあるコンテンツや問題意識を高めるためのコンテンツなど)についは、例外を認めています。暴力や公安に対する脅威の明かなリスクが特定された場合、アカウントは禁止され、必要に応じて関連法当局と協力します。
  • 自殺、自傷行為、危険行為:害を及ぼすおそれのある活動への参加は促進しません。また、ユーザーが他人に危険行為の参加を促すことも許可していません。自傷行為や自殺を促すコンテンツは許可しませんが、これらに対する問題意識を高めるために、ユーザーが自分の経験を共有することは許可されます。
    TikTokは、世界中の業界専門家と協力し、当社のモデレーションの適度で適切なバランスを保っています。自傷行為の危険が迫っている可能性があることを示す内容に遭遇した場合、TikTokは現地の救急隊に連絡し安全性確認を実施することがあります。
  • ヘイトスピーチ:当社は保護属性に基づいて個人または団体に対して攻撃または暴力を扇動するコンテンツを許可しません。ヘイトスピーチを含むコンテンツは許可されず、プラットフォームから削除されます。
  • 嫌がらせといじめ:ユーザーは恥辱や屈辱、いじめ、嫌がらせを恐れずに、安心して自分自身を表現することが可能であるべきです。私たちは、虐待的なコンテンツによる心理的苦痛を深く理解しており、プラットフォーム上での虐待的コンテンツや行動は許可しません。
  • 成人のヌードや性行為:アニメコンテンツを含む、性的に露骨または満足感を与えるようなコンテンツは許可されません。性的コンテンツは、一部の管轄区域では法的罰則につながったり、同意のない画像(リベンジポルノなど)を共有することでユーザーに害を及ぼすなど、多くのリスクを伴います。また、明らかに性的なコンテンツは、特定の文化において攻撃的内容になる可能性があります。教育、ドキュメンタリー、科学、または芸術的目的で、ヌードや性的に露骨なコンテンツに関する内容は例外として認められます。
  • 未成年者の安全:私たちは未成年の安全に真摯に取り組んでおり、未成年者に対する略奪行為やグルーミング行為に対しては一切許可しません。児童虐待、児童ヌード、性的搾取をデジタル形式および現実世界の両方で描写または発信するコンテンツは許可されません。そのようなコンテンツは関連法当局に報告されます。また、非行行為をする未成年者を描写するコンテンツも許可されません。
  • 誠実性と信頼性:コミュニティメンバーを欺いたり、誤解を招くことを意図したコンテンツは、信頼に基づく私たちのコミュニティを危険にさらします。このようなコンテンツは当社のプラットフォーム上では許可されません。これにはスパム、なりすまし、情報漏洩キャンペーンなどの活動が含まれます。

政府からの要請についての法令遵守

以下のセクションでは、2019年下半期に各国政府から受けた法的要請の件数とその対応についての概要を提供します。当社はユーザーの権利とプライバシーを尊重しており、政府機関からの要請に加え適切な法的文書を書面で当社に提出するよう求めています。 当社は定められた窓口を通じない要求には応じません。

ユーザー情報に関する法的要請

当社が受け取る情報要求については、法執行機関の調査に関連し証拠の収集権限があるかどうか、または喫緊の危害を伴う緊急事態の調査権限があるかどうかなど、法的義務の有無について慎重に検討されます。当社の方針と慣行の詳細については、当社法執行機関向けデータリクエストガイドラインをご覧ください。
以下の表は、2019年下半期(2019年7月1日~12月31日)に受けた情報要求の国別件数と、それらの要求に当社が対応した割合を表しています。

注:TikTokは、上記リスト以外の国/市場からのアカウント情報に関する法的要請を受けていません。

政府機関によるコンテンツの削除要求                     

私たちは政府機関から、わいせつ行為、ヘイトスピーチ、アダルトコンテンツなどを取り締まる現地の法律に関する要請など、プラットフォーム上のコンテンツを削除するよう要請を受ける場合もあります。当社では、コミュニティガイドライン、利用規約、および関連法律に従って、当該資料をすべてレビューし適切に対処しますが、要請の法的根拠が有効でない場合や当社の基準を違反していないと信ずる場合は対応しません。
以下の表は2019年下半期(2019年7月1日から12月31日まで)に法的組織から受けたコンテンツの削除または制限に関する要求を示しています。

注:TikTokは、上記リスト以外の国/市場からはコンテンツ削除または制限に関する政府要請を受けていません。

知的財産権侵害によるコンテンツの削除について

ユーザーの創造性こそがTikTokの原動力です。私たちは、当社のプラットフォームでユーザーの自己表現を引き出し、保護するために最善を尽くします。コミュニティガイドラインおよびTikTokサービス規約で、第三者の知的財産を侵害するコンテンツを禁じています。
当社はデジタルミレニアム著作権法(DMCA)など著作権法違反に基づく有効な削除要請を受けつけています。TikTokは、権利者から知的財産権侵害の可能性があることを示す通知を受け取った場合、侵害コンテンツを即時削除します。
他者の著作権を侵害する行為は、アカウントの停止または削除につながる可能性があります。著作権侵害の申し立てをどのように評価するかについては、当社の「知的財産権について」をご覧ください。

注:著作権で保護されたコンテンツの削除統計に含まれるのは著作権所有者、代理人、弁護人からの著作権侵害の削除通知のみです。

今後について

TikTokは、創造的表現をしたい全ての人にとって、正しく、友好的で、安全なコミュニティであることを保証するため全力を尽くしていることに誇りを持っております。しかし、私たちにできることはもっとあると思っています。このレポートに関して、transparencyreport [at] tiktok [dot] comまでご意見をお寄せください。次回のレポートで更に多くの情報を共有できることを願っています。

透明性レポート アーカイブ

2019年7月1日-2019年12月31日
2019年1月1日-2019年6月30日