メインコンテンツにスキップ
コミュニティガイドラインの実施

コミュニティガイドライン実施レポート

2019年7月1日~2019年12月31日
リリース日: 2020年7月9日

本レポートについて

TikTokは創造的な表現という基盤の上に成り立っています。私たちは多様性に富み成長を続けるコミュニティの中で、ユーザーの皆様が表現する個性を尊重します。皆様が安心して自己表現できる場を提供し、創造性を促進します。これこそが、TikTokが皆様にとって安全安心、そしてポジティブな体験を最優先する理由です。 私たちは2019年12月30日に第一回透明性レポートを発行し、データリクエストへの責任ある対応や知的財産の保護についてコミュニティに対し定期的に情報発信することを約束しました。今回はレポートを拡張し、以下の情報について提供致します:

  • コミュニティの安全を守るためのアプローチとポリシー
  • コミュニティガイドラインの確立と実施方法
  • ツールと教育を通してコミュニティを強化する方法
  • コミュニティガイドライン違反により削除された動画の事例

さらに、今回より当社の9つのコンテンツポリシーカテゴリーに対応するコンテンツ・モデレーション指標を報告してまいります。本レポートの付録には2019年12月1日から2020年2月29日に間に削除された動画の削除理由の内訳が記載されています。昨年コンテンツ・モデレーションへの投資を行い、このような情報の共有が可能になりました。この新しいシステムは全世界に拡大中で、違反動画が削除された理由を公開することで当社の透明性が高められると考えています。

私たちは日々コミュニティの信頼に応える努力をしています。ユーザー、政策立案担当者、専門家から寄せられたフィードバックに対応し、今後も報告内容を進化させていきます。私たちの最終目標は、プロセスとアクションを最大限可視化し、TikTokをすべての人にとって活気のある楽しい場所にすることです。

レポートデータ

動画

昨年下半期(2019年7月1日~12月31日)に、コミュニティガイドラインまたは利用規約に違反により削除された動画件数は全世界で49,247,689件で、これはユーザーが作成した全動画の1%未満です。私たちの積極的なモデレーションシステムにより、それら動画の98.2%においてユーザーからの報告以前に発見、削除しており、そのうち89.4%が誰にも見られる前に削除されています。 以下のグラフは、削除された動画の量が最も多い5つの市場を示しています。

国名・市場全削除数
インド16,453,360
アメリカ合衆国4,576,888
パキスタン3,728,162
イギリス2,022,728
ロシア1,258,853

昨年末、私たちは新しいコンテンツ・モデレーションの仕組みを導入し、投稿された動画が当社のプラットフォームから削除された理由をより透明性をもって報告できるようにしました。投稿された動画がコミュニティガイドラインに違反している場合は、違反したポリシー(複数の違反カテゴリーの場合を含む)が表示され、削除されます。2019年12月には、違反した動画を削除したポリシーカテゴリの内訳を発表していますが、これらの動画は新しいコンテンツ・モデレーションの仕組みが適用されたものです。

12月中に削除した動画のうち、25.5%が「成人のヌードや性行為」に該当しました。子供たちの安全を配慮した結果、削除された動画の24.8%はアルコールや薬物の使用など、未成年者にとって有害で違法な行為を描写したコンテンツを対象とした「未成年者の安全」のポリシーに違反していました。私たちは必要に応じて、迅速にアカウントを削除、停止し、NCMEC及び法執行機関に報告しています。「不正行為と規制される物」を含んだコンテンツは削除された動画の21.5%を占めました。加えて、削除された15.6%の動画は「自殺、自傷行為、危険行為」に関するポリシーに違反していました。残りの削除された動画は、8.6%が「暴力的で刺激的なコンテンツ」のポリシーに違反、3%が「嫌がらせといじめ」のポリシーに違反、「ヘイトスピーチ」、「誠実性と信頼性」、「危険な個人・組織」のポリシーに違反するコンテンツがそれぞれ1%未満含まれていました。

私たちはその後、コンテンツレビューの大部分を新しいコンテンツ・モデレーションの仕組みへと移行しました。今後のレポートでは、各レポートの全期間に渡る、コンテンツとアカウント両方についてのより詳細なデータをお伝えします。

概要

私たちにとって最も重要なことは、ユーザーの安全を守ることです。TikTokはグローバルプラットフォームとして安全安心なアプリ環境を維持するため、数千人規模のの担当者を関連市場全体に配置し、ポリシー、テクノロジー、モデレーションを組み合わせ、問題行動やコンテンツに対処しています。これには、コミュニティガイドラインTikTokサービス規約 に違反する動画の削除やアカウントの停止などが含まれます。

ツールを活用したコミュニティの強化

テクノロジーとモデレーション対策(詳細は後述)に加え、ユーザーが自身の体験を個々に管理できるよう、多数の管理機能を直接利用できるようにしています。これらの管理機能を使用すれば、コンテンツを操作できるユーザーの制限、自動コメントフィルターの設定、メッセージの無効化、他のユーザーのブロックなどが可能となります。また、コミュニティガイドライン違反が疑われるものを見つけた場合は、アプリを通して運営チームに直接報告することができます。

アカウントのプライバシー

TikTok は、ユーザーがアカウント設定中や設定後にいつでも有効にできる詳細プライバシー設定を提供しています。例えば、非公開アカウントでは、承認されたフォロワーのみ、ユーザーの動画を表示、コメント、またダイレクトメッセージの送信をすることができます。メッセージ機能は簡単に制限または完全にオフにすることができ、この機能は16歳未満の登録アカウントでは自動的に無効になります。さらに、ユーザーはフォロワーを削除したり、他のユーザーからの連絡をブロックすることもできます。

その他のコンテンツ管理

コンテンツを作成したクリエーターは、他のユーザーがコンテンツにどうアクセスするかを管理する権限があります。TikTok は、アカウントレベルおよび個別の動画に対するコンテンツ設定の充実したカスタマイズオプションを提供しており、作成した動画にコメントをしたり、デュエットできるユーザーを制限することができます。また、ユーザーも動画のコメント欄で自動的にブロックされる特定キーワードのリストを作成し、コメントフィルターを有効にすることが可能です。特定の動画に対するコメントを無効にしたり、特定の視聴者のコメントを制限したり、動画に対するコメントを完全に無効にしたりすることも選択できます。

私たちはさらに、アプリ内の安全性・健全性に関する動画やセーフティセンターを通じて、ユーザーの使える設定について積極的に情報提供をしています。たとえば、有名なクリエイターと提携し、ユーザーが画面時間を表示するように促す動画を提供したりしています。スクリーンタイム管理機能を使えば、ユーザーがTikTokに費やす時間の上限を設定できます。ユーザーは制限モードを有効にすることもできます。これにより、すべてのユーザーにとって適切とは言えないコンテンツが制限されます。これらの機能はアプリ設定内の「デジタルウェルビーイング」からいつでも利用できます。

コミュニティガイドラインでコミュニティの期待を設定する

TikTokは、正しく、ポジティブな体験を求める人々のグローバルコミュニティです。私たちのコミュニティに対するコミットメントは、コミュニティガイドラインに規定されるポリシーに反映されています。コミュニティガイドラインは、安全で友好的環境のための大切な行動規範です。中身は随時更新され、変化し続けるトレンドや危険なコンテンツからユーザーを守ります。これらはTikTokコミュニティの信頼性、尊重、ポジティブ性を育むためのものです。 すべてのユーザーが私たちのコミュニティガイドラインを遵守し、TikTokを楽しく友好的な場として協力してくれることを信じています。これらの方針に違反すると、コンテンツやアカウントが削除されることがあります。

ポリシーの遵守

世界中で、毎分何万もの動画がTikTokに投稿されています。私たちには、すべての動画に対してユーザーの安全と健全性を保護するという大きな責任があります。コミュニティガイドラインを適用するため、テクノロジーとコンテンツ・モデレーションを併用し、ガイドラインに違反するコンテンツやアカウントを特定し、削除します。

テクノロジー

テクノロジーは、ポリシーを効果的に適用するうえで重要な要素であり、コミュニティガイドラインに違反している可能性のあるコンテンツに自動的にフラグを付与するシステムを開発しています。このシステムは、行動様式などを加味し、潜在的違反コンテンツにフラグを立てます。これにより、迅速な対応と潜在的危害を軽減することができます。たとえば、スパムや詐欺コンテンツの大部分は自動的に削除されます。私たちは継続的にシステムを強化するべく、進化するトレンド、学術研究、業界ベストプラクティスを継続的に研究しています。

コンテンツモデレーション

今日のテクノロジーは、ポリシーを適用する際にテクノロジーだけに頼ることができるほど発達していません。たとえば、風刺のようなコンテンツが違反行為であるかどうかを判断する際には、前後の文脈が重要になることがあります。そのため、研修を受けた当社のモデレーターチームが、当社の基準に違反するコンテンツかどうかの審査および削除作業をサポートします。危険なチャレンジや有害な誤情報など、影響が大きい違反コンテンツの場合は、このチームが主体的に削除いたします。

コンテンツをモデレーションするもう 1 つの方法として、ユーザーから受け取った報告を活用します。アプリ内の報告機能により、ユーザーが不適切な可能性のあるコンテンツやアカウントに簡単にフラグを立てられるようにしています。ユーザーは当社のガイドラインに違反することが疑われる場合、その理由(暴力、危害、嫌がらせ、ヘイトスピーチなど)をユーザーがリストから選択し、報告できます。その後、モデレーターは報告されたコンテンツを評価し、それがTikTokのコミュニティガイドラインまたは利用規約に違反しているかどうかを精査します。違反している場合はコンテンツが削除されます。

その他のレポート

このページはお役に立ちましたか?

thumps upはいthumps downいいえ