Centro de seguridad

Reporte de Transparencia de TikTok

Corresponde: 1 de julio de 2019 - 31 de diciembre de 2019

Publicado: 9 de julio de 2020

Introducción

TikTok es una plataforma diseñada para la expresión creativa. Animamos a nuestros usuarios a compartir lo que los hace únicos dentro de una comunidad diversa y creciente que hace lo mismo. La garantía de seguridad ayuda a los usuarios a sentirse cómodos, a expresarse abiertamente y a dar rienda suelta a su creatividad. Por eso nuestra prioridad es fomentar una experiencia segura y positiva para todos en TikTok.
Publicamos nuestro primer Informe de transparencia el 30 de diciembre de 2019 y desde entonces nos comprometimos a actualizar periódicamente a nuestra comunidad sobre cómo respondemos responsablemente a las solicitudes de datos y cómo protegemos la propiedad intelectual. Con esta nueva publicación, nos proponemos ampliar el informe anterior y abordar los siguientes temas:

  • Nuestro enfoque y políticas para proteger la seguridad de nuestra comunidad
  • Cómo establecemos las Normas de la Comunidad y cómo garantizamos su cumplimiento
  • Cómo apoyamos a nuestra comunidad con herramientas y recursos educativos
  • El volumen de vídeos retirados por incumplir las Normas de la comunidad

Además, estamos empezando a publicar métricas de moderación de contenido relativas a 9 categorías de nuestras políticas. A fins del año pasado empezamos a utilizar una nueva infraestructura de moderación que nos permite informar públicamente de las razones por las cuales se eliminan vídeos que incumplen las normas en aras de la transparencia. En este reporte estamos compartiendo las razones por las cuales se eliminaron videos en el mes de diciembre, a traves de nuestro nuevo sistema de moderación.  En los reportes siguientes podremos compartir la información por el periodo de seis meses completos. A finales del año pasado empezamos a utilizar una nueva infraestructura de moderación que nos permite informar públicamente de las razones por las cuales se eliminan vídeos que incumplen las normas en aras de la transparencia. En este reporte estamos compartiendo las razones por las cuales se eliminaron videos en el mes de diciembre, a traves de nuestro nuevo sistema de moderación.  En los reportes siguientes podremos compartir la información por el periodo de seis meses completos. 
Estamos comprometidos a ganarnos la confianza de nuestra comunidad día tras día. Continuaremos actualizando este informe para abordar las preocupaciones que nos llegan por parte de usuarios, responsables de la política y expertos. En última instancia, nuestro objetivo es garantizar que TikTok siga siendo un espacio inspirador y alegre para todos.

En TikTok velamos incansablemente por la seguridad de los usuarios

No hay nada más importante para nosotros que proteger la seguridad de nuestros usuarios. Como plataforma de alcance mundial, contamos con un equipo de miles de personas que trabajan en todos los mercados donde opera TikTok para garantizar que el ambiente de la aplicación sea seguro y esté protegido. Abordamos los comportamientos y contenidos problemáticos a través de una combinación de políticas, tecnología y moderación, que también incluye medidas de eliminación de vídeos y de bloqueo de cuentas por incumplimiento de las Normas de la comunidad o nuestros Términos de servicio.

Empoderamos a nuestra comunidad con herramientas                                                       

Además de la tecnología y las medidas de moderación (que trataremos más en detalle a continuación), hemos puesto varios mecanismos de control directamente a manos de nuestros usuarios, con el fin de que ellos mismos gestionen su propia experiencia. Estos mecanismos de control ofrecen a los usuarios una forma fácil de restringir quién puede interactuar con su contenido, y también les permiten establecer filtros automáticos de comentarios, desactivar mensajes o bloquear usuarios. Y si se encuentran con algo que creen que incumple nuestras Normas de la Comunidad, pueden denunciarlo directamente a nuestro equipo desde la misma aplicación.

Privacidad de la cuenta                                   

TikTok ofrece una amplia gama de ajustes de privacidad que los usuarios pueden activar durante la configuración de la cuenta, o en cualquier otro momento. Con una cuenta privada, solo los seguidores autorizados pueden ver o comentar los vídeos de un usuario o enviarle un mensaje directo. La mensajería también puede restringirse o desactivarse por completo fácilmente, y esta función está deshabilitada por defecto en las cuentas registradas a nombre de menores de 16 años. Además, los usuarios pueden eliminar a un seguidor o bloquear a un usuario con quien no quieran tener contacto.

Controles de contenido adicionales

Los creadores son autores de su contenido y, como tales, deben poder controlar de qué forma los demás pueden interactuar con su contenido. TikTok ofrece a los usuarios opciones generales a nivel de cuenta y específicas por vídeo para personalizar la configuración de sus contenidos, como limitar quién puede comentar o hacer un dúo con un vídeo. Los usuarios también pueden configurar filtros de comentarios: pueden crear una lista personalizada de palabras clave que se bloquearán automáticamente de cualquier comentario a sus vídeos. Asimismo, los usuarios también pueden optar por desactivar los comentarios de un vídeo específico, permitir únicamente que ciertas personas comenten sus vídeos o desactivar por completo los comentarios para todos los vídeos.
Además, educamos activamente a los usuarios sobre sus opciones a través de vídeos sobre seguridad y desintoxicación digital en la aplicación y en nuestro Centro de seguridad. A modo de ejemplos, nos asociamos con algunos de nuestros creadores top para crear una serie de vídeos que alientan a los usuarios a controlar el tiempo que pasan en la pantalla. Nuestra función de Gestión del tiempo en pantalla permite a los usuarios limitar el tiempo que deseen pasar en TikTok. Los usuarios también pueden optar por habilitar el Modo restringido, que limita la aparición de contenidos no apropiados para todos los públicos. Estas funciones están disponibles en la sección de desintoxicación digital, en los ajustes de la aplicación. 

Expectativas de la comunidad respecto a las Normas de la comunidad

TikTok es una comunidad global de personas que quieren disfrutar de una experiencia auténtica y positiva. Nuestro compromiso con la comunidad comienza con nuestras políticas, que se recogen en nuestras Normas de la Comunidad. Las Normas de la Comunidad son un código de conducta muy importante para garantizar un ambiente seguro y agradable. De vez en cuando, actualizamos dichas normas para proteger a nuestros usuarios de tendencias y contenidos cambiantes que podrían ser inseguros. El objetivo de este código es fomentar la confianza, el respeto y la positividad en la comunidad TikTok.
Confiamos en que todos los usuarios respeten nuestras Normas de la Comunidad y contribuyan a que TikTok sea un espacio divertido y agradable para todos. El incumplimiento de estas políticas puede dar lugar a la eliminación de contenido o cuentas.

Aplicación de nuestras políticas                             

En TikTok, se comparten decenas de miles de vídeos por minuto en distintas partes del mundo. Con cada vídeo crece la responsabilidad de proteger la seguridad y el bienestar de nuestros usuarios. Para hacer cumplir nuestras Normas de la Comunidad, nos servimos de una combinación de tecnología y estrategias de moderación de contenido que nos permiten identificar y eliminar el contenido y las cuentas que no cumplan nuestra normativa.

Tecnología

La tecnología es una parte clave para hacer cumplir nuestras políticas de manera efectiva, y contamos con un sistema que nos permite identificar automáticamente el contenido susceptible de incumplir nuestras Normas de la Comunidad. Este sistema analiza patrones y señales de comportamiento para detectar contenido que podría vulnerar las normas, lo que nos permite tomar medidas rápidas y reducir daños potenciales. Analizamos constantemente la evolución de las tendencias, estudios académicos y las mejores prácticas del sector para seguir mejorando nuestros sistemas.

Moderación de contenidos                                   

La tecnología de hoy no es tan avanzada como para que podamos confiar solamente en ella para hacer cumplir nuestras políticas. Por ejemplo, el contexto puede ser importante para determinar si cierto contenido, como la sátira, es inapropiado. Como tal, nuestro equipo de cualificados moderadores ayuda a revisar y eliminar el contenido. En algunos casos, este equipo elimina proactivamente el contenido inapropiado en evolución o tendencia, como desafíos peligrosos o desinformación perjudicial.
Otra forma de moderar el contenido es a partir de las denuncias que recibimos de nuestros usuarios. Tratamos de facilitar a los usuarios la tarea de denunciar contenidos o cuentas potencialmente inapropiados a través de la función de denuncias dentro de la aplicación, que permite al usuario elegir entre una lista predefinida las razones por las cuales creen que un vídeo o una cuenta podría incumplir nuestras normas (discurso violento o agresivo, acoso, expresiones de odio, etc.). Si nuestros moderadores determinan que hay una violación, el contenido es eliminado.

Contenido sometido a medidas durante el segundo semestre de 2019

Durante la segunda mitad del año pasado (del 1 de julio al 31 de diciembre de 2019), eliminamos 49.247.689 vídeos a escala mundial (menos del 1 % de la totalidad de los vídeos creados por nuestros usuarios), por incumplimiento de las Normas de la Comunidad o los Términos de Servicio. Nuestros sistemas captaron y eliminaron proactivamente el 98,2 % de dichos vídeos antes de que algún usuario los denunciara. De entre esos vídeos, el 89,4 % se eliminaron antes de que ningún usuario los viera.
La tabla a continuación muestra los 5 mercados con el mayor volumen de videos eliminados. 

Country/Market Total Removal
India 16,453,360
United States 4,576,888
Pakistan 3,728,162
United Kingdom 2,022,728
Russia 1,258,853

A finales del año pasado comenzamos a desplegar una nueva infraestructura de moderación de contenidos que nos permite ser más transparentes al informar sobre las razones por las cuales estos vídeos se eliminan de nuestra plataforma. Cuando un video incumple nuestras Normas de la Comunidad, se etiqueta con la política o políticas que viola y luego se retira. Esto significa que el mismo video puede aparecer en varias categorías. Para el mes de diciembre de 2019, proporcionamos un desglose de las categorías de las políticas sobre las que nos basamos para eliminar los vídeos, ya que estos fueron retirados utilizando nuestra nueva infraestructura de moderación de contenidos.
Durante el mes de diciembre, el 25,5% de los vídeos que retiramos correspondían a la categoría de desnudos y actividades sexuales en adultos. Debido a la gran cantidad de precauciones que tomamos para proteger la seguridad de los niños, el 24,8% de los videos retirados incumplieron nuestras políticas relativas a la seguridad de los menores, que incluyen contenidos que muestran comportamientos nocivos, peligrosos o ilegales por parte de estos, como el consumo de alcohol o drogas, así como contenidos más graves sobre los que tomamos medidas inmediatas para retirarlos, eliminar las cuentas e informar al NCMEC y a las fuerzas de seguridad según corresponda. Los contenidos que contienen actividades ilegales y bienes regulados constituyen el 21,5% de los vídeos eliminados. Además, el 15,6% de los videos retirados violaron nuestra política de suicidio, autolesiones y actos peligrosos que principalmente se reflejan en la eliminación de challenges peligrosos. Del resto de los videos retirados, el 8,6% violó nuestra política de contenido violento y gráfico; el 3% entró dentro de nuestra política de acoso e intimidación; y menos del 1% contenía contenido que violaba nuestras políticas sobre discrusos de odio, integridad y autenticidad, y personas y organizaciones peligrosas.  
Desde entonces, hemos transferido la mayoría de nuestras listas de revisión de contenidos a nuestro nuevo sistema de moderación de contenidos, y nuestros informes posteriores incluirán datos más detallados tanto del contenido como de las cuentas a lo largo de todo el período de tiempo. 

Terminología y definiciones                                                                   

Al determinar qué contenido es apropiado para la comunidad TikTok, utilizamos los siguientes términos y definiciones para guiar nuestra estrategia de moderación. Colaboramos con un gran elenco de expertos de confianza que nos ayudan a entender el dinámico panorama de las políticas y nos asesoran en el diseño de políticas y estrategias de moderación para abordar contenido y comportamientos problemáticos a medida que aparecen. En Estados Unidos, contamos con un Consejo asesor sobre contenidos formado por ocho expertos, y también tenemos el apoyo de organizaciones como ConnectSafely.org, National Center for Missing and Exploited Children y WePROTECT Global Alliance, entre otras.

  • Individuos y organizaciones peligrosas: No permitimos que individuos u organizaciones peligrosas usen nuestra plataforma para promover el terrorismo, actividades delictivas u otro tipo de comportamiento que pueda causar daño. En los casos en que exista una amenaza creíble a la seguridad pública, prohibimos la cuenta responsable y colaboramos con las autoridades legales pertinentes en la medida en que sea necesario y cuando sea apropiado.
  • Actividades ilegales y bienes regulados: Prohibimos el comercio, la venta, la promoción y el uso de ciertos bienes regulados, así como la representación o promoción de actividades delictivas. Algunos contenidos pueden ser eliminados si se refieren a actividades o bienes que son ilegales o están regulados en la mayor parte de la región o del mundo, incluso si las actividades o bienes en cuestión son legales en la jurisdicción de la publicación. Permitimos excepciones para contenidos que proporcionen valor al público, como el contenido educativo, científico, artístico y de interés periodístico.
  • Contenido violento y gráfico: No permitimos contenidos excesivamente horripilantes o impactantes, especialmente los que promueven o glorifican la violencia o el sufrimiento abyecto. Permitimos excepciones en determinadas circunstancias, por ejemplo, en el caso de contenidos que sean de interés periodístico o que tengan por objeto sensibilizar sobre cuestiones importantes. Cuando identificamos un riesgo real de violencia o una amenaza creíble a la seguridad pública, prohibimos la cuenta responsable y colaboramos con las autoridades legales pertinentes en la medida en que sea necesario y cuando sea apropiado.
  • Suicidio, autolesiones y actos peligrosos: No promovemos la participación en actividades que puedan causar daño. Tampoco permitimos que los usuarios alienten a otros a participar en actividades peligrosas. No permitimos contenidos que promuevan la autolesión o el suicidio, pero sí permitimos que nuestros usuarios compartan sus experiencias con fines de sensibilización.
  • We work with industry experts around the world to strike the right balance in our moderation. If we come across material that indicates there may be an imminent danger of self-harm, TikTok may contact local emergency services to carry out a wellness check.
    TikTok trabaja con expertos de todo el mundo para lograr el equilibrio adecuado en nuestra moderación. Si nos encontramos con material que indique que puede haber un peligro inminente de autolesión, TikTok se pone en contacto con los servicios de emergencia locales para llevar a cabo un control de bienestar.
  • Discurso de odio: No toleramos contenidos que ataquen o inciten a la violencia contra un individuo o grupo de individuos sobre la base de atributos protegidos. No permitimos contenidos que incluyan discursos de odio, y los eliminamos de nuestra plataforma.
  • Acoso e intimidación: Los usuarios deben sentirse seguros para expresarse sin temor a ser avergonzados, humillados, intimidados o acosados. Entendemos profundamente la angustia psicológica que el contenido abusivo puede generar en los individuos, y no toleramos el contenido o el comportamiento abusivo en nuestra plataforma.
  • Desnudez y actividades sexuales de adultos: No permitimos contenido sexualmente explícito o gratificante en TikTok, incluyendo contenido animado de esta naturaleza. El contenido sexualizado conlleva muchos riesgos, como el de provocar sanciones legales en algunas jurisdicciones y causar daños a nuestros usuarios al compartir imágenes no consentidas (por ejemplo, pornografía de venganza). Además, el contenido abiertamente sexual puede ser ofensivo en ciertas culturas. Permitimos excepciones en torno a la desnudez y el contenido sexualmente explícito con fines educativos, documentales, científicos o artísticos.
  • Seguridad de menores: Estamos profundamente comprometidos con la seguridad de los menores y tenemos una política de tolerancia cero respecto al comportamiento hostil o con fines sexuales respecto a los menores. No permitimos el contenido que represente o difunda el abuso infantil, la desnudez infantil o la explotación sexual infantil tanto en formato digital como en el mundo real, e informamos de dicho contenido a las autoridades legales pertinentes. Tampoco permitimos contenido que represente a menores en conducta delictiva.
  • Integridad y autenticidad: Todo contenido que tenga la intención de engañar o de difamar a cualquiera de los miembros de nuestra comunidad pone en peligro a nuestra comunidad, que se basa en la confianza. No permitimos ese contenido en nuestra plataforma. Esto incluye actividades como el spamming, la suplantación de identidad y las campañas de desinformación.

Respuesta a solicitudes gubernamentales

En los siguientes apartados proporcionamos información sobre el volumen de solicitudes jurídicas recibidas por parte de los Gobiernos de todo el mundo durante el segundo semestre de 2019 y cómo respondimos. Respetamos los requerimientos hechos a traves de los canales adecuados y los y cuando es requerido por ley.  En situaciones de emergencia limitadas, TikTok proporcionara informacion de los usuarios sin proceso legal, cuando tenemos razon para creer de buena fe, que el proporcionar esta informacion es necesaria para prevenir riesgo inminente de muerte o lesiones fisicas serias a cualquier persona. 

Solicitudes jurídicas de información acerca de los usuarios

Examinamos cuidadosamente toda solicitud de información que recibimos para determinar su suficiencia jurídica. Por ejemplo, analizamos si la entidad solicitante está autorizada para reunir pruebas en relación con una investigación policial o a investigar una emergencia que entrañe un daño inminente. Para más información sobre nuestras políticas y prácticas, consulte nuestras Directrices para la solicitud de datos policiales y judiciales.
La tabla siguiente muestra el número de solicitudes de información que recibimos por país durante el segundo semestre de 2019 (del 1 de julio al 31 de diciembre de 2019) y la tasa de cumplimiento de esas solicitudes.

NOTA: TikTok no recibió ninguna solicitud de información para fines jurídicos acerca de cuentas de país o mercado que no figuran en la lista anterior.

Solicitudes gubernamentales para la eliminación de contenido                                      

En ocasiones recibimos solicitudes de Gobiernos y otros organismos institucionales para eliminar contenido de nuestra plataforma, como requerimientos relacionados con leyes locales relativas a la prohibición de obscenidades, discursos hirientes de odio, contenido adulto u otras temáticas similares. En estos casos, revisamos el material teniendo en cuenta nuestras Normas de la Comunidad, los Términos de Servicio y la legislación aplicable en cada situación para proceder de la manera más apropiada. Si atendiendo a esos criterios, consideramos que esas solicitudes no son legalmente válidas o no violan nuestras normas, nos reservamos el derecho a no actuar sobre el contenido reportado.
En la tabla siguiente se muestran las solicitudes que recibimos de entidades jurídicas durante el segundo semestre de 2019 (del 1 de julio al 31 de diciembre de 2019) para eliminar o restringir contenido.

NOTA: TikTok no recibió ninguna solicitud gubernamental para eliminar o restringir contenido en ningún país o mercado que no figure en la lista anterior.

Eliminación de contenido por atentar contra los derechos de autor

La creatividad de nuestros usuarios es la base y el motor de TikTok. Nuestra plataforma permite que los usuarios brillen dando rienda suelta a su libertad de expresión y hacemos todo lo posible para protegerla.
Nuestras Normas de Comunidad y los Términos de Servicio prohiben cualquier contenido que atente o vulnere la propiedad intelectual de terceros. Aceptamos las solicitudes válidas de retiro de contenido que se fundamenten en el incumplimiento de las leyes de derechos de autor, como la ley estadounidense Digital Millennium Copyright Act (DMCA). Tras recibir la correspondiente y válida notificación del titular de los derechos de una posible vulneración de los derechos de propiedad intelectual, TikTok retira el contenido infractor en el tiempo y la forma adecuada.
Toda actividad que infrinja los derechos de autor de otros puede dar lugar a la suspensión o eliminación de la cuenta. Para obtener más información sobre cómo evaluamos las denuncias de infracción de derechos de autor, consulte nuestra Política de propiedad intelectual

NOTA: Solo se incluyen en nuestra estadística de eliminación de contenido protegido por derechos de autor los avisos de violación de derechos de autor presentados por los propietarios de los derechos, sus agencias o abogados.

De cara al futuro

Estamos orgullosos de los avances que estamos haciendo para garantizar que TikTok sea una comunidad auténtica, inclusiva y segura para todos aquellos que deseen expresar su creatividad. Pero sabemos que todavía podemos hacer más. Agradeceremos cualquier comentario y sugerencias sobre este informe que quiera hacernos llegar a través del correo transparencyreport [at] tiktok [dot] com. Nos comprometemos a seguir compartiendo más información en nuestro próximo informe. 

Archivo de Informes de Transparencia

1 de julio - 31 de diciembre, 2019.
1 de enero - 31 de junio, 2019.