Centro de seguridad

Informe de transparencia

1 de Enero - 30 de Junio 2020

Released: September 22, 2020


Introducción

Cientos de millones de personas en todo el mundo acuden a TikTok para entretenerse, expresarse y conectar. Nuestra máxima prioridad es ayudar a promover una experiencia segura con una aplicación que fomenta la diversión y la pertenencia a nuestra creciente comunidad en todo el mundo. Y no podemos lograr este objetivo sin transparencia.

TikTok se esfuerza en ser la empresa más transparente y responsable del sector en lo que a seguridad de sus usuarios se refiere. Para poner en práctica este objetivo, proporcionamos nuestra moderación de contenidos, algoritmos y prácticas sobre privacidad y seguridad a través de nuestros Centros de Transparencia y Responsabilidad mundiales. Asimismo, publicamos estos informes sobre transparencia con el objetivo de ofrecer información sobre el volumen y la naturaleza de los contenidos eliminados por infringir nuestras Normas de la Comunidad o los Términos de Servicio, además de informar sobre nuestra respuesta a las peticiones de información por parte de las fuerzas y cuerpos de seguridad, a las solicitudes gubernamentales para eliminación de contenidos y a los avisos para eliminación de contenidos protegidos por derechos de autor. También hacemos un resumen de las mejoras que hemos realizado durante la primera mitad de 2020 para incrementar la seguridad y el entusiasmo en nuestra plataforma.

Estamos orgullosos de los progresos que hemos realizado para aumentar la visibilidad en estas áreas y tenemos planes para seguir proporcionando más información en cada informe. Agradecemos sus comentarios o preguntas sobre este informe. Por favor, envíenos un correo electrónico a  transparency [at] tiktok [dot] com.

Impulsando la seguridad y la comunidad en TikTok

Durante la primera mitad de 2020 hemos logrado importantes avances, estableciendo una serie de políticas, productos y alianzas destinadas a promover la seguridad, la responsabilidad y el entusiasmo en la aplicación. 

Políticas

Comenzamos el año 2020 con la publicación de un conjunto, ampliado, de políticas en nuestras Normas de la Comunidad para promover un entorno de la aplicación estimulante y acogedor. En este apartado se incluyen nuevas políticas sobre contenidos engañosos para prevenir la propagación de información errónea y la desinformación, así como políticas más detalladas en asuntos como el discurso de odio para, de esta manera, fomentar la inclusión. También nos comprometimos públicamente a promover y apoyar los Principios Voluntarios para Hacer Frente a la Explotación y a los Abusos Sexuales Infantiles y el Código de Prácticas de la UE sobre Desinformación.

Productos 

Fomentando nuestras políticas 

Para apoyar nuestras políticas, introdujimos un mecanismo para que los usuarios puedan informar fácilmente de diferentes tipos de información errónea directamente a nuestro equipo para su posterior revisión. Con este fin, lanzamos un programa de verificación de datos en ocho mercados para ayudarnos a verificar el contenido engañoso, como la información errónea sobre el nuevo coronavirus, las elecciones y el cambio climático. También introdujimos en la aplicación anuncios educativos de interés público sobre hashtags relacionados con temas importantes que forman parte del debate público, como las elecciones, la iniciativa Black Lives Matter, y las conspiraciones nocivas, incluyendo las teorías de QAnon.

Poniendo en contacto a los usuarios con contenidos fidedignos y educativos

Continuamos nuestro trabajo para educar a los usuarios sobre nuestras políticas y características de seguridad a través de vídeos sobre las prestaciones para seguridad de la aplicación. Para promover la formación digital, lanzamos un Portal Juvenil donde los adolescentes y sus familias pueden aprender sobre la seguridad en Internet y las herramientas y controles incorporados en TikTok. También creamos vídeos al estilo TikTok realizados por creadores populares para educar a nuestra comunidad sobre la formación en medios de comunicación y sobre la información errónea.

Damos prioridad a las experiencias instructivas que ponen en contacto a nuestros usuarios con contenidos fidedignos y de apoyo en una amplia gama de temas. Cuando surgió el nuevo coronavirus, promovimos el contenido fidedigno a través de páginas informativas en la aplicación y organizamos emisiones en directo educativas y desafíos con hashtags junto a la Organización Mundial de la Salud, la Federación Internacional de la Cruz Roja, UNICEF en India y figuras populares en salud pública y ciencia, incluyendo Bill Nye the Science Guy y Prince's Trust. Para apoyar a nuestra comunidad de raza negra, creamos páginas especiales en nuestra aplicación donde los usuarios podían aprender sobre la historia de la raza negra y las organizaciones de justicia social y rendimos tributo a los creadores y artistas negros durante el Mes de la Música Negra. 

Mejorando la seguridad de los jóvenes

TikTok lanzó un conjunto de prestaciones para garantizar la seguridad juvenil líderes en el sector que permiten a los padres y a los adolescentes personalizar su experiencia con TikTok en función de las necesidades individuales. A través de nuestra función de Sincronización Familiar, los padres pueden conectar su cuenta TikTok con la de sus hijos adolescentes para orientarles sobre el tipo de contenido disponible para los jóvenes, además de promover hábitos saludables sobre el tiempo que deben pasar mirando una pantalla y decidir la configuración de los mensajes. TikTok desactiva automáticamente los mensajes directos para las cuentas registradas de menores de 16 años y no permitimos a ningún usuario enviar imágenes privadas como medida preventiva para hacer frente a contenidos nocivos y abusivos.

Alianzas

Valoramos los comentarios y las aportaciones de los expertos, las organizaciones sin fines de lucro y otras organizaciones, porque hacen que nuestras políticas, productos y protecciones sean más fuertes y completos para nuestra comunidad. Durante la primera mitad de 2020, TikTok estableció una serie de importantes alianzas mundiales con las principales organizaciones de seguridad, incluyendo acuerdos destacados con el Centro Nacional para Menores Desaparecidos y Explotados y la Alianza Global WePROTECT para contribuir en la lucha contra la explotación y el abuso sexual infantil. En India, nos asociamos con el Consejo para Seguridad de Datos para fomentar la concienciación sobre prácticas seguras en internet. Y en los Estados Unidos, pusimos en marcha nuestro Consejo Asesor sobre Contenido con expertos en discursos de odio, incluyendo la IA, la seguridad de los jóvenes y otros asuntos, así como nuestro Colectivo para la Diversidad de Creadores, que reúne a personas de diferentes trayectorias profesionales para ayudar a garantizar la diversidad, la inclusión y la representación en nuestros programas y en nuestra Plataforma.

Cumplimiento de las Normas de la Comunidad  

En la primera mitad de 2020 (del 1 de enero al 30 de junio), 104.543.719 vídeos fueron eliminados a nivel mundial por infringir nuestras Normas de la Comunidad o los Términos de Servicio, lo que representa menos del 1% de todos los vídeos subidos a TikTok. De estos vídeos, encontramos y eliminamos el 96,4% de ellos antes de que algún usuario nos informara de ello, y el 90,3% fueron eliminados incluso antes de ser visualizados. 

Este gráfico muestra el volumen de vídeos eliminados por infracciones de nuestras políticas. Cuando un vídeo infringe nuestras Normas de la Comunidad, se etiqueta con la política o políticas que infringe y se elimina. Esto significa que el mismo vídeo puede aparecer en varias categorías de políticas.


Como resultado de la pandemia por coronavirus, dependimos más que nunca de la tecnología para detectar y eliminar automáticamente el contenido violento en mercados como los de India, Brasil y Pakistán. Del total de vídeos eliminados, 10.698.297 fueron marcados y eliminados automáticamente por infringir nuestras Normas de la Comunidad. Estos vídeos no se reflejan en el gráfico anterior. 

Este gráfico muestra los cinco países/mercados con mayor volumen de vídeos eliminados.   

Country / Market Total Removal
India 37,682,924
United States 9,822,996
Pakistan 6,454,384
Brazil 5,525,783
United Kingdom 2,949,620


Peticiones legales

En las secciones que se ofrecen a continuación proporcionamos información sobre el volumen y los tipos de peticiones legales que recibimos y cómo respondimos. Recibimos solicitudes legales por parte de gobiernos y fuerzas de seguridad de todo el mundo así como de propietarios de derechos de propiedad intelectual. Atendemos las solicitudes que se nos hacen a través de los canales adecuados y cuando la ley lo requiere.

Peticiones de información de los usuarios por parte de las fuerzas y cuerpos de seguridad 

TikTok se compromete a cumplir con las solicitudes válidas para cumplimiento de la ley, respetando al mismo tiempo la privacidad y los derechos de nuestros usuarios. Para obtener información no pública de los usuarios, las fuerzas y cuerpos de seguridad deben proporcionar los documentos legales apropiados requeridos para el tipo de información que se busca, como, por ejemplo, una citación, una orden judicial o una orden de arresto, o una petición de caso de emergencia. Todas las solicitudes de información que recibimos son examinadas cuidadosamente para determinar su fundamento jurídico para determinar si, por ejemplo, la entidad solicitante está autorizada a recopilar pruebas en relación con una investigación policial o a investigar una emergencia que implique un daño inminente. 

En determinadas situaciones de emergencia, TikTok puede revelar la información de los usuarios sin necesidad de un proceso legal. Esto sucede cuando tenemos razones para creer, de buena fe, que la divulgación de información es necesaria para prevenir el riesgo inminente de muerte o lesiones físicas graves a cualquier persona. Para más información sobre nuestras políticas y prácticas, acceda a nuestra Guía para solicitud de datos de las fuerzas y cuerpos de seguridad.                        

Este gráfico muestra el volumen y la naturaleza de las peticiones de información sobre los usuarios que recibimos durante el primer semestre de 2020 (del 1 de enero al 30 de junio de 2020) y la velocidad con la que proporcionamos dicha información. 

Country / Market Legal Request Emergency Request Total Requests Total Accounts Specified Percentage of Requests Where Information was Produced
Argentina 3 0 3 2 0%
Australia 7 6 13 19 31%
Austria 1 0 1 1 0%
Bangladesh 1 0 1 2 0%
Belgium 3 1 4 4 0%
Brazil 1 0 1 1 0%
Bulgaria 1 0 1 1 0%
Canada 0 11 11 13 73%
Colombia 0 1 1 1 100%
Cyprus 1 0 1 1 0%
Denmark 6 0 6 12 0%
Finland 2 0 2 2 0%
France 6 7 13 11 54%
Germany 30 7 37 34 16%
Greece 0 3 3 3 100%
Hungary 0 1 1 0 0%
India 1187 19 1206 1851 79%
Israel 2 39 41 41 85%
Italy 9 3 12 11 25%
Japan 12 6 18 17 44%
Malta 3 2 5 5 40%
Mexico 2 0 2 2 0%
Nepal 5 0 5 5 0%
New Zealand 1 0 1 7 0%
Norway 4 3 7 14 43%
Pakistan 5 1 6 6 17%
Poland 3 1 4 4 25%
Portugal 3 0 3 2 0%
Qatar 1 0 1 1 0%
Romania 0 2 2 2 0%
Russia 1 0 1 1 100%
Serbia 1 0 1 1 0%
Singapore 8 0 8 9 63%
Slovakia 1 1 2 2 50%
South Korea 6 2 8 16 13%
Spain 4 1 5 6 20%
Sweden 0 3 3 3 33%
Switzerland 2 0 2 2 0%
Turkey 4 0 4 4 0%
Taiwan 1 0 1 1 0%
United Kingdom 12 19 31 29 58%
United States 222 68 290 327 85%


Solicitudes de los gobiernos para restricciones de contenido

De vez en cuando recibimos peticiones de agencias gubernamentales para restringir o eliminar contenidos en nuestra plataforma para cumplir con las leyes locales. En estos casos, revisamos todo el material siguiendo nuestras Normas de la Comunidad, los Términos de Servicio y la legislación vigente, y tomamos las medidas oportunas. Si creemos que una solicitud no es legalmente válida o no infringe nuestros estándares, podemos restringir la disponibilidad del contenido denunciado en el país donde se alega que es ilegal o podemos no tomar ninguna medida al respecto.

Este gráfico muestra las solicitudes que recibimos de las agencias gubernamentales en la primera mitad de 2020 (del 1 de enero al 30 de junio de 2020) para eliminar o restringir el contenido y la velocidad con la que proporcionamos dicha información. 

Country / Market Government Request Total Accounts Specified Accounts Removed or Restricted Contents Removed or Restricted
Australia 13 14 8 5
Belgium 10 10 2 8
Canada 1 1 0 1
Germany 4 4 1 3
Denmark 1 1 0 1
India 55 244 8 225
Norway 14 24 17 1
New Zealand 1 1 0 1
Pakistan 4 40 2 129
Russia 15 259 9 296
Singapore 1 2 2 0
Turkey 9 36 2 34
Taiwan 1 6 0 0
United Kingdom 2 5 2 3
United States 4 4 2 4


Eliminación de contenido por infracción de los derechos de propiedad intelectual

La creatividad de nuestros usuarios es el combustible que impulsa a TikTok. Nuestra plataforma permite destacar las expresiones de sus propias personalidades y, por ello, hacemos todo lo posible para protegerla. Nuestras Normas de la Comunidad y los Términos de Servicio prohíben cualquier contenido que infrinja la propiedad intelectual de terceros. Atendemos las solicitudes válidas para la eliminación de contenido basadas en infracciones de la ley de derechos de autor, como la Ley de Derechos de Autor de la Era Digital (DMCA). Cuando recibimos una notificación efectiva del titular de los derechos de una posible infracción de la propiedad intelectual, TikTok retira el contenido infractor de manera oportuna. Asimismo, cualquier actividad que infrinja los derechos de autor de otros puede llevar a la suspensión o eliminación de la cuenta. Para más información sobre nuestro proceso de valoración en las acusaciones de infracción de derechos de autor, consulte nuestra Política de Propiedad Intelectual

Este gráfico muestra las notificaciones para eliminación de contenido protegido por derechos de autor que recibimos y la velocidad con la que lo retiramos. 

Copyrighted Content Take-down Notices Percentage of Requests Where Some Content was Removed
10625 89.6%


Apéndice

Terminología y definiciones

Al determinar qué contenido es apropiado para la comunidad TikTok, utilizamos los siguientes términos y definiciones para guiar nuestra estrategia de moderación. Colaboramos con un gran elenco de expertos de confianza que nos ayudan a entender el dinámico panorama de las políticas y nos asesoran en el diseño de políticas y estrategias de moderación para abordar contenido y comportamientos problemáticos a medida que aparecen. En Estados Unidos, contamos con un Consejo asesor sobre contenidos formado por nueve expertos, y también tenemos el apoyo de organizaciones como National PTA, the National Center for Missing and Exploited Children, WePROTECT Global Alliance, entre otras.

  • Individuos y organizaciones peligrosas: No permitimos que individuos u organizaciones peligrosas usen nuestra plataforma para promover el terrorismo, actividades delictivas u otro tipo de comportamiento que pueda causar daño. En los casos en que exista una amenaza creíble a la seguridad pública, prohibimos la cuenta responsable y colaboramos con las autoridades legales pertinentes en la medida en que sea necesario y cuando sea apropiado.
  • Actividades ilegales y bienes regulados: Prohibimos el comercio, la venta, la promoción y el uso de ciertos bienes regulados, así como la representación o promoción de actividades delictivas. Algunos contenidos pueden ser eliminados si se refieren a actividades o bienes que son ilegales o están regulados en la mayor parte de la región o del mundo, incluso si las actividades o bienes en cuestión son legales en la jurisdicción de la publicación. Permitimos excepciones para contenidos que proporcionen valor al público, como el contenido educativo, científico, artístico y de interés periodístico.
  • Contenido violento y gráfico: No permitimos contenidos excesivamente horripilantes o impactantes, especialmente los que promueven o glorifican la violencia o el sufrimiento abyecto. Permitimos excepciones en determinadas circunstancias, por ejemplo, en el caso de contenidos que sean de interés periodístico o que tengan por objeto sensibilizar sobre cuestiones importantes. Cuando identificamos un riesgo real de violencia o una amenaza creíble a la seguridad pública, prohibimos la cuenta responsable y colaboramos con las autoridades legales pertinentes en la medida en que sea necesario y cuando sea apropiado.
  • Suicidio, autolesiones y actos peligrosos: No promovemos la participación en actividades que puedan causar daño. Tampoco permitimos que los usuarios alienten a otros a participar en actividades peligrosas. No permitimos contenidos que promuevan la autolesión o el suicidio, pero sí permitimos que nuestros usuarios compartan sus experiencias con fines de sensibilización.
    TikTok trabaja con expertos de todo el mundo para lograr el equilibrio adecuado en nuestra moderación. Si nos encontramos con material que indique que puede haber un peligro inminente de autolesión, TikTok se pone en contacto con los servicios de emergencia locales para llevar a cabo un control de bienestar.
  • Discurso de odio: No toleramos contenidos que ataquen o inciten a la violencia contra un individuo o grupo de individuos sobre la base de atributos protegidos. No permitimos contenidos que incluyan discursos de odio, y los eliminamos de nuestra plataforma.
  • Acoso e intimidación: Los usuarios deben sentirse seguros para expresarse sin temor a ser avergonzados, humillados, intimidados o acosados. Entendemos profundamente la angustia psicológica que el contenido abusivo puede generar en los individuos, y no toleramos el contenido o el comportamiento abusivo en nuestra plataforma.
  • Desnudez y actividades sexuales de adultos: No permitimos contenido sexualmente explícito o gratificante en TikTok, incluyendo contenido animado de esta naturaleza. El contenido sexualizado conlleva muchos riesgos, como el de provocar sanciones legales en algunas jurisdicciones y causar daños a nuestros usuarios al compartir imágenes no consentidas (por ejemplo, pornografía de venganza). Además, el contenido abiertamente sexual puede ser ofensivo en ciertas culturas. Permitimos excepciones en torno a la desnudez y el contenido sexualmente explícito con fines educativos, documentales, científicos o artísticos.
  • Seguridad de menores: Estamos profundamente comprometidos con la seguridad de los menores y tenemos una política de tolerancia cero respecto al comportamiento hostil o con fines sexuales respecto a los menores. No permitimos el contenido que represente o difunda el abuso infantil, la desnudez infantil o la explotación sexual infantil tanto en formato digital como en el mundo real, e informamos de dicho contenido a las autoridades legales pertinentes. Tampoco permitimos contenido que represente a menores en conducta delictiva.
  • Integridad y autenticidad: Todo contenido que tenga la intención de engañar o de difamar a cualquiera de los miembros de nuestra comunidad pone en peligro a nuestra comunidad, que se basa en la confianza. No permitimos ese contenido en nuestra plataforma. Esto incluye actividades como el spamming, la suplantación de identidad y las campañas de desinformación.



Archivos del Informe de Transparencia

1 de enero de 2020 - 30 de junio de 2020
1 de julio de 2019 - 31 de diciembre de 2019
1 de enero de 2019 - 30 de junio de 2019