Skip to main content
Aplicação das Diretrizes da Comunidade

Relatório de aplicação das Diretrizes da Comunidade

1º de outubro de 2022 – 31 de dezembro de 2022
Publicado em 31 de março de 2023

Sobre este relatório

O TikTok é uma plataforma global de entretenimento impulsionada pela criatividade da nossa comunidade diversa. Procuramos promover um ambiente divertido e inclusivo em que as pessoas possam criar, encontrar uma comunidade e se entreter. Para preservar esse ambiente, tomamos medidas contra conteúdos e contas que violem as Diretrizes da Comunidade ou os Termos de Serviço e publicamos regularmente informações sobre essas medidas para prestar contas à nossa comunidade.
O TikTok usa uma combinação de tecnologias inovadoras e pessoas para identificar, examinar e tomar medidas contra conteúdos que violem as nossas políticas. Este relatório oferece informações trimestrais sobre o volume e a natureza de conteúdos e contas removidos da nossa plataforma.

Análise

As Diretrizes da Comunidade do TikTok foram criadas para oferecer uma experiência que priorize segurança, inclusão e autenticidade. As nossas políticas se aplicam a todas as pessoas e a todos os conteúdos, e nos empenhamos em ser consistentes e equitativos na sua aplicação. Esta análise oferece contexto adicional para suplementar os dados deste relatório.

Segurança

Nosso foco é trabalhar para criar uma experiência segura, positiva e alegre para nossa comunidade. Continuamos a inovar em nossa abordagem para manter as pessoas seguras, o que inclui remover conteúdos, tornar alguns conteúdos inelegíveis para recomendação nos feeds Para você, introduzir nosso sistema de Níveis de conteúdo e atualizar nosso atual sistema de moderação de contas para ajudar a garantir que o feed Para você de todas as pessoas mostre conteúdos apropriados e divertidos para elas.

Para fazer isso em grande escala, investimos em tecnologia para detectar e remover automaticamente conteúdos que violam nossas políticas. Isso ajuda a reduzir o volume de conteúdo que os moderadores analisam e permite que mais pessoas se concentrem em áreas variadas e contextuais, como desinformação, discurso de ódio e assédio. Quando se trata de aplicação das políticas, nossa intenção é:

  • Minimizar as visualizações de conteúdo que viola as Diretrizes da Comunidade
  • Priorizar a remoção rápida de conteúdo especialmente vulgar, como material de abuso sexual infantil (CSAM) e extremismo violento
  • Garantir a consistência e a justiça na aplicação das nossas políticas para reduzir remoções incorretas

Para fazer isso da melhor maneira, no último ano continuamos investindo no aprendizado de máquina e em uma atualização da arquitetura que analisa informações de vídeos, textos e áudio, além da possível gravidade da violação e o alcance potencial do vídeo (por exemplo, com base nos seguidores) para determinar a melhor estratégia. Por exemplo, conteúdo que pode ser removido automaticamente, tornado inelegível para recomendação nos feeds Para você ou direcionado a um moderador para análises mais detalhadas. Também introduzimos um novo sistema de conformidade mais transparente com os criadores. Nós acreditamos que essas melhorias estão nos ajudando a construir uma experiência melhor para os criadores enquanto continuamos a promover nosso compromisso com a segurança da plataforma como um todo. Juntas, essas iniciativas ajudaram a melhorar a precisão e a eficiência da aplicação das políticas, o que se reflete nos dados deste relatório.

Proteção

Continuamos com testes e melhorias em nossos recursos de proteção em relação ao cenário de ameaças em constante evolução e investimos em defesas automatizadas para detectar, bloquear e remover contas e interações que não são autênticas. Assim como a maioria das ameaças a que respondemos, pessoas maliciosas são persistentes e aprimoram continuamente suas táticas em resposta à melhoria na detecção e na aplicação das políticas. Como resultado, pode haver variações trimestrais no volume total de interações falsas que combatemos. Mantemos o compromisso de refinar continuamente as políticas e ferramentas de conformidade que usamos para remover conteúdos ou atividades que buscam inflar artificialmente a popularidade na plataforma.

Anúncios

O TikTok tem políticas rigorosas para proteger os usuários contra conteúdos falsos, fraudulentos ou enganosos, inclusive anúncios. As contas publicitárias e os conteúdos de anúncios estão sujeitos a essas políticas e têm de observar as Diretrizes da Comunidade, as Diretrizes de Publicidade e os Termos de Serviço. Durante o último trimestre de 2022, o volume total de anúncios removidos por violação das nossas políticas de publicidade e o volume de anúncios removidos devido a ações no nível da conta diminuíram. Avanços em nossos recursos de detecção e remoção proativa nos permitiram melhorar o ecossistema de anúncios com a remoção mais precisa e oportuna de anúncios que violam nossas políticas. Reconhecemos que manter os anunciantes e os usuários seguros é um esforço contínuo e estamos comprometidos em analisar regularmente e fortalecer ainda mais nossos sistemas para combater os anúncios que violam nossas políticas e criar experiências nas quais os usuários encontram valor e alegria nas marcas que veem na plataforma.

Dados mais recentes

Total de vídeos removidos/ total de vídeos, por trimestre

OBS.: O total de vídeos removidos representa cerca de 1% do total de vídeos carregados no TikTok. Os volumes de remoção de vídeos mencionados neste relatório incluem conteúdo de vídeo curto (incluindo vídeos e stories baseados em imagens).

Total de vídeos removidos/restaurados, por tipo e trimestre

OBS.: Os vídeos restaurados estão refletidos tanto nos volumes de remoção como de restauração no gráfico acima.

Taxa de remoção, por trimestre/política

OBS.: Remoção proativa significa identificar e remover um vídeo antes de ser denunciado. Remoção dentro de 24 horas significa remover o vídeo dentro de 24 horas após a publicação na nossa plataforma.

Total de vídeos removidos, por política

OBS.: Esta tabela mostra o volume de vídeos removidos por violação de política. Um vídeo pode violar várias políticas, e cada violação está refletida. Em certas circunstâncias raras, como situações de emergência ou falhas de hardware, nem sempre conseguimos identificar a categoria exata de violação de um vídeo. Esses vídeos não estão representados no gráfico acima, mas estão incluídos nas contagens absolutas em todo este relatório.

Total de removidos e taxa de vídeos, por subpolítica

OBS.: O painel de subpolítica inclui apenas os vídeos examinados e removidos pelos moderadores.

Volume e taxas de remoção, por mercado

OBS.: Este gráfico mostra os cinquenta mercados com os maiores volumes de vídeos removidos e representa cerca de 90% do volume total de remoções.

Total de contas removidas, por trimestre e motivo

OBS.: Além de remover contas por violação das nossas Diretrizes da Comunidade, removemos contas que identificamos como spam, assim como vídeos de spam postados por essas contas. Também tomamos medidas proativas para prevenir a criação automatizada de contas de spam.

Interação falsa

OBS.: Tomamos medidas tanto de remoção como de prevenção de curtidas, seguidores e solicitações de seguimento quando, na nossa avaliação, a atividade é proveniente de mecanismos automáticos ou não autênticos.

Atividades de contas de spam

OBS.: Quando removemos contas por motivo de spam, também removemos os vídeos criados por essas contas, com base nas nossas políticas referentes a spam.

Operações de influência disfarçadas

Redes de operações encobertas de influência identificadas e removidas no quarto trimestre de 2022Origem da detecçãoContas na redeSeguidores da rede
Avaliamos que a rede operava no Quênia e tinha como alvo o público queniano. Os indivíduos por trás dessas contas compartilhavam conteúdo em suaíli e em inglês por meio de contas fraudulentas que se passavam por personalidades políticas, agentes de notícias e mulheres jovens. A rede provavelmente tinha motivações financeiras, com foco no discurso cívico no Quênia.Externa3319,120
Avaliamos que a rede operava no Brasil e tinha como alvo o público brasileiro. Os indivíduos por trás dessas contas compartilhavam conteúdo em português e em inglês por meio de contas fraudulentas usando fotos de bancos de imagens como fotos de perfil para se passar por pessoas fictícias no Brasil. A rede amplificava discursos que espalhavam dúvida sobre a confiabilidade do processo eleitoral no Brasil.Interna138642,941
Avaliamos que a rede operava no Azerbaijão e tinha como alvo principalmente o público azerbaijano. Os indivíduos por trás dessas contas usavam contas fraudulentas e postavam conteúdos repetitivamente com o objetivo de amplificar discursos de apoio ao Azerbaijão e seu governo atual no contexto do conflito entre a Armênia e o Azerbaijão na região de Nagorno-Karabakh.Interna11223,348
Avaliamos que a rede operava na Rússia e tinha como alvo países europeus, principalmente a Alemanha. Os indivíduos por trás dessas contas criavam contas fraudulentas e compartilhavam conteúdo fraudulento em alemão sobre a guerra na Ucrânia, bem como suas consequências nas economias dos países da UE.Interna3,181418,196
Avaliamos que a rede operava no Cazaquistão e tinha como alvo o público desse país. Os indivíduos por trás dessas contas usavam contas fraudulentas e se passavam por grupos ativistas civis nacionais para incitar protestos contra o governo atual promovendo artificialmente hashtags e discursos que criticavam o atual governo do Cazaquistão, a estrutura do exército do país e as próximas eleições.Interna638,003

OBS.: Eliminar uma operação de influência disfarçada requer uma série de medidas, incluindo investigação, remoção e análise post mortem. Nós reportamos a remoção dessas redes durante o trimestre em que o processo foi concluído

Terminologia

  • Redes operadas de: Indica a localização geográfica da operação da rede com base nas evidências técnicas e comportamentais de códigos-fonte proprietários e códigos abertos. O TikTok talvez não consiga atribuir redes a entidades, indivíduos ou grupos específicos.
  • Origem da detecção: Chamada de interna quando a presença da atividade é identificada apenas por meio de uma investigação conduzida internamente. A detecção externa refere-se a investigações que se originaram de um relatório externo que resultou em uma investigação.
  • Seguidores da rede: Número total cumulativo de contas que seguiam qualquer conta em uma rede na data de remoção da rede específica.

Aplicação da política de anúncios

OBS.: Anúncios podem ser removidos em nível individual ou em conjunto, com medidas contra toda uma conta de anunciante.

Outros relatórios

Was this helpful?

thumps upYesthumps downNo