A empresa de propriedade da ByteDance deve se tornar mais rigorosa com conteúdos violem a segurança para menores, como nudez adulta e atividades sexuais, conteúdo violento e explícito e atividades ilegais
O aplicativo de vídeos curtos TikTok informou nesta sexta-feira, 9, que usará mais automação para remover de sua plataforma vídeos que violem as diretrizes da comunidade.
Atualmente, os vídeos enviados para a plataforma passam por ferramentas de tecnologia que trabalham para reconhecer e sinalizar quaisquer potenciais violações que são revisadas por um membro da equipe de segurança. Se uma violação for identificada, o vídeo é removido e o usuário é notificado, informou o TikTok.
A empresa de propriedade da ByteDance acrescentou que nas próximas semanas começará a remover automaticamente alguns tipos de conteúdo que violam a política de segurança para menores, como nudez adulta e atividades sexuais, conteúdo violento e explícito e atividades ilegais e bens regulamentados.
Isso se somará às remoções confirmadas pela equipe de segurança.
A empresa disse que a ação ajudará sua equipe de segurança a se concentrar mais em áreas altamente contextuais e diferenciadas, como intimidação e assédio, desinformação e comportamento odioso.
O TikTok também acrescentou que enviará um aviso no aplicativo na primeira violação. No entanto, em caso de violações repetidas, o usuário será notificado e a conta também poderá ser removida permanentemente.
As mudanças vêm na medida em que redes sociais como o Facebook e TikTok, recebem críticas por amplificarem mundialmente o discurso de ódio e a desinformação em suas plataformas.
Assine a EXAME e acesse as notícias mais importantes em tempo real.