从本周开始,TikTok将测试自动删除几个违反其政策的内容类别,如未成年人安全、成人裸体和性活动、暴力和图片内容、非法活动和受管制商品。
-
该公司表示,其技术在识别这些类别的违规内容方面具有最高程度的准确性。
-
TikTok还表示,测试表明,自动删除的假阳性率为5%,而对视频删除的上诉请求保持不变。
TikTok的安全团队一直在删除其技术筛选出的违反其规则的内容,但这些变化将给这个过程带来更多的自动化,使其审核工作更加有效。其安全团队将继续审查用户的报告和内容删除申诉。这些变化是公司更广泛的努力的一部分,以使TikTok的内容审核方式更加透明。
上周,该公司首次表示,它将报告有多少账户因属于13岁以下用户而被删除。TikTok称,作为周五更新的一部分,它还将改变在用户违反社区准则时通知他们的方式。
-
新系统将根据一段时间内违规的数量和严重程度,对账户采取行动。
-
今后,TikTok将向用户发送应用内警告,说明他们的内容违反了TikTok的规则,并可能导致他们的账户被禁。
-
如果用户上传的内容是TikTok的零容忍政策(即–儿童性虐待材料),将导致自动禁止。
-
此后,如果发现用户一再违反社区准则,他们的账户可能被暂停或限制。如果他们的账户处于被禁止的边缘,在多次违规后,他们将被通知。
TikTok承认其技术并不完美,它可能无意中删除某人不违反其条款的视频。在这种情况下,TikTok说内容将被恢复,处罚将从该用户的记录中删除。该公司表示,累积的违规行为将随着时间的推移从一个人的记录中失效。
原创文章,作者:奋斗,如若转载,请注明出处:https://blog.ytso.com/145003.html