当报告我们服务上的潜在内容或行为违规时,经过专门培训的人工审阅者可能会查看这些内容和行为。人工审阅者会考虑图像、视频、消息和上下文,以确定识别的内容或行为是否违反了我们的条款,包括我们的政策、行为准则和服务特定条款。当内容或行为违反我们的政策时,人工审阅者需要更多信息,他们可能会跟进报告者向其提问,也可能会寻求行业专家的协助。
我们可能会依靠自动化技术来识别违规行为并分类,而无需人工审阅。
示例包括以下违规行为:
- 阻止玩家代号中已知的仇恨词。
- 恶意软件、病毒、垃圾邮件和网络钓鱼检测。
- 阻止与之前识别为恐怖主义内容的图像匹配的恐怖主义图像。