圈小蛙

Telegram审核细节曝光:审核依赖AI与外包团队,不主动审核私聊

2024年3月,澳大利亚互联网安全监管机构eSafety开始对Telegram的审核实践进行调查,根据 Telegram 向澳大利亚 eSafety 监管机构披露的信息,该平台内容审核机制细节曝光:私人聊天(包括私密群组/频道)默认不被扫描,除非用户举报或内容(如图片/视频)匹配已知非法数据库(如 CSAM)。

具体细节如下:

私人聊天中的审核

秘密聊天的审核

私人频道和群组中的审核

自动检测非法内容

该即时通讯应用可以自动检测已知的非法内容和新出现的潜在非法内容。它们适用不同的规则:

已知内容(极端主义和虐待儿童)

新的潜在非法内容(极端主义和虐待儿童)

自动化系统的技术结构

在所使用的模型中,Telegram 列举了:

处理用户报告

与组织合作

Telegram 定期与以下组织互动:

Telegram 还表示,自 2024 年 10 月起,它“正在加入互联网观察基金会的安全计划,其中包括访问包含已知 CSAM 网站链接的 URL 列表”。

永久禁令的标准

打击系统

如果“记者”或“研究人员”的社区或账户为了传播“合法的科学研究、历史资料或新闻”而发布极端主义内容,Telegram 可能会:

Telegram 表示,执法决定取决于“根据适用法律发布内容的严重性、目的和相关性”。

审核团队的组成

Telegram 向监管机构提供了以下数据2

员工类别员工人数
信任与安全工程师5
Telegram 雇用的内容管理员0
与 Telegram 签约的内容管理员150
Telegram 信任与安全人员(不包括工程师和内容审核人员)4

eSafety 询问 Telegram 是否有快速反应团队:

职称员工人数承包商数量
信任与安全工作者313

报告响应时间

服务平均响应时间
私人聊天(极端主义)18小时
频道和聊天(极端主义)15小时
私人聊天(虐待儿童)11小时
频道和聊天(虐待儿童)10小时
来自受信任组织的报告1小时

禁令申诉成功率

自动检测非法内容的统计

极端主义内容:

特征自动检测用户报告
私人聊天不适用100%
秘密聊天不适用100%
群组(公开)67%33%
团体(私人)82%18%
频道(公共)69%31%
频道(私人)79%21%
故事60%40%

虐待儿童:

特征自动检测用户报告
私人聊天不适用100%
秘密聊天不适用100%
群组(公开)71%29%
团体(私人)85%15%
频道(公共)74%26%
频道(私人)80%20%
故事65%35%

关于审核的其他信息

从上述内容可以得知:Telegram 并无全职内容审核人员,仅依赖约 150 名外包审核人员(覆盖 60 种语言),且封禁申诉成功率极低(2%-8%)。

Exit mobile version