“黄色门”这个词,乍一听像是互联网旧时代的猎奇标签。但在2025年底,它炸响在了快手头上。 12月22日深夜,当老铁们像往常一样点开快手推荐页时,迎面而来的是一连串尺度失控的成人内容。大量涉黄、露骨的直播视频,直接进入了推荐流。从结果看,这是一次内容审核事故;从背景看,它更像一场早已埋下伏笔的系统性失手。在不久前的2025年Q3业绩电话会议上,快手高层曾意气风发地介绍内容治理的进展:AI大模型已被广泛用于用户画像、内容识别、评论识别等场景,并通过思维链与强化学习不断迭代。目前,平台内容的AI初审率已超过99%。这是一个近乎完美的技术叙事——机器承担绝大多数判断,人类退居边缘兜底。现实也确实如此。快手在天津、无锡、武汉、成都、吉首等地设有内容评级团队,其中直播审核主要集中在武汉和成都。这套体系一度极其精细:视频正向、用户正向、直播生态、内容安全多线并行,配套培训、质检与规则组,层层校验。但过去三年,体系悄然“瘦身”了。有知情人士透露,快手成都中心内容评级团队巅峰时期超过2000千人,到今年初只剩约1000千人,三年内累计离职人数超千人。留下来的人,除了审核内容,还要“喂养AI”。外包与正编人员在完成本职工作后,会被不定期抽调做任务包。他们逐帧拆解视频、标注违规点,反馈给模型,用于下一轮训练。人工审核,逐渐从“判断者”退化为“训练素材者”。这本该是一个关于降本增效的成功故事。但问题在于,AI没有羞耻感,它只有概率。 它擅长处理稳定分布下的海量内容,却不擅长应对“异常本身成为常态”的时刻。那些离开的成都审核员,带走的不只是工资条,还有人类对违规内容本能、细微却难以量化的判断力。当大量新账号、相似违规内容在极短时间内集中涌入,模型依赖的判断边界被迅速击穿,而原本用于兜底的人力,早已不足以应对洪峰。于是,就有了那一夜的“黄色门”。这并不意味着AI不够先进,也不意味着快手没有投入技术。恰恰相反,正因为审核体系已高度自动化、规模化,一旦遭遇系统级冲击,失误才会被放大到不可忽视的程度。审核从来不只是效率问题,而是一场关于底线的博弈。 AI可以覆盖99%的日常,却很难独自承受那1%的极端。而恰恰是这1%,决定了一家平台是否真正守住了内容安全的底线。如果说“黄色门”有什么更深层的意义,它或许是在提醒我们:关键时刻,AI仍然靠不住。