小模型崛起:35B 参数本地生图跑赢 Opus 4.7最近一直在做我的 CatReader,就是订阅源+知识库的一个产品,读了不少 blog,这两天,作者 Simon Willison 做了一个很有意思的小实验:让模型画“一只骑自行车的鹈鹕”。一边是跑在自己笔记本上的 Qwen3.6-35B-A3B,一边是 Anthropic 的 Claude Opus 4.7。结果出人意料,赢的是本地运行的 Qwen:Qwen3.6-35B-A3B 为我画了一只比 Claude Opus 4.7 更好的鹈鹕。这当然不是什么严肃基准,更像一次带点幽默感的临场测试。以前大家谈模型能力,云端模型天然领先,本地部署更多是发烧友的游戏。现在看有点松动。Qwen3.6-35B-A3B 只有 35B 参数,却已经能在消费级设备上跑起来,还能在具体任务里交出比旗舰云端模型更好的结果。这说明了本地 AI 开始进入可用的阶段。以前说本地跑模型,总给人一种“演示”的偷感。要么模型太弱,要么硬件要求太高,要么部署过程复杂。如今情况变了。一个开源模型,可以装进笔记本,可以离线运行,可以处理真实任务,效果还不差。就像我之前写过的 给 iPhone 装个“最强本地大脑”:Google 开源模型 Gemma 4。这个变化一旦成立,很多应用场景都会被重写。最直接的,就是隐私和成本。数据放在本地,很多敏感内容就不必上传。没有网络的时候,AI 依然能工作。调用成本也从按 token 计费,变成一次性硬件投入。对开发者、企业用户、甚至很多重度个人用户来说,这都是巨大的吸引力。尤其是代码辅助、文档处理、知识库问答这类高频任务,本地模型一旦够用,选择就会迅速发生倾斜。今天模型的进步,蒸馏、量化、推理优化、MoE 架构,都在让更小的模型释放出更强的能力。很多任务里,决定体验的关键,已经变成谁更贴近场景,谁更擅长把有限资源用到刀刃上。复杂推理、长程规划、超长上下文这些任务上,毫无疑问属于顶级云端模型,就像我昨天写的 4.7 Claude Opus 4.7 确实变强...但本地模型则可能赢下一些具体场景。所以一个合理的判断可能是:新的分工开始出现。日常任务交给本地模型,低延迟、低成本、隐私友好。复杂长任务交给云端大模型,去处理那些更重、更长、更综合的问题。这种混合架构,很可能会成为接下来 AI 产品的主流形态。其实现在云端大模型的使用就已经分层了,我就有好几个账户,不同模型应对不同场景的使用。Opus 编程、MiniMax 养虾,豆包的模型做企业应用等等。模型的场景化会越来越丰富,只用一个基模显然是不够的。这样的变化才刚刚开始。