MacTalk
订阅
MacTalk 开通于2012年末,内容起于 Mac 而不止 Mac,内容覆盖了技术、创业、产品和人文思考。文风有趣,又有一点力量。
MacTalk微信公众号二维码
关注该公众号

会员可查看最新的全部文章

^__^ 4 / 23
现在聊 Agent 的文章很多,聊来聊去,常常停在 Agent 的智能上。今天参加飞书项目的生态日,看了他们的一系列新发布:全新的 MCP 能力、飞书项目 CLI,以及面向智能体协作的 AI 应用体系、AAMP 协议等等。我感觉飞书项目给出了一个更接地气的答案:光聪明不够,还得给 Agent 一个通道,让它能入驻系统、参与流程、进入业务现场,才能真正干活。飞书项目发布的这一系列能力,就是这个通道。过去我们叫它业务系统也好,SaaS 也罢,现在飞书项目给了一个更准确的名字:AI Friendly。啥意思,就是让 AI 用起来舒服。“AI 友好”,听起来平平无奇,判断却很犀利。飞书项目负责人洪涛在现场讲道,过去的开放是“对人开放”,API、Webhook、轻应用,伺候的都是开发者;当使用者正在悄悄变成 Agent,平台就得重新为 AI 而设计。这次发布,飞书项目的 MCP 覆盖了 40+ 工具,首家支持 OAuth 授权,这意味着 Agent 调用飞书项目的数据,安全性和可控性一次搞定。其次,飞书项目的命令行 CLI 直接开源了,用渐进式披露的机制解决了大项目里的上下文爆炸和幻觉问题,用起来顺手还省 token——凡是真写过 Agent 的人看到这条都是会心微笑,这是从工程一线长出来的东西,不是凭空想象。第三是 AI 节点和 AI 字段,飞书项目把 Agent 变成了流程里可沉淀、可复用、可治理的一等公民,而不是系统外面的一个外挂。最后发布的 AAMP 协议,就是用来解决 Agent 之间异步任务分发和 NAT 穿透的问题,这是一个 A2A 的大胆尝试。更吸引人的是,这套能力已经开始在真实场景里跑起来了。雅迪用它跑通了研发和营销的双流程,新车开发周期缩短了 2 个月;轻舟智航把路测问题做到 100% 自动创建,工程师从体力活里被解放出来;爪印工作室两天就能把一个管理思路变成能用的系统;词元无限把研发周期从 7 - 10 人天压到 1 - 2 人天……这些风格迥异的团队——制造业的、智驾的、游戏的、云原生的——都在同一个系统上让 AI 跑了起来,这本身就很有说服力。赛迪研究院数据显示,2025 年飞书项目在“软件研发项目管理 SaaS”和“IPD 流程数字化 SaaS”两个赛道,市占率分别达到 46.8% 和 68.6%,都排在第一位。双赛道第一这件事,在国内 SaaS 行业里并不常见。 AI 时代的项目管理软件,正在从看板升级为行动系统。人负责判断,Agent 负责执行,流程负责连接,系统负责沉淀。谁先把这条路走顺,谁就更有机会成为下一阶段企业 AI 落地的入口。我看飞书项目跑挺快的。
^__^ 4 / 18
小模型崛起:35B 参数本地生图跑赢 Opus 4.7最近一直在做我的 CatReader,就是订阅源+知识库的一个产品,读了不少 blog,这两天,作者 Simon Willison 做了一个很有意思的小实验:让模型画“一只骑自行车的鹈鹕”。一边是跑在自己笔记本上的 Qwen3.6-35B-A3B,一边是 Anthropic 的 Claude Opus 4.7。结果出人意料,赢的是本地运行的 Qwen:Qwen3.6-35B-A3B 为我画了一只比 Claude Opus 4.7 更好的鹈鹕。这当然不是什么严肃基准,更像一次带点幽默感的临场测试。以前大家谈模型能力,云端模型天然领先,本地部署更多是发烧友的游戏。现在看有点松动。Qwen3.6-35B-A3B 只有 35B 参数,却已经能在消费级设备上跑起来,还能在具体任务里交出比旗舰云端模型更好的结果。这说明了本地 AI 开始进入可用的阶段。以前说本地跑模型,总给人一种“演示”的偷感。要么模型太弱,要么硬件要求太高,要么部署过程复杂。如今情况变了。一个开源模型,可以装进笔记本,可以离线运行,可以处理真实任务,效果还不差。就像我之前写过的 给 iPhone 装个“最强本地大脑”:Google 开源模型 Gemma 4。这个变化一旦成立,很多应用场景都会被重写。最直接的,就是隐私和成本。数据放在本地,很多敏感内容就不必上传。没有网络的时候,AI 依然能工作。调用成本也从按 token 计费,变成一次性硬件投入。对开发者、企业用户、甚至很多重度个人用户来说,这都是巨大的吸引力。尤其是代码辅助、文档处理、知识库问答这类高频任务,本地模型一旦够用,选择就会迅速发生倾斜。今天模型的进步,蒸馏、量化、推理优化、MoE 架构,都在让更小的模型释放出更强的能力。很多任务里,决定体验的关键,已经变成谁更贴近场景,谁更擅长把有限资源用到刀刃上。复杂推理、长程规划、超长上下文这些任务上,毫无疑问属于顶级云端模型,就像我昨天写的 4.7 Claude Opus 4.7 确实变强...但本地模型则可能赢下一些具体场景。所以一个合理的判断可能是:新的分工开始出现。日常任务交给本地模型,低延迟、低成本、隐私友好。复杂长任务交给云端大模型,去处理那些更重、更长、更综合的问题。这种混合架构,很可能会成为接下来 AI 产品的主流形态。其实现在云端大模型的使用就已经分层了,我就有好几个账户,不同模型应对不同场景的使用。Opus 编程、MiniMax 养虾,豆包的模型做企业应用等等。模型的场景化会越来越丰富,只用一个基模显然是不够的。这样的变化才刚刚开始。