很多人默认:给LLM足够多工具、环境感知能力,再写清Prompt,就能搞定复杂任务。这个假设站不住脚,因为复杂任务会掉进 p^n 困境:每多一步,整体成功率就下降,链路足够长,成功率趋近于零。给Agent堆上百个MCP,只会塞进更多无用信息,加速context衰退。 真正的解决方案需要从系统地设计协同流程。 原则一:确定性优先 能用程序化、工具化解决的,就不要用LLM。减少概率环节,可靠性才会上去。别幻想写个万能system prompt就能通吃所有项目:协同必须针对场景,把Unknown尽量变成 Known,让程序去做确定的事。 构建流程是典型:让AI每次自己决定编译参数、构建方式,就是把确定性流程变成概率操作——参数会不会漏?Debug/Release会不会搞混?优化选项会不会乱开?更好的做法是脚本固化:把构建、测试、部署写成build.sh。AI可以帮你写,但你必须投入精力review并固化;之后只让AI执行脚本。 代码检查同理。幻想“AI 写代码 + AI Review = 人类解放”,基本是自我安慰。更实际的是规则固化:让AI帮你配 .golangci.yml、.eslintrc,用静态扫描工具做确定性检查。规则确定,结果才可信。 关键启发:这是渐进式协同建设。识别可固化环节 → AI 辅助实现 → 人工验证 → 固化复用。每固化一个点,就少一次概率性执行,系统可靠性会产生复利。 原则二:减少可能性空间 给 AI 的选择越少,它越不容易犯错。LLM面对开放题很弱,面对约束题才像样。你说“优化性能”,它会在算法、结构、缓存、策略之间乱猜。正确做法是先收敛:方案已定、约束明确、目标清晰。把不确定性留给人,把执行空间交给AI。 原则三:阶段性交付,可累进验收 不要让AI一次性端到端交付复杂任务,那几乎等于赌博:token账单变厚、代码跑不起来、白瞎几个小时。正确方式是分阶段产出、逐段验收,让AI先交付可沉淀成果:需求文档、方案设计、任务拆分、验收标准。就算代码翻车,这些依然可复用,还能换模型继续推。 本质上:把一条 p^n 的长链路,拆成多个成功率更高的子任务,每一步都有人工校验窗口。人必须在场。你越指望AI端到端,越容易冲上绿化带。 完整版:万字详解AI悖论,戳破AI时代最大的谎言 各位彦祖亦菲,你怎么看?

腾讯云开发者 2025-12-19 08:45
推荐阅读