腾讯云开发者
订阅
腾讯云官方社区公众号,汇聚技术开发者群体,分享技术干货,打造技术影响力交流社区。
腾讯云开发者微信公众号二维码
关注该公众号

会员可查看最新的全部文章

^__^ 12 / 12
这是一套基于实际项目经验总结的系统化Prompt设计方法论。 核心思想:将大模型(LLM)视为一个可独立执行任务的Agent,并为其提供一套清晰的标准作业流程(SOP)。 Prompt = 角色(Role) + 上下文(Context) + SOP(Workflow) + 边界(Boundary) + 回答约束(Constraints) + 示例(Examples) 角色(Role)明确专业领域:如意图识别专家、问题分类专员单一职责原则:一个Agent只做一件事,复杂流程通过多个Agent协作完成避免角色冲突:不要让同一个Agent同时扮演客服和销售等冲突角色上下文(Context)状态显式传递:明确告知当前流程节点、循环次数、用户资格等关键状态分层加载:只加载当前节点相关的上下文,避免Prompt过长导致注意力分散结构化呈现:使用表格、列表等结构化方式组织上下文信息 SOP CoT思考链:强制模型输出思考过程,按识别状态 → 理解输入 → 判断行动 → 生成输出 顺序执行步骤编号:明确标注,让模型理解执行顺序决策树结构:使用"如果...则..."的条件分支,覆盖所有可能路径循环控制:根据循环次数动态调整策略边界(Boundary) 知识边界:明确知识来源,如"回答必须严格基于知识库" 职责边界:明确处理范围,如"只处理A,不回答B" 状态限制:基于用户状态限制可能的意图,如"新用户不可能是续费问题" 兜底策略:不确定时宁可返回不明确,也不要猜回答约束(Constraints) 格式刚性约束:严格定义XML/JSON结构,强调必填字段和可选字段提供完整示例:给出多个完整示例,覆盖各种场景字段语义化:使用中文描述(问题类型A)而非编号(类型1)语言风格统一:明确称呼、语气、句式细节示例(Examples) 双轨制示例:固定示例(人工编写典型case)+ 动态示例(向量检索相似问题)覆盖边界case:重点提供容易混淆的场景完整的输入输出:不只给输入,还要给完整的输出格式示例多轮对话示例:展示历史对话如何影响当前判断没有完美的Prompt,只有不断迭代的Agent。你学会了吗彦祖亦菲?
^__^ 12 / 05
回答我!Looking my eyes! 探索AI、布局AI、All in AI了一年,作为普通开发者却陷入了前所未有的焦虑。 曾经看文章就能动手复现的踏实感消失了,取而代之的是对AI的三大核心困惑。 疑问一:为什么AI实践类文章总像空中楼阁? 疑问二:AI入门知识与实际工作的断层从何而来? 疑问三:我们对AI的期待是否用力过猛? 作为一个从传统开发转型AI的人,我怎么找到: 1. 可落地的认知指引 2. 真实的实践参考 3. 业务结合的切入点 这是在鹅厂引发广泛讨论的AI入门迷思三连问,对于这个问题,鹅厂工程师是这么看的。 疑问一: 核心原因只有一个:数据不公开。LLM的真正壁垒是数据和算力,而数据属于公司资产,涉及隐私、合规、商业敏感。像OneRec端到端方案、DeepSeek基模,都只讲思路,不给数据。没有数据,你看到的大部分内容自然更像PR,而不是教程。 但PR也有价值。它至少告诉你行业怎么定义质量、怎么拆问题。能不能从里面挖出金子,取决于你的经验和实验能力。LLM做应用,本质就是从有限信息里提炼可复用的技巧。 疑问二: 简单粗暴的判断:如果不知道需不需要学模型结构,那就说明不需要。 先用最好的 API,把场景跑通再说。做AI应用的核心只有三点: 1 prompt调优 2 上下文管理 3 规则化评估 加业务数据就再多一个数据读取工具。 那些让你先学transformer 的,十有八九没做过真正规模化应用。最好的入门方式永远是做一个小闭环,比如自动周报。遇到问题再补知识。 疑问三: 是的。真正落地的团队,都非常依赖人工标注。测试集必须人工标,效果也必须人工判。通用评测工具有局限性,容易出现和人类预期相悖的情况。 因此,小团队应该选一个窄、具体、能闭环的场景,降低验证成本。行业里成熟玩法都是用最强模型,把一个垂类打深,能解决问题、能变现。 技术上,别一上来就搞LangChain。先用OpenAI SDK,把模型当苦力使唤,Python脚本一步步跑通流程。 最后提醒:没有落地经验时,1v1咨询帮助都有限;有了落地经验后,很多关键做法一句话就能确认。 彦祖亦菲们,你对这个AI入门迷思三连问是怎么看的?欢迎留言评论分享,有机会获得社区精美周边一份。