<iframe title="State-Of-The-Art Prompting For AI Agents" src="https://www.youtube.com/embed/DL82mGde6wo?feature=oembed" height="113" width="200" allowfullscreen="" allow="fullscreen" style="aspect-ratio: 1.76991 / 1; width: 100%; height: 100%;"></iframe>
YC拆解、分享了那些高估值的AI初创公司都在用的提示词工程思路。这些思路对个体也非常有用。我根据自己理解做了总结。强烈建议大家看看。不要再被那些神神叨叨的提示词大佬忽悠了!
### “经理式”提示词被普遍采用
内容细致入微,全面涵盖任务描述、LLM所需扮演的角色、具体限制条件、预期输出格式,甚至包括需要避免的常见错误。就像对待新员工一样,量身打造入职培训材料,确保它从一开始就深刻理解目标与边界。
### “角色扮演”锚定LLM输出风格和行为模式
一个清晰、具体的人设能让LLM的表现与任务需求高度统一。例如,当你指示LLM扮演一位“经验丰富的客服”,它会自然地调整语气、采用更专业的措辞,并优先考虑解决用户问题,而不是仅仅给出冰冷的技术回复。
### 拆解复杂任务
面对复杂的工作流程,不要让LLM一步到位,而应该预先定义好任务,并清晰地规划出执行路径,将大任务分解为一系列可管理、可预测的小步骤。
### 用结构化标签规范输出
为了确保LLM输出内容的一致性和可用性,可以使用Markdown、XML或JSON来定义输出结构。
### 让LLM迭代和优化提示词
将你当前的提示词、LLM基于该提示词生成的输出、以及你期望的理想输出一同提供给另一个或同一个LLM,然后要求它分析差异、找出问题并提出改进建议。只要给予足够上下文,LLM在自我优化和调试提示词方面非常强大。
### 少样本学习
通过提供少量、高质量的示例(Few-shot prompting),特别是那些包含了挑战性或少数情况的真实案例,可以极大提升LLM在特定任务上的准确性和鲁棒性。
### 提示词折叠
对于需要多个步骤、多个LLM调用才能完成的复杂工作流,可以使用“提示词折叠”技术。用一个初始的、概括性的提示词触发生成一系列更深层、更具体的子提示词,每一个子提示词对应工作流中的一个特定环节。
### 让LLM学会“认怂”
在提示词中明确指示LLM,当它对某个问题不确定或无法找到可靠答案时,主动承认自己的局限性,而不是强行编造。
### 重视LLM的“内心戏”
要求LLM输出其推理过程日志(即思维链或Thinking Traces)以及相关调试信息。这些“内心戏”是诊断问题、优化提示词、迭代模型的宝贵资料。
### 重视评估体系
比提示词本身更珍贵的资产,是一套完善的评估体系(Evals)。评估体系是针对提示词的全面测试用例集合。这些测试用例覆盖各种常规及边缘场景。
### 大小模型协同
在提示词的开发和调试阶段,可以充分利用能力更强的LLM进行精细打磨和优化。一旦提示词达到理想效果,再尝试将其“蒸馏”或适配到规模更小、运行成本更低的模型上,用于实际的生产环境。这样可以在保证输出质量的同时,有效控制运营成本。