← 返回文章

一步一步引导模型建立更好的 Context

原创/随笔

和 Claude 协作久了,我发现一个很有意思的事:第一轮 prompt 写得越完整,效果不一定好。

具体来说,即使我明确告诉它"这是研究任务"、开了 plan mode,它读完一大段上下文之后,他确实会去研究,然后理解,但还是会直接给我一个完整的执行方案。

比如我想让它帮我优化 skill-creator 里的回放和多步骤测试逻辑,我已经改过一版了,只需要微调。但如果我在第一轮就把这些全说清楚,它总是没法完全理解清楚我的需求,在奇怪的地方出错。

后来我换了一种方式:第一轮什么任务都不提,就让它先去读 skill-creator 的代码,建立宏观理解。然后我像个初学者一样问它几个问题,让它带着这些问题再去研究、回答我。等到第三四轮,我们已经有了共同的理解基础,这时候我再说"我要优化的是这些点",它 100% 理解了我的需求,还能给我很多指导建议。

更有意思的是,这个策略在 context 已经到了 100K 甚至 200K 的时候依然有效。按理说那已经是模型开始变笨的区域了,但逐步建立起来的上下文似乎比一次性灌入的上下文更实。

我越来越觉得,和 AI 协作的正确姿态就是把它当一个人,对它保持一点耐心,逐步引导,效果反而更好。