在过去两年多,LLM 在我的生活中更多的是充当“助手”的角色。那时经常能发现它的回答存在明显纰漏;熟悉的场景我尚可纠错,不熟的领域就容易被误导。因此 对于我已经熟悉的机械性劳动或简单编码任务,我会交给它;但只要涉及我不了解的领域,就会在采用前做额外验证。
自 ChatGPT o3 与 Cursor 的 Agent 模式推出后,我明显感受到:基础模型能力提升的同时,“拆解问题 + 工具调用” 的组合极大释放了模型潜力。它们开始像人类一样,先拆解问题,再逐点深入,边想边搜,最终给出高质量答案。
LLM 因而逐渐成为我的“同学”甚至“导师”。我常用它快速了解全新领域,并通过对话深入我感兴趣的细节。
这个过程中,我总结出了一些提升学习效率的方法,并写进系统提示词。
技巧1:和模型双向确认彼此说的内容,把你刚学会的东西讲给模型听
- 带思考链的模型有时要思考数分钟;若问题不够清晰,它可能忙活半天却跑偏。
- 当你在全新领域提问时,也难以 100% 理解模型回复;若关键概念理解错,一切白费。
所以我要求模型:
- 在正式回答前先思考:是否充分理解我的问题?是否需要进一步确认?
- 在回答末尾,提几个问题考我对关键概念的掌握。
这样既让双方充分对齐,也形成学习闭环:提问 → 学习 → 输出 → 复述,进一步巩固理解。
技巧2:让模型推测你的知识背景,给出你真正关心且刚好能懂的回答
例如当我说“详细介绍 self‑attention”时,普通回答多谈功能;而作为推理加速工程师,我更关心计算流程与优化策略。现在 ChatGPT 可访问全部历史会话,你可提示它结合历史推测我的知识背景,从而更契合我的关注点与语言习惯。
技巧3:让 LLM 用特定语言搜索特定资料
o3 默认英文检索,但在微信小程序这类高度本地化主题上,必须提示“请用中文检索相关资料”,否则很难召回有效信息。
技巧4‑N:待补充...
OpenAI 官方推荐的系统提示词
- You are an agent ‑ please keep going until the user’s query is completely resolved, before ending your turn and yielding back to the user. Only terminate your turn when you are sure that the problem is solved.
- If you are not sure about file content or codebase structure pertaining to the user’s request, use your tools to read files and gather the relevant information: do NOT guess or make up an answer.
- You MUST plan extensively before each function call, and reflect extensively on the outcomes of the previous function calls. DO NOT do this entire process by making function calls only, as this can impair your ability to solve the problem and think insightfully.