https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus

选择上下文工程:团队放弃端到端训练,选择基于前沿大模型的上下文工程,以实现更快的迭代和模型解耦。
KV-Cache 优化:高缓存命中率能显著减少延迟和推理成本,必须保持上下文前缀稳定、追加式记录,避免频繁变更上下文。
工具管理 —— 遮蔽而非移除:不在执行中动态更改可用工具,而是根据上下文遮蔽不需要的操作,防止缓存失效和模型混乱。
文件系统做“外部记忆”:将重要信息写入文件系统,超出上下文窗口的信息可随时读写,持久且无限容量。
通过“复述”操控模型注意力:不断重写如 todo.md 这类全局目标文件,把关键目标持续推进到模型注意力焦点。
保留“错误轨迹”:上下文中不掩盖失败 / 错误记录,让模型能通过真实反馈自我纠正,提升周期任务表现。
避免“Few-shot 陷阱”:上下文如有太多同质 action-observation 示例,模型容易机械模仿,需引入模板多样性打破模式。
#AI #Doc

---

如何构建 AI Agent 的上下文工程(Founder’s Park 的中文翻译版质量不错) Context Engineering for AI Agents: Lessons from Building Manus
 
 
Back to Top
OKHK