智能体相关代办
优先级从高到低:
- 智能体整体的速度优化
- 经调查,目前国内所有主流大模型 API 都负载较高,速度慢且限购,速度快、性价比高的是阿里云的 Coding Plan 套餐, 其提供千问系列模型和部分非千问模型。千问 3.5 系列模型支持多模态,但能力较弱,建议仅在子智能体角色上使用; 其中非千问模型都是阉割版本,不建议使用。
- 当前 OpenCode 采用 Oh My OpenCode 多智能体编排插件,这个插件过于繁杂,占用太多上下文,会拖慢智能体推理速度, 建议移除该插件并添加 Oh My OpenCode Slim 插件作替代。 需重新配置新插件各子智能体角色所用模型,并更新配置文档。
- 当前智能体耗费大量时间在任务前文档检索上。
项目
https://github.com/hsingjui/ContextWeaver声称能做到文档和代码的快速语义召回。 可设法在 OpenCode 容器内配置。 - 项目
https://github.com/rtk-ai/rtk声称可为智能体节省大量上下文,可设法在 OpenCode 容器内配置。