看吧,等等党又赢了
其实 Hermes 出来已经好多天了。我一直在观望,自己也在配、在用,故意没有急着发文章——因为上次被小龙虾搞了个焦虑,这次我想确认自己真的觉得好用,再开口。
现在我觉得可以说了。
我早说过了吧(得意脸)
几个月前,我写过一篇文章:小龙虾(OpenClaw)试吃记录,以及感想。当时的结论是——等等党永远胜利。
我替你们亲自踩过了:服务器被吃垮三次,本地安装花了一个下午,配好之后发现能干的事情 Gemini 和 Claude 早就在帮我做了。最后我写道:
“小龙虾还有很长的路要走:安装门槛太高、资源消耗太大、启动太慢、实际能解决的问题和现有工具高度重叠。”
但我当时也说了,小龙虾是过渡性产品。这类东西的逻辑历来如此:先有一批先行者跑出来验证需求、暴露痛点,然后才会有真正成熟的东西接上来。小龙虾帮整个行业试出来了”AI Agent 需要什么”——需要持久记忆、需要轻量部署、需要和你现有的工作流咬合——这个价值是真实的。只是那个答案,不是它自己。
我们等下一个,现在:
Hermes 来了。
我看了不少对比文章,好多没有提一个我们用户最关心的问题:token 消耗多少?上下文会不会爆?
这两件事直接关系到钱包和体验,但评测文章普遍喜欢聊功能,不聊账单。
Hermes 在这两点上的设计,我觉得值得单独说一下。
token 消耗:Hermes 解决过的复杂问题,会被固化成 Skill 文档。下次遇到同类任务,直接调 Skill,不需要重新把整段背景推导一遍——节省的是几倍到几十倍的 token。而且 Hermes 从 Vault 里取记忆用的是语义检索,不是全库塞进上下文,每次只拿相关的片段。
上下文长度:正因为检索精准,上下文天然短。上下文短带来的副作用是:模型更难”脑补”——也就是幻觉更少。这不是玄学,是 RAG 领域的基本共识:给模型喂干净的短上下文,比喂一大堆噪声然后祈祷它不出错,靠谱得多。
省钱和准确,这次是同一件事。
Hermes 是什么
Hermes Agent(NousResearch 出品,GitHub 40,000+ Stars)是一个开源的、会自我成长的 AI Agent。
它的定位和小龙虾不同:
- 小龙虾是网关中心(gateway-centric):接入一堆服务、帮你路由指令。它也有记忆系统,但记什么、调什么,得靠 Agent 自己判断和触发——更像是一个被动存档,不是主动带入。
- Hermes 是运行时中心(runtime-centric):它记住你。上周它帮你解决过一个复杂问题,它会把方法固化成一份 Skill 文档存起来。下周你再遇到类似的事,一句话,它直接调出来用。而且每次对话只精准检索相关片段、复用压缩过的 Skill——上下文更短、信噪比更高,省 token 的同时,幻觉也更少。
而且它是模型无关的——你可以接 OpenAI、OpenRouter,也可以跑本地模型,不绑死任何一家。
Hermes + Obsidian,怎么配
目前社区里最热门的组合是 Hermes + Obsidian,有人还会加上 OMI 做上下文捕获,但那个我觉得是进阶玩法,先说核心两件套。
逻辑很简单:
Obsidian 存记忆,Hermes 用记忆。
1 | 你的笔记 / 日常记录 → Obsidian Vault(本地)→ Hermes 读取 → 对话时自动带入上下文 |
你不需要每次打开对话都跟 AI 自我介绍一遍,也不需要把上下文手动复制粘贴进去。Hermes 启动时会读你的 Vault,它知道你在做什么、你的偏好是什么、上次讨论到哪里了。
对我来说这个组合刚刚好——我本来就在用 Obsidian 做笔记,那些笔记不需要做任何额外处理,直接就变成了 Hermes 的”长期记忆库”。零迁移成本。
基本搭建步骤:
- 从 GitHub 安装 Hermes(一行命令,Linux/macOS/WSL2 均可)
- 终端启动,
hermes setup引导配置 - 把 Obsidian Vault 路径接入作为记忆源
- 开始用
API Key 从哪来?
hermes setup 过程中会要求填入一个大模型的 API。Hermes 支持任何 OpenAI 兼容格式的 API,不绑死哪一家。
如果你在国内,直连 OpenAI 或者 Gemini 会有各种门槛。我自己用的是 AI加点油(aijia.you)——这是我自己做的一个 AI API 聚合平台,把 Qwen、Kimi、DeepSeek、Gemini 等主流模型集中在一个 API key 下统一调用,接口格式 OpenAI 兼容,直接填进 Hermes 就能用。
注册后在账户页面生成 API Key,然后在 hermes setup 里填入:
1 | API Base URL:https://aijia.you/v1 |
新注册用户有免费额度,试一试足够了。如果预算有限,用 Qwen-Flash 或 DeepSeek-V4-Flash 跑 Hermes 的日常记忆调用,价格非常低——顺便说一句,AI加点油最近刚上了 DeepSeek V4 和 Gemini 3 Flash,感兴趣的可以看我上一篇:Flash 时代降临:DeepSeek V4 与 Gemini 3 Flash 联手,打造 Cline 的极致能效比。
如果你之前用过小龙虾,hermes setup 会自动检测 ~/.openclaw,提供一键迁移——配置、记忆、API key 全部带过来。
好在哪里
1. AI 终于有了长期记忆
这是最核心的。以前每次开新对话,AI 都是失忆状态,你要把背景重新铺一遍。Hermes + Obsidian 解决了这个问题:你的偏好、你的项目背景、你上次得出的结论,它都记得。
2. Skills 自动积累,越用越聪明
它解决过的复杂工作流,会被固化成 Skill 文档存在 Vault。几周之后,一个原来需要你写长 prompt 才能触发的操作,变成一句话指令。
3. 本地存储,数据自己拿着
所有记忆在你的 Obsidian Vault 里,不上云。可以检视、可以编辑、可以删除。这一点对我来说很重要。
4. 跨平台连续作战
CLI 开始一个任务,手机 Telegram 收通知,Discord 继续跟进——不断线,不丢上下文。
5. 更省 token,更少幻觉
Skills 把复杂推理的结果压缩成可复用的文档,下次直接调取而非重新推导,省的是几倍到几十倍的 token。精准语义检索只把相关片段塞进上下文,没有噪声——上下文越短、越干净,模型越难”脑补”出不存在的东西。省钱和准确,这次是同一件事。
和小龙虾对比
| OpenClaw(小龙虾) | Hermes + Obsidian | |
|---|---|---|
| 设计哲学 | 网关中心:接入多服务 | 运行时中心:记忆+技能积累 |
| 安装难度 | 高(编译 + 依赖 + 配置一下午) | 低(一行命令,自动迁移 OpenClaw 配置) |
| 资源消耗 | 重(我实测吃垮服务器) | 轻量,本地友好 |
| 启动速度 | 慢(>10 秒) | 快 |
| 持久记忆 | 有,但依赖 Agent 主动保存,旧内容需手动搜索触发 | 自动全量读取 Vault,Skills 自动检索,无需手动干预 |
| 技能积累 | 无 | 自动生成 Skill 文档,越用越强 |
| 数据存储 | 依赖第三方配置 | 本地 Vault,完全掌控 |
| Token 消耗 | 无 Skill 压缩,每次推导从头开始 | Skill 复用大幅压缩,精准检索减少噪声 |
| 幻觉风险 | 上下文质量依赖用户手动管理 | 短上下文、高信噪比,幻觉概率更低 |
| 适合人群 | 技术玩家,喜欢折腾服务连接 | 笔记重度用户,想要 AI 真正记住你的人 |
一句话总结:小龙虾是”AI 接线员”,Hermes 是”AI 长期搭档”。
最后说两句
折腾文具这件事,我折腾够了。
一个工具如果需要我反复调教才能勉强跑起来,它就不配占用我的时间。我之前说,在我已有 MCP 和 Skill 的工作流基础上:
“小龙虾能帮我做什么?所以就真的安排不下你的工位啊亲!”
Hermes 换了个思路——它没有挤进来抢别人的工位,而且它一看设计的产品生命周期就长。开源、模型无关、搭配 Obsidian 这种已经成熟的生态,不会因为某个模型降价或某个竞品冒出来就垮掉。
至少我感觉我等到一个称手的工具了,暂时不会换了。