⏳ 约2分钟 · 762汉字+41词

Markdown 格式最早的出现源于程序员们对 Word 排版反复无常的厌恶。因为你在 Word 里面的所有操作会被 Word 处理成藏在背后看不见的标签语言。这种不透明导致用户的意图和 Word 的解读经常不一致。
程序员们就想着要有一个透明的语言,写着是“标题”那里就是“标题”,写着是“加粗”的那个地方就是“加粗”。
于是 Markdown 很早就成了程序员写文档的默认格式语言。
那么可想而知,AI 被大量“投喂”的文档格式,就是 Markdown。


AI 读的不是字,是结构

把你的需求发给 AI,本质上是在把一段混乱的人类意图,翻译成机器能精确执行的指令。这个翻译过程,你以为只是”打了一段话”,AI 那边却在做大量的概率计算:哪部分是背景?哪部分是目标?哪部分是约束?

如果你只给了一团文字,AI 只能去猜。

Markdown 的作用,就是把这个”猜”变成”看”。

一个 ## 标题,告诉模型”这是一个新的主题锚点”。一个 - 列表,告诉模型”这些条件是平行的、独立的”。一个 **加粗**,告诉模型”这是最高优先级的关键词”。

这不是玄学,是模型训练的必然结果——GitHub、Stack Overflow、技术文档,这些 AI 摄取最多的高质量语料,几乎全是 Markdown 格式写的。用 Markdown 跟 AI 说话,你在用它的母语和它沟通。


有数字为证

研究数据显示:

  • 仅仅加入清晰的 Markdown 标题和分隔符,模型的理解准确度可提升 31%
  • 在 Markdown 框架内嵌入示例,任务执行成功率比纯文字指令高出 58%
  • 相同内容,Markdown 格式消耗的 Token 仅是 PDF/DOCX 的 三分之一到八分之一

最后一条对重度 API 用户来说意义直接:Markdown 不只是更准,还更省钱。


三个上手就能用的场景

场景一:结构化你的 Prompt

不要再发一整段话了。试试这个格式:

1
2
3
4
5
6
7
8
9
10
## 任务
帮我写一封拒绝合作的商务邮件

## 背景
对方是我们的老供应商,关系还不错,但这次报价超预算 30%

## 要求
- 语气委婉但立场明确
- 不承诺下次合作
- 不超过 150 字

发出去,感受一下区别。

场景二:建一个”技能文件”

把你常用的复杂操作模式写成一个 skill.md,比如你喜欢的写作风格、常见的任务模板、固定的约束条件。每次开新对话时直接粘贴进去。

这是一种”拥有”你的 AI 的方式——不依赖某一家平台的记忆功能,你的指令,你管着。

场景三:你的笔记,变成 AI 就绪的数据集

如果你用 Obsidian 或 Notion 记笔记(它们的底层都是 Markdown),你的知识库天然就是 AI 可以直接检索和分析的格式。


十分钟入门,够用一辈子

Markdown 没有学习门槛。核心语法六行就写完了:

1
2
3
4
5
6
# 一级标题
## 二级标题
**加粗** / *斜体*
- 列表项
1. 有序列表
> 引用块

一个写得好的 Markdown 文档,不只是给 AI 读的。给人读,也更清楚。


为了让大家尽快掌握这个技能,我做了一个免费小游戏。
Markdown练习小游戏。浏览器输入网址,或者在本公众号(AI加点油)留言:play 就可以找到。

⏳ 约4分钟 · 1362汉字+133词

你上个月给 AI 充了多少钱?

如果你开着 ChatGPT Plus 的月订阅,$20 美元,折合人民币将近 150 块。你用它写邮件、改 PPT、偶尔生成几张图。但你有没有算过,这 $20 里,你实际消耗了多少算力——按 API 价格换算,可能连 $2 都不到。

剩下那 $18,你交的是界面税

这个问题在 2026 年有了答案,叫做 BYOK——
Bring Your Own Key
自带密钥


算力与界面,本来就该分开

BYOK 的逻辑极其简单:你自己去模型厂商(OpenAI、Anthropic、DeepSeek)开账户、充值、拿到 API Key,然后把这个 Key 填进你选择的工具里。工具负责好看、好用的界面和工作流;算力账单,你直接和模型厂商结算。

没有中间商赚差价。

这带来三个实在的好处:

成本透明。 你用了多少,花了多少,API Dashboard 上一清二楚。不再有”套餐剩余额度”这种模糊的焦虑。

数据主权。 你的文件、你的对话,直接走你的 API Key 打到模型厂商,不经过第三方工具的服务器做二次处理。对于有隐私敏感需求的场景(法律文件、财务报表、医疗记录),这一点至关重要。

无需科学上网(对国内用户尤其关键)。这是 BYOK 在国内爆发的真正原因,下面展开说。


自定义 Endpoint:BYOK 的隐藏必杀技

大多数优质的 BYOK 工具都支持一个叫做”自定义 Base URL”或”自定义 Endpoint”的功能。

原理很简单:把 API 请求指向你选择的服务商地址——比如国内直连的 SiliconFlow、DeepSeek,或者 OpenDataSky 这类聚合平台。只需改一行地址,就能稳定调用各类顶尖模型,完全不依赖特殊网络环境。

这种设计让 BYOK 在国内真正落地:你可以用 DeepSeek、Qwen 等国内模型处理日常任务,也可以通过国内友好的 API 平台接入海外模型能力——选择权完全在自己手里。

一个 BYOK 工具支不支持自定义 Endpoint,已经成为判断它是否值得国内用户使用的第一道门槛


5 款值得充钱的 BYOK 工具

以下推荐面向已有 API 额度的用户,逻辑是:你手里有算力,这些工具帮你把算力用到极致。

1. Cline — 编程的尽头是 Agent

如果你写代码,Cline 是 2026 年非常值得关注的工具。它是一个 VS Code 插件,但叫它”插件”是低估了它——它是一个能读写文件、执行终端命令、启动浏览器测试的自主 Agent。你描述需求,它去干活。

配合 MCP(模型上下文协议),Cline 可以连接你的数据库、本地工具、浏览器,变成一个真正意义上的”数字员工”。接入国内中转网关后,用 Claude Opus 级别的模型驱动它,几分钟重构一个中型项目不是夸张。

适合:开发者,对 API 性价比要求高的人。

2. 沉浸式翻译 — 信息平权的利器

读英文长文、学术 PDF、看外网视频字幕——这些需求,沉浸式翻译(Immersive Translate)几乎已经做到了极致。它最聪明的地方在于极度开放:支持接入 DeepSeek、SiliconFlow 等国内直连的 API,甚至任何自建的兼容接口。

用国内 API 翻译,几乎是零成本。翻一整篇学术论文,可能花费不到一分钱。

适合:需要大量阅读英文信息的用户,研究者,学生。

3. LobeChat — 私有化 AI 总机

如果你手里有多个 API Key,LobeChat 是体验出色的聚合终端。Docker 部署一次,支持 20 多个 AI 服务商,支持 DALL-E 绘图、语音交互、插件系统。放在国内云服务器上,永远不用担心访问问题。

它完全开源,你的数据只在你的服务器上。这才是真正意义上的”私有化 AI 助理”。

适合:有一定技术能力、想要搭建个人 AI 工作台的用户。

文生视频的 API 贵,但 Vimerse Studio 通过接入 EvoLink 这个聚合层,让一个 Key 能调用 Kling、Seedance 等多个顶尖视频生成模型。哪个效果好用哪个,按需付费,不浪费一个 Token。

对比官方平台动辄几百元一月的订阅,这种按量付费的方式,能把有限的预算集中在真正出片的环节上。

适合:短视频创作者,视觉内容生产者。

5. Translate Lens — 极简主义者的选择

Steam 上有一款叫 Translate Lens 的软件,采用一次买断的商业模式,你买的是功能壳子,算力自己提供。支持 GPT-5、Gemini 2.5、本地 Ollama 模型。

它最极端的用法:完全离线,本地显卡跑 Llama 4,数据不经过任何云端服务器。云服务全挂了,它照样工作。

适合:Windows 用户,追求隐私和极简方案的人。


2026 BYOK 工具全景一览

工具 用途 平台 自定义 API 国内友好度
Cline 编程 Agent VS Code ⬛⬛⬛⬛⬛ ⬛⬛⬛⬛
沉浸式翻译 网页/PDF 翻译 插件 / 移动端 ⬛⬛⬛⬛⬛ ⬛⬛⬛⬛⬛
LobeChat 全能 AI 聊天 Web / Docker ⬛⬛⬛⬛⬛ ⬛⬛⬛⬛⬛
Roo Code 多模式编程 Agent VS Code ⬛⬛⬛⬛⬛ ⬛⬛⬛⬛
Aider 终端配对编程 CLI ⬛⬛⬛⬛ ⬛⬛⬛
Vimerse Studio 视觉生成 Web ⬛⬛⬛ ⬛⬛⬛
Translate Lens 翻译 / 离线 AI 桌面 (Steam) ⬛⬛⬛⬛ ⬛⬛⬛⬛⬛
CodeGPT 团队代码辅助 VS Code / JetBrains ⬛⬛⬛⬛ ⬛⬛⬛⬛
Knolli 安全 PDF 分析 Web / 私有云 ⬛⬛⬛⬛ ⬛⬛⬛⬛
Kilo Code 企业 BYOK 网关 IDE / CLI ⬛⬛⬛⬛⬛ ⬛⬛⬛⬛

(之一)这个后缀不是谦虚的修辞。下一篇,我想聊的是另一件同样值得学会的事:Markdown——写作者的”自带格式”。

如果你还没有 API Key,或者不想自己管理充值和账单,AI加点油 可以帮你解决这个问题——它直接为用户提供可用的 Key,让你跳过繁琐的开户流程,直接进入 BYOK 的工作流。

⏳ 约3分钟 · 1184汉字+31词

FOMO的朋友来看这篇,心里会舒坦点(因为我帮你们FOMO了)


最近中文 AI 圈又炸了。

每隔几个月就有一轮这种狂欢。记得上次是Manus,上上次是Claude Cli,或者 Gemini, OpenAI, Claude 御三家轮流炸裂。
这次轮到小龙虾。我相信有很多人跟我一样,看到这些推文的时候心跳加速,生怕自己落后了。

我也是,所以我去试了。

结论先说:等等党永远胜利。


第一轮:服务器直接被吃垮了

我的服务器跑过不少东西,博客、各种 Web 应用、定时任务,从来没出过问题。我寻思,把小龙虾丢上去顺手跑着,安全而且保持在线。
结果小龙虾一上来,把我服务器资源吃了个光,尝试三次都直接卡死,只能重启。好,转本地。。


第二轮:本地安装,一场持久战

本地装也不轻松。光是把源码拉下来、编译、安装,就花了相当长的时间。
中途还遇到各种依赖问题,一个报错接一个报错。
难怪咸鱼上可以挂500块”帮你安装小龙虾”,我非常能理解他们的底气了。


第三轮:配置,配置,还是配置

装好还没完。接下来是配置。

  • 先去申请电报机器人 Token
  • 再去申请大模型的 API Key
  • 然后为了”赋能”,还需要再接入一堆第三方应用
    每一步单独拿出来都不难,但叠在一起,一个下午就没了。

第四轮:终于跑起来了……但是

一切配置完毕,从命令行启动小龙虾。
等待。
继续等待。
大概等了十秒以上,它才起来。
我当初装Claude Code,作为一个功能相当重的 CLI 工具,启动也就两三秒。
小龙虾一个命令行工具,为什么要让我等这么久?


然后呢?它能干什么?

好,它终于跑起来了。我期待地问:你能帮我干什么?
帮我整理邮箱?帮我整理文件?帮我整理公众号素材?

……

等等,这些我已经有 Gemini 和 Claude 了,而且他们一直做得很好。
我已经算是中重度 AI 依赖用户了。MCP、Skill,我都在日常用,而且就这两样,已经绰绰有余,覆盖了我工作里大量的重复劳动(如果你也想了解这套工作流,可以看我之前写的:MCP 懒人包:AI的”万能插头”Skill 懒人包:让AI变成你的”专属员工”AI的”大脑”和”双手”的一场激烈争论,普通用户需要知道这些吗?)。

在这个基础上,小龙虾能帮我做什么?所以就真的安排不下你的工位啊亲!


那些”小龙虾分析股票”、”小龙虾帮你赚钱”……

就更不用说了。
凡是打着 AI 帮你赚钱旗号的,有一个算一个,都是噱头。
如果一个工具真能稳定帮人赚钱,它的作者早就自己用了,不会把教程挂出来卖你 99 块。

比如,我记得昨天在x特上还看到有人吹牛说赚了一辆特斯拉,结果打开就是标题党,第一段就是说其实赚的不是整车是首付,然后接着看,其实赚的是帮别人做软件开发的项目经费……那项目经费还有成本呢,搞下来真的“赚”的到特斯拉首付?(😀)


最后说两句

我理解那种 FOMO。中文 AI 圈这股”炸裂”风确实能让人焦虑——每天刷到”颠覆”、”必学”、”你还没用就落后了”,你很难完全无动于衷。
我就是那种超级容易焦虑被人煽动的人——之前写过一篇文章,凌晨3点从梦里惊醒,第一件事是摸向键盘,在黑暗里焦虑着”键盘会不会像算盘一样被淘汰”……那种感觉,懂的都懂。
但我替你们试过了。至少现在,没必要慌。

小龙虾还有很长的路要走:安装门槛太高、资源消耗太大、启动太慢、实际能解决的问题和现有工具高度重叠。它现在的状态,更像是一个对技术细节感兴趣的人的探索玩具,而不是一个能真正提升普通用户工作效率的成熟工具。

真的,我这套搞下来,我非常怀疑那些营销号号主究竟装过小龙虾用过小龙虾没有。

Anyway,现在我宣布加入等等党,我们一起胜利。


最后的最后挖个坑:我作为产品经理,对小龙虾有些自己的想法——它有不少可以改进的地方,我可能会试着做点什么。下回分解。

⏳ 约2分钟 · 678汉字+97词

前段时间 Claude Code 在开发者圈子刷屏。它最让人眼前一亮的不是 AI 有多聪明,而是它的三套机制CLAUDE.md(持久化工作规范)、Memory(跨会话记忆)、Skills(可复用命令工作流)。

然而 Claude Code 在国内几乎无法直接使用——注册难、付款难、连接不稳定。

我花了两天把这套机制搬进了 OpenClaw,做成了一个开箱即用的配置包,叫 GoClaw(加油小龙虾)


OpenClaw 是什么

OpenClaw 是一个开源的本地 AI 代理,2026 年初 GitHub stars 超过 25 万。它的核心设计和 Claude Code 几乎同构:

机制 Claude Code OpenClaw
持久化身份/规范 CLAUDE.md SOUL.md
跨会话记忆 Memory 系统 MEMORY.md
可复用工作流 Skills Skills(ClawHub)
本地执行能力 CLI 原生 文件/Shell/浏览器

OpenClaw 支持任何兼容 OpenAI 格式的 API——这正是 aijia.you 提供的。


GoClaw 做了什么

GoClaw 是一套预配置文件包,不修改 OpenClaw 本体,只提供:

  • SOUL.md:把 OpenClaw 的默认人格改造成编程助手,中文沟通、代码英文、Git 操作默认授权、破坏性操作二次确认——跟 Claude Code 的工作方式高度一致
  • MEMORY.md:结构化的初始记忆模板,引导 AI 从第一次对话起就记住你的项目和偏好
  • 5 个内置 Skill/commit/review/explain/fix/docs——复刻 Claude Code 最常用的功能

模型通过 aijia.you 调用,无需境外信用卡,按用量付费,新手月均消耗约 ¥5-20。


3 步上手

第 1 步:安装 OpenClaw

前往 openclaw.ai 下载对应系统的安装包:

  • macOS:下载 .dmg,安装后菜单栏出现图标
  • Windows:下载 .exe,Defender 警告选「仍要运行」

第 2 步:配置 aijia.you API

打开 OpenClaw 设置 → API Provider,填写:

1
2
3
Provider Type : OpenAI Compatible
Base URL : https://aijia.you/v1
API Key : sk-xxxxxxxx(从 aijia.you 控制台复制)

还没有 aijia.you 账号?点这里注册,新用户有体验额度。

推荐入门模型:gemini-2.0-flash(速度快、价格低、中文质量好)。

第 3 步:部署 GoClaw 配置包

1
2
3
4
5
6
7
# clone 仓库
git clone https://github.com/hawken-im/goclaw.git
cd goclaw

# Mac / Linux:复制到 OpenClaw 数据目录
cp SOUL.md MEMORY.md ~/.openclaw/
cp -r skills/* ~/.openclaw/skills/

Windows 用户:把 SOUL.mdMEMORY.mdskills\ 目录手动复制到 C:\Users\你的用户名\.openclaw\

重启 OpenClaw,配置立即生效。


用起来什么感觉

配好之后,你可以在 OpenClaw 支持的任意频道(Telegram、Discord 等)发送:

1
/commit

GoClaw 会自动读取你的 git 暂存区改动,分析提交历史风格,生成一条规范的 commit message,等你确认后直接提交。

1
/review src/auth/login.js

读取指定文件,按「必须修复 / 建议改进 / 值得保留」三级输出审查报告。

1
/fix

把报错信息扔给它,自动定位文件和行号,展示修改前后对比,等你确认后执行。


核心差异与限制

GoClaw 不是 Claude Code 的完美复制:

  • 接口不同:Claude Code 原生在终端,GoClaw 主要通过 Telegram/Discord 交互(更适合移动场景)
  • 模型不同:你用哪个模型取决于 aijia.you 的供应,Claude Code 绑定 Claude 系列
  • 执行权限:OpenClaw 的本地执行能力取决于你的安装配置,默认权限比 Claude Code 更保守

但对于无法使用 Claude Code 的中国用户来说,这已经是目前最接近的体验。


GitHub 仓库:hawken-im/goclaw

API 来自:aijia.you — 国内可用的 AI API 聚合平台,支持 Claude / GPT-4 / Gemini

⏳ 约3分钟 · 843汉字+66词

你在 Cline 里用免费模型跑任务,跑着跑着突然蹦出来一行红字:

1
429 Request was rejected due to rate limiting. Details: TPM limit reached.

任务中断,前功尽弃,还要重头来。

这不是你的错,这是免费模型的游戏规则:TPM(Tokens Per Minute)限速。本文教你用几个组合拳,让 AI 降速跑,榨干免费额度,再也不触红线。


为什么会被限速?

主流免费模型的限制通常有三种:

类型 含义 最容易触发场景
TPM 每分钟 Token 数上限 AI 疯狂输出长代码、读大文件
RPM 每分钟请求次数上限 Cline 连续快速调用工具
RPD 每天请求次数上限 跑了一整天任务

Cline 的问题在于:它默认”能快就快”。读文件、写代码、回复确认——一口气连续调用十几次 API,每次都带着大段上下文,TPM 很快就爆了。


方案一:Cline 内置请求延迟(最直接)

打开 VS Code 设置,搜索 cline,找到 “API Request Delay (ms)”(也可能叫 Rate Limit Delay)。

设置一个延迟,比如 3000ms(3秒),Cline 每次工具调用之间都会暂停 3 秒。

  • 优点:零成本,一键生效
  • 缺点:整体变慢,但不触限速

这是最暴力也最可靠的方法。跑不急的长任务推荐先把这个打开。


方案二:用 .clinerules 限制 AI 的 Token 消耗行为

.clinerules 是写给 AI 的”工作守则”,放在项目根目录,每次 Cline 启动新 Task 都会读取。你可以用它来约束 AI 的输出风格,从源头减少 Token 消耗。

在你的 .clinerules 文件里加入这一节:

1
2
3
4
5
6
7
## 省 Token 守则(免费模型限速保护)

- **输出精简**:每次工具调用后只汇报关键状态,禁止复述操作细节
- **按需读文件**:只读任务直接相关的文件,不做"预防性探索"
- **分批执行**:完成当前步骤后暂停,等待我确认再继续,不要连续发起超过 3 次工具调用
- **只输出差异**:修改代码时只展示被改动的代码段,不输出整个文件
- **规划先行**:执行复杂任务前先用文字列出步骤,确认后再开始执行

这几条规则的逻辑:

  1. 精简输出 → 减少每次响应的 output tokens
  2. 禁止无效文件读取 → 减少 input tokens(大文件上下文是 TPM 杀手)
  3. 分批+等确认 → 人为拉长两次 API 调用之间的间隔
  4. 只输出差异 → 大幅减少代码类任务的 output tokens
  5. 规划先行 → 一次思考替代多次摸索,减少总调用次数

实测下来,加了这几条之后,同样的任务 Token 消耗可以降低 40-60%。


方案三:多 Key 轮换

大部分免费模型的限额是按 API Key 计算的。如果你能注册多个账号,就能轮换使用多个 Key,变相突破单 Key 限额。

Google Gemini 免费额度为例(目前是免费模型里最豪的选项之一):

  1. 用不同 Google 账号在 Google AI Studio 各申请一个 API Key
  2. 在 Cline 设置里切换 Key(跑满一个换下一个)
  3. 或者把多任务分配给不同 Key 并行跑

这个方法有点繁琐,但对于跑量大的批处理任务很有用。


方案四:混合使用付费 + 免费(最推荐)

免费模型限速的根本原因是它处理的 Token 太多了。聪明的做法是:

  • 简单/重复性任务 → 免费模型(代码格式化、简单问答、小文件修改)
  • 需要大上下文的复杂任务 → 付费模型(跨文件重构、长文生成)

在 Cline 里可以给不同任务类型预设不同的模型配置。复杂任务偶尔花几分钱,换来不限速地畅快跑,其实更划算。


一个实用的 .clinerules 模板

把这段直接贴到你项目的 .clinerules 末尾:

1
2
3
4
5
6
7
8
9
10
11
---

## 免费模型限速保护规则

**触发条件**:当你使用免费 API(如 Gemini Free、Step-3.5-Flash、OpenRouter 免费模型)时,必须遵守以下规则。

1. 每完成一个独立步骤后暂停,输出"✅ [步骤名] 完成,是否继续?"并等待确认
2. 读取文件前先确认是否必要,每次 Task 最多读取 5 个文件
3. 代码修改只输出变更的函数或代码块,绝不输出完整文件
4. 回复长度控制在 300 字以内,技术细节按需展开
5. 遇到不确定的地方,提问而不是猜测并尝试

小结

方案 难度 效果 推荐场景
Cline 请求延迟设置 ✅ 稳定 所有免费模型
.clinerules 省 Token 规则 ⭐⭐ ✅✅ 显著 日常开发任务
多 Key 轮换 ⭐⭐⭐ ✅✅✅ 高 批量任务
免费+付费混用 ⭐⭐ ✅✅✅ 最优 长期使用

如果你有其他躲过限速的方法,欢迎在评论区分享。

⏳ 约2分钟 · 588汉字+56词

字数统计 574 汉字+56 词 阅读时长约2分钟

三分钟搞懂让AI连接万物的协议

一句话解释:MCP是什么?

MCP (Model Context Protocol,模型上下文协议) 是Anthropic在 2024年11月推出的一个开放标准。简单说,它是AI连接外部服务的”统一插头”。

没有MCP之前,让AI操作你的邮箱、日历、项目管理工具,每个服务都需要单独对接。MCP把这些都统一成了一套标准接口,就像 USB-C 统一了充电口一样。

它能做什么?

通过MCP,AI可以直接:发送Slack(飞书/钉钉)消息、创建Jira(飞书项目/禅道)任务、查询数据库、读写Google Drive(腾讯文档/飞书文档)文件、操作 Salesforce(销售易/纷享销客)客户记录……几乎你能想到的外部服务,都可以通过MCP来连接。

通俗类比

如果把AI比作一个大脑很聪明但被关在房间里的人,MCP就是给他装了电话、电脑和各种工具。有了MCP,AI就能与外界交互,而不只是和你聊天。

发展现状

截至 2026 年初,MCP生态已经非常庞大:超过 10,000 个 MCP 服务器可用,主流 AI 工具全部支持(包括ChatGPT、Claude、Gemini、Cursor、VS Code等)。MCP已经从Anthropic的”自家产品”变成了行业通用标准,由Linux基金会旗下的 Agentic AI 基金会托管。

一个真实案例

一位项目经理每周五下午要做同样的事:打开Jira(飞书项目/禅道)看本周关闭了哪些任务,打开Slack(飞书/钉钉)翻上周的重要讨论,再打开Google Doc(腾讯文档/飞书文档)写一份进度周报,发给老板。整套流程要花将近一小时。

接入MCP之后,她对AI说了一句话:「帮我写这周的项目周报。」

AI通过Jira的MCP服务器查询了本周已完成的任务列表,通过Slack的MCP读取了#项目频道的关键对话,然后按照公司的周报模板生成了初稿。她只花了5分钟做最终确认,然后直接发送。

关键在于:AI不是在”假装”完成这些事,它是真的访问了这些系统、读取了真实数据。这就是MCP与普通聊天的本质区别——从”告诉你答案”变成了”替你做事”。

一句话总结

MCP是AI与外部世界之间的桥。它不让AI变得更聪明,但让AI变得更有用。

⏳ 约2分钟 · 755汉字+60词

三分钟搞懂AI世界最火的新概念

一句话解释:Skill是什么?

Skill(代理技能)本质上就是一份”工作手册”。就像你给新员工写的培训文档一样,它告诉AI:”碰到这类任务,你应该按这个流程来做。”

举个例子:你可以写一个Skill,告诉AI”每次写周报时,先列本周完成项,再写下周计划,最后加一句风险提示”。从此,AI就能每周稳定输出符合你要求的周报。

为什么突然火了?

2025年10月,Anthropic推出了Agent Skills功能,迅速在开发者社区引发广泛关注。Skill的核心优势在于三点:

简单到离谱。 一个Skill就是一个Markdown文件,加上一点YAML元数据。不需要写代码,不需要搭服务器,用记事本就能创建。

省token。 传统方式会把工具定义一股脑塞进上下文,而Skill最大只给AI看一个名字和简介(可能只占 20-50 个 token),需要时再加载完整说明。

可复用、可分享。 团队里一个人写的Skill,其他人直接拿来用。就像分享一份文档一样简单。

通俗类比

如果把AI比作一个新员工,Skill就是你给他的SOP手册。他很聪明,但没有手册的话,每次做事都得重新教;有了手册,他就能稳定输出符合你预期的结果。

谁在用?

目前已有包括Canva、Notion、Figma、Atlassian等知名企业提供预建的Skill。开发者社区也在快速跟进,几乎所有主流的AI编程工具(Claude Code、Cursor等)都已支持。

更进一步的是 OpenClaw——一个以 Skill 为核心架构的 AI 代理框架。它运行在用户自己的设备上,通过 WhatsApp、Telegram、微信等聊天工具接受指令,再按照对应的 Skill 驱动 AI 完成任务。它的技能市场 ClawHub 上已有超过 3,200 个 Skill,覆盖从代码审查到客户跟进的各类场景。2026 年 3 月,腾讯宣布基于 OpenClaw 推出兼容微信生态的 AI 产品,Skill 这套机制正式进入中国主流市场视野。

一个真实案例

一位独立研究员在 OpenClaw 上写了一个 Skill,大概是这样描述的:

每天早上8点,从36氪、The Information、X科技话题抓取过去24小时的内容,过滤出与 AI Agent 相关的信息,用中文总结成5条要点,每条不超过50字,发送到我的微信。

这个 Skill 写完之后,他什么都不用再做。每天早上微信收到一条消息,AI 已经替他完成了信息筛选、翻译和提炼。

关键在于:OpenClaw 的 AI 代理本身很聪明,但如果没有这个 Skill,它不知道该关注哪些信源、用什么格式、面向什么读者。Skill 是让 AI 从”能做很多事”变成”稳定做好这一件事”的关键。这个 Skill 本身不到150字,却相当于一份永久有效的工作说明书。

一句话总结

Skill不是什么高深技术,它就是让AI”照着你的规矩办事”的一种方法。简单、轻量、强大。

⏳ 约6分钟 · 2242汉字+152词

这场技术圈的论战,最终和你有什么关系

引言:一场”谁杀死谁”的网络议战

如果你最近关注AI话题,很难不注意到这场争论:”Skill杀死了MCP!”这个论断从 2025 年底开始在X(原推特)上爆发,引发了AI从业者和开发者们的激烈讨论。知名技术博主Simon Willison称Skill”可能比MCP更重要”,而另一边则有人反驳:这就像”说有了菜谱就不需要厨房”一样荒谬。

这场争论的本质是什么?谁对谁错?未来会怎样发展?这篇文章尝试给你一个清晰的回答。

第一章:回顾——两者是怎么来的

MCP的诞生:解决”AI孤岛”问题

2024年11月,Anthropic推出MCP,解决的是一个很现实的问题:AI很聪明,但它被困在聊天窗口里,无法主动操作外部工具。MCP让AI能直接连接Slack、Jira、数据库等外部服务,从”只会聊天”变成”能做事”。

它迅速获得了行业认可。到 2025 年12月,MCP正式捐赠给Linux基金会旗下的Agentic AI基金会(AAIF),从Anthropic的单独项目变成了行业公共标准,OpenAI、Block等公司共同参与治理。到 2026 年初,生态中已有超过10,000个MCP服务器,主流AI工具全部接入。

Skill的崛起:”轻量级”替代方案

2025年10月,Anthropic又推出Agent Skills。如果说MCP是一套复杂的工业协议,Skill就是一份Markdown文档加一点元数据——简单得有点让人难以置信。

但就是这个”简单”触动了很多人。开发者们发现,以前需要搭建一个MCP服务器才能做的事,现在写一个Markdown文件就能解决。Canva、Notion、Figma等企业迅速跟进,Agent Skills在开发者社区快速扩散。

第二章:争论的核心——到底在争什么

“Skill杀死MCP”派的论据

论据一:让AI”变笨”。 MCP的一大痛点是,每次启动时要把所有工具的说明全部塞给AI,相当于让AI在开始工作前先读完一本厚厚的说明书。开发者Armin Ronacher就提到,他们的MCP服务器一加载就占用了约8000个token的空间——通俗来说,就是强迫AI先记住一篇几千字的文档,才能开始干活。而Skill只在启动时给AI看一个名字和简介,需要时再调出完整内容,AI的反应速度和质量都更好。

论据二:小题大做。 很多早期的MCP服务器搭建了一套复杂的基础设施,实际上只是在做很简单的事。用一份Skill文档来描述同样的操作规则,让AI自己去执行,效果完全一样,但搭建和维护成本几乎为零。

论据三:门槛太高。 MCP是一套完整的工程规范,需要具备一定的技术背景才能搭建和维护。对于很多只需要AI”照着规矩办事”的简单场景,这种复杂度完全没有必要。

“MCP不会死”派的反驳

反驳一:两者根本不在同一层。 Goose团队的Angie Jones打了一个经典比方:说Skill杀死了MCP,就像说”有了菜谱就不需要厨房”一样荒谬。厨房还在,菜谱只是告诉你怎么用它。Skill是菜谱,MCP是厨房——菜谱告诉你怎么做,厨房提供做菜的能力。

反驳二:Skill无法替代外部连接。 发送Slack消息、查询生产数据库、操作CRM记录——这些需要真实的集成、真实的权限和真实的执行。光靠文档指导是做不到的。

反驳三:数据说话。 到 2026 年初,MCP生态的SDK月下载量超过9700万次,10,000+服务器获得主流客户端支持。如果Skill真的”杀死”了MCP,这些数字应该下降而不是上升。

第三章:真相——不是替代,而是分层

理清了双方论据,真相其实很清晰:Skill和MCP不是竞争关系,而是同一套架构的不同层次。

Skill 是”知识层”。 它编码的是”如何做”——团队规范、工作流程、领域专业知识。它们是Markdown文档,由人类写作和维护,轻量且易于分享。

MCP 是”执行层”。 它提供的是”能做什么”——外部服务的连接、认证、执行和状态管理。它是真正让AI”动手”的基础设施。

OpenClaw 是一个很好的佐证。它的技能市场 ClawHub 上销售的”Skill”,本质上是打包好的 MCP 服务器(执行层);而它内部的 SKILL.md 文件,则是告诉 AI 代理如何调用这些工具的指令集(知识层)。OpenClaw 把两者都叫”Skill”,造成了命名上的混淆——但底层架构是清晰的:两层各司其职,只是被整合进了同一个产品。这种混淆恰恰说明,在真实的产品演进中,两层正在被有意识地封装在一起,而不是在互相取代。

所以真正发生的事情是:Skill没有广泛地替代MCP,而是淘汰了那些”本来就不应该存在”的MCP服务器。很多早期的MCP服务器其实只是在做很简单的事,Skill用一份文档就能更好地解决。但对于真正需要持久连接、复杂认证和实时数据的场景,MCP仍然不可替代。

第四章:未来走向——三个关键趋势

趋势一:融合而非替代

最务实的开发者已经在同时使用两者,OpenClaw 是目前最完整的”融合产品”案例。它的底层通过 MCP 连接外部服务,上层通过 SKILL.md 定义 AI 的工作逻辑,其技能市场 ClawHub 上已有超过 3,200 个基于 MCP 的 Skill 可供一键安装。有开发者分享,他写了一个 Trello MCP 服务器,同一套代码不改一行就同时跑在 Claude Desktop 和 OpenClaw 里——这正是”融合”的实际样子:工具可复用,平台各自分工。

未来的主流形态很可能就是这样:Skill 描述工作流程,MCP 提供执行能力,一个 OpenClaw 式的代理框架在中间把两者整合,用户只需通过聊天窗口下指令。

趋势二:MCP下沉为基础设施

一个明显的变化是MCP正在从”前台”退到”后台”。以前,AI每次交互都直接调用MCP工具;现在,MCP越来越多地处理底层的数据存储、账号验证、企业系统对接等问题,而上层的交互逻辑则由Skill和代理框架来编排。

这其实是技术成熟的标志。就像HTTP协议今天无处不在,但普通用户不需要知道它的存在。MCP也在走同样的路——成为”看不见但离不开”的基础层。

趋势三:安全与治理成为关键议题

随着两者的普及,安全问题正在上升为核心关切。MCP方面,已经出现过实际的安全漏洞,影响了数十万个环境。”工具下毒”攻击——即在工具描述中隐藏恶意指令来操纵AI行为——成为新的威胁向量。

Skill同样面临挑战:如果不受信任的Skill被加载,它可能指导 AI 执行有害操作。行业正在探索”AI网关”的方案——在AI和外部服务之间加一层审核,过滤危险操作、记录所有行为。

第五章:对普通用户意味着什么

作为内容创作者、运营人员或日常AI用户,这场技术变迁对你意味着:

AI助手会越来越”懂你的风格”。 Skill让AI记住你的创作习惯——你写稿的语气、你发帖的格式、你回复用户的方式——不用每次都重新交代。今天你可能还需要自己写Skill,但未来很可能在应用内通过简单设置就能完成。对内容创作者来说,这意味着AI能持续输出”你的风格”,而不是每次都要花时间调教。

AI能帮你做的事会越来越多。 MCP生态的壮大意味着AI能连接的平台越来越丰富。从自动整理选题、发布内容到追踪数据、回复私信,AI正在从”聊天机器人”变成真正的”数字助理”。对中国用户来说,最近的落地信号来自腾讯:2026年3月,腾讯宣布基于 OpenClaw 推出兼容微信生态的 AI 产品,意味着这套”MCP执行层 + Skill指令层”的架构,正在借助微信这个超级入口进入普通人的日常。

安全和信任会成为关注点。 当AI能直接操作你的工具和数据时,权限管理和安全审计会变得和管理员工权限一样重要。

结语

技术圈特别是AI圈曾有大佬锐评:「AI 圈子一惊一乍什么都炸裂」,所以我们讨论谁干掉了谁,现实往往是更加微妙的共存与分工。Skill和MCP的关系,不如说是”各就各位”。

当Skill让AI想明白”该怎么做”,MCP让AI有能力”真正去做”时,我们的AI助手才算真正长大了。而这,才是这场争论背后真正值得关注的事。

⏳ 约3分钟 · 1000汉字+22词

孩子在备考 FCE(剑桥英语B2),每周老师批完作业,密密麻麻的红笔,加上孩子本来就歪歪扭扭的文字,肉眼难以识别。而且批改的内容孩子翻翻就搁一边了,真正能内化的没多少。

于是我想试试把每次批改让 AI 帮我整理成结构化的错题集,挂到网上,随时能查。

结果出来了:leonfce.hawken.im


流程是这样的

整个事情分三步,我基本没手动干预。

第一步:微信存图

老师在微信上发来批改图,我全部扔进一个文件夹。不需要命名,不需要整理,就是一堆 xxxx.jpg

第二步:OCR 读图

用 OCR 模型把图片里的文字认出来——不光是学生原文,还有老师的批注、改正、旁边写的评语,全提取出来。

这一步以前很难做好,批改里有大量手写字,还有删改符号、箭头、圈圈,普通 OCR 基本废了。但是好在老师的红字是键盘敲在图片上的。我给的提示词里还宽容的指出:“即便识别不出来也没关系,因为后面的推理模型可以补全。“

第三步:推理模型做解析

拿到 OCR 结果之后,交给推理模型做第二轮处理:

  1. 识别错误类型——是时态错了、主谓不一致、搭配不对、还是逻辑问题?
  2. 生成示范句——把错误的那句话改对,作为标准示例
  3. 再造一个同类句——用同样的语法点或搭配,造一个全新的句子,供孩子对照练习

这样每一个错误,孩子手里就有三样东西:原来错的、改对的、另一个例子。
效果比我预期好很多,因为所谓的 LLM 不就是大语言模型吗,最原始的功能就是补全语言。


出来的效果

leonfce.hawken.im 这次处理了 42 页批改,老师的 FCE 写作课内容。

错误被按类型归类:主谓一致、时态、词形变化、介词搭配、写作结构……每一条都有出处(对应第几张图),方便孩子回头翻原图核对。
最后还有一张汇总表,按错误类型统计,一眼能看出哪块是高频弱点。

然后再让推理模型自己做一个总结,下次我又来图了可以复用整个过程。


为什么这个对孩子有用

普通的错题本,孩子自己整理,费时费力,还容易漏,而且整理完也就抄了一遍,没有深度加工。

这个流程做出来的东西不一样:

  • 结构化:不是一页页翻图,是按类型检索
  • 有例句:不只是”你这里错了”,而是”对的该是这样,再看另一个同类的”
  • 可复习:网页随时打开,不用找本子

当然,AI 不能替代孩子自己思考。但它能做的那部分——把散乱的批改变成有组织的材料——确实帮我省了大量时间,而且做得比我手工整理好。


技术上的流程整理

整个流程用 VSCode + Cline 跑的,本地执行。大概步骤:

  1. 读取文件夹里所有图片
  2. 逐张调 OCR 模型(支持手写识别的多模态模型),输出批改内容
  3. 把 OCR 结果喂给推理模型,按固定 prompt 输出错题结构(错误类型 / 示范句 / 造句)
  4. 聚合成 HTML,推上服务器

下次处理新的一批作业,把图片扔进去,重跑一遍,新内容自动合并进去。


如果你家孩子也在备考英语,或者有类似整理学习材料的需求,这个思路可以直接套用,但是我估计英语和语文要好办一些,数学错题、物理错题能不能被识别的很好还不好说。因为我是先识别成文字再进行推理。跟手机某些 App 的直接分析画面可能还有点距离。

⏳ 约3分钟 · 668汉字+258词

不神秘,不复杂。


1. 它到底是什么

OpenClaw 就是一个跑在你电脑上的 AI 助手框架。 它把大模型(Claude、GPT、Kimi、DeepSeek 随便选)接到你常用的聊天工具上(Telegram、Slack),让 AI 不只能聊天,还能操作你的电脑——发邮件、改日历、跑代码、刷网页,全自动。

它是开源免费的。你只需要付大模型的 API 费用。


2. 它怎么工作的

整个架构就三层:

💬
聊天入口
Telegram
Slack / Discord
🦞
OpenClaw 网关
跑在你电脑上
调度一切
🧠
大模型 API
Claude / GPT
Kimi / DeepSeek
执行动作
发邮件 / 改文件
刷网页 / 跑脚本

你在 Telegram 上说「帮我把明天的会议推迟到下午三点」,消息到 OpenClaw 网关,网关问大模型该怎么做,大模型说调 Google Calendar API,网关就去执行。完事回你一句「搞定了」。


3. 大家拿它干嘛

📧 邮件自动化
每天扫收件箱,总结重要邮件,起草回复
📅 日程管理
自动排日程、解决冲突、发送每日简报
💻 代码助手
监控 GitHub PR,自动修 bug 并提交
🌐 网页自动化
填表、抓数据、自动完成重复操作
🏠 智能家居
控制空调、灯光、空气净化器
📊 投资监控
每天跑策略回测、推送行情摘要

4. 模型怎么选

OpenClaw 不绑定任何模型。你有 API key 就能用。社区里最主流的搭配:

Claude Sonnet
工具调用最稳,官方推荐
Kimi K2.5
OpenRouter 调用量冠军
DeepSeek V3.2
极致便宜,日常跑量首选
MiniMax M2.5
编码能力对标 Opus
GLM-5
长任务 + Agent 特别强
Qwen3.5-Plus
性价比天花板
省钱心法:80% 的日常任务用便宜模型(DeepSeek / Qwen-Flash),20% 的硬骨头切到 Claude / GLM-5。一个月 API 费用可以从 $500 降到 $50 以内。

5. 注意事项

安全第一。 OpenClaw 有系统级权限,能读你的邮件、日历、文件。配置不当等于给 AI 开了你电脑的 root。装之前看一遍安全文档,不懂命令行的慎用。

解决方案一:安装在非主力机上,甚至可以不用显示器(这也是为啥前段时间 Mac Mini 大卖的原因)。

解决方案二:安装在云服务器 VPS 上,这个方案更酷但是要花费一笔 VPS 的租用费。

Token 费用会爆。 Agent 是循环调用的,一个复杂任务可能跑几十轮对话。不设预算上限的话,一觉醒来账单可能吓你一跳。

解决方案:给你的小龙虾吃好的。我自己发现思考能力差的模型反而会消耗更大量的 Token,因为陷入了思考循环出不来。


说到 Token,OpenClaw 跑任务很费量——如果你没有便宜好用的 API 渠道,可以看看我上篇写的:那些营销号真的没告诉你,小龙虾要吃很多很多 token 吗?!


以上。

github.com/openclaw/openclaw

0%