⏳ 约3分钟 · 1212汉字+33词

Subtitle: 确定没必要FOMO
FOMO的朋友来看这篇,心里会舒坦点(因为我帮你们FOMO了)


最近中文 AI 圈又炸了。

每隔几个月就有一轮这种狂欢。记得上次是Manus,上上次是Claude Cli,或者 Gemini, OpenAI, Claude 御三家轮流炸裂。
这次轮到小龙虾。我相信有很多人跟我一样,看到这些推文的时候心跳加速,生怕自己落后了。

我也是,所以我去试了。

结论先说:等等党永远胜利。


第一轮:服务器直接被吃垮了

我的务器跑过不少东西,博客、各种 Web 应用、定时任务,从来没出过问题。我寻思,把小龙虾丢上去顺手跑着,安全而且保持在线。
结果小龙虾一上来,把我服务器资源吃了个光,尝试三次都直接卡死,重启服务器。
好,转本地。


第二轮:本地安装,一场持久战

本地装也不轻松。光是把源码拉下来、编译、安装,就花了相当长的时间。
中途还遇到各种依赖问题,一个报错接一个报错。
难怪咸鱼上可以挂500块”帮你安装小龙虾”,我非常能理解他们的底气了。


第三轮:配置,配置,还是配置

装好还没完。接下来是配置。

  • 先去申请电报机器人 Token
  • 再去申请大模型的 API Key
  • 然后为了”赋能”,还需要再接入一堆第三方应用
    每一步单独拿出来都不难,但叠在一起,一个下午就没了。
    我知道这类工具都有学习成本,但我没想到成本这么高。

第四轮:终于跑起来了……但是

一切配置完毕,从命令行启动小龙虾。
等待。
继续等待。
大概等了十秒以上,它才起来。
我当初装Claude Code,作为一个功能相当重的 CLI 工具,启动也就两三秒。
小龙虾一个命令行工具,为什么要让我等这么久?


然后呢?它能干什么?

好,它终于跑起来了。我期待地问:你能帮我干什么?
帮我整理邮箱?帮我整理文件?帮我整理公众号素材?

……

等等,这些我已经有 Gemini 和 Claude 了,而且他们一直做得很好。
我已经算是中重度 AI 依赖用户了。MCP、Skill,我都在日常用,而且就这两样,已经绰绰有余,覆盖了我工作里大量的重复劳动(如果你也想了解这套工作流,可以看我之前写的:MCP 懒人包:AI的”万能插头”Skill 懒人包:让AI变成你的”专属员工”AI的”大脑”和”双手”的一场激烈争论,普通用户需要知道这些吗?)。

在这个基础上,小龙虾能帮我做什么?所以就真的安排不下你的工位啊亲!


那些”小龙虾分析股票”、”小龙虾帮你赚钱”……

就更不用说了。
凡是打着 AI 帮你赚钱旗号的,有一个算一个,都是噱头。
如果一个工具真能稳定帮人赚钱,它的作者早就自己用了,不会把教程挂出来卖你 99 块。

比如,我记得昨天在x特上还看到有人吹牛说赚了一辆特斯拉,结果打开就是标题党,第一段就是说其实赚的不是整车是首付,然后接着看,其实赚的是帮别人做软件开发的项目经费……那项目经费还有成本呢,搞下来真的“赚”的到特斯拉首付?(😀)


最后说两句

我理解那种 FOMO。中文 AI 圈这股”炸裂”风确实能让人焦虑——每天刷到”颠覆”、”必学”、”你还没用就落后了”,你很难完全无动于衷。
我就是那种超级容易焦虑被人煽动的人——之前写过一篇文章,凌晨3点从梦里惊醒,第一件事是摸向键盘,在黑暗里焦虑着”键盘会不会像算盘一样被淘汰”……那种感觉,懂的都懂。
但我替你们试过了。至少现在,没必要慌。

小龙虾还有很长的路要走:安装门槛太高、资源消耗太大、启动太慢、实际能解决的问题和现有工具高度重叠。它现在的状态,更像是一个对技术细节感兴趣的人的探索玩具,而不是一个能真正提升普通用户工作效率的成熟工具。

真的,我这套搞下来,我非常怀疑那些营销号号主究竟装过小龙虾用过小龙虾没有。

Anyway,现在我宣布加入等等党,我们一起胜利。


最后的最后挖个坑:我作为产品经理,对小龙虾有些自己的想法——它有不少可以改进的地方,我可能会试着做点什么。下回分解。

⏳ 约2分钟 · 678汉字+97词

前段时间 Claude Code 在开发者圈子刷屏。它最让人眼前一亮的不是 AI 有多聪明,而是它的三套机制CLAUDE.md(持久化工作规范)、Memory(跨会话记忆)、Skills(可复用命令工作流)。

然而 Claude Code 在国内几乎无法直接使用——注册难、付款难、连接不稳定。

我花了两天把这套机制搬进了 OpenClaw,做成了一个开箱即用的配置包,叫 GoClaw(加油小龙虾)


OpenClaw 是什么

OpenClaw 是一个开源的本地 AI 代理,2026 年初 GitHub stars 超过 25 万。它的核心设计和 Claude Code 几乎同构:

机制 Claude Code OpenClaw
持久化身份/规范 CLAUDE.md SOUL.md
跨会话记忆 Memory 系统 MEMORY.md
可复用工作流 Skills Skills(ClawHub)
本地执行能力 CLI 原生 文件/Shell/浏览器

OpenClaw 支持任何兼容 OpenAI 格式的 API——这正是 aijia.you 提供的。


GoClaw 做了什么

GoClaw 是一套预配置文件包,不修改 OpenClaw 本体,只提供:

  • SOUL.md:把 OpenClaw 的默认人格改造成编程助手,中文沟通、代码英文、Git 操作默认授权、破坏性操作二次确认——跟 Claude Code 的工作方式高度一致
  • MEMORY.md:结构化的初始记忆模板,引导 AI 从第一次对话起就记住你的项目和偏好
  • 5 个内置 Skill/commit/review/explain/fix/docs——复刻 Claude Code 最常用的功能

模型通过 aijia.you 调用,无需境外信用卡,按用量付费,新手月均消耗约 ¥5-20。


3 步上手

第 1 步:安装 OpenClaw

前往 openclaw.ai 下载对应系统的安装包:

  • macOS:下载 .dmg,安装后菜单栏出现图标
  • Windows:下载 .exe,Defender 警告选「仍要运行」

第 2 步:配置 aijia.you API

打开 OpenClaw 设置 → API Provider,填写:

1
2
3
Provider Type : OpenAI Compatible
Base URL : https://aijia.you/v1
API Key : sk-xxxxxxxx(从 aijia.you 控制台复制)

还没有 aijia.you 账号?点这里注册,新用户有体验额度。

推荐入门模型:gemini-2.0-flash(速度快、价格低、中文质量好)。

第 3 步:部署 GoClaw 配置包

1
2
3
4
5
6
7
# clone 仓库
git clone https://github.com/hawken-im/goclaw.git
cd goclaw

# Mac / Linux:复制到 OpenClaw 数据目录
cp SOUL.md MEMORY.md ~/.openclaw/
cp -r skills/* ~/.openclaw/skills/

Windows 用户:把 SOUL.mdMEMORY.mdskills\ 目录手动复制到 C:\Users\你的用户名\.openclaw\

重启 OpenClaw,配置立即生效。


用起来什么感觉

配好之后,你可以在 OpenClaw 支持的任意频道(Telegram、Discord 等)发送:

1
/commit

GoClaw 会自动读取你的 git 暂存区改动,分析提交历史风格,生成一条规范的 commit message,等你确认后直接提交。

1
/review src/auth/login.js

读取指定文件,按「必须修复 / 建议改进 / 值得保留」三级输出审查报告。

1
/fix

把报错信息扔给它,自动定位文件和行号,展示修改前后对比,等你确认后执行。


核心差异与限制

GoClaw 不是 Claude Code 的完美复制:

  • 接口不同:Claude Code 原生在终端,GoClaw 主要通过 Telegram/Discord 交互(更适合移动场景)
  • 模型不同:你用哪个模型取决于 aijia.you 的供应,Claude Code 绑定 Claude 系列
  • 执行权限:OpenClaw 的本地执行能力取决于你的安装配置,默认权限比 Claude Code 更保守

但对于无法使用 Claude Code 的中国用户来说,这已经是目前最接近的体验。


GitHub 仓库:hawken-im/goclaw

API 来自:aijia.you — 国内可用的 AI API 聚合平台,支持 Claude / GPT-4 / Gemini

⏳ 约3分钟 · 843汉字+66词

你在 Cline 里用免费模型跑任务,跑着跑着突然蹦出来一行红字:

1
429 Request was rejected due to rate limiting. Details: TPM limit reached.

任务中断,前功尽弃,还要重头来。

这不是你的错,这是免费模型的游戏规则:TPM(Tokens Per Minute)限速。本文教你用几个组合拳,让 AI 降速跑,榨干免费额度,再也不触红线。


为什么会被限速?

主流免费模型的限制通常有三种:

类型 含义 最容易触发场景
TPM 每分钟 Token 数上限 AI 疯狂输出长代码、读大文件
RPM 每分钟请求次数上限 Cline 连续快速调用工具
RPD 每天请求次数上限 跑了一整天任务

Cline 的问题在于:它默认”能快就快”。读文件、写代码、回复确认——一口气连续调用十几次 API,每次都带着大段上下文,TPM 很快就爆了。


方案一:Cline 内置请求延迟(最直接)

打开 VS Code 设置,搜索 cline,找到 “API Request Delay (ms)”(也可能叫 Rate Limit Delay)。

设置一个延迟,比如 3000ms(3秒),Cline 每次工具调用之间都会暂停 3 秒。

  • 优点:零成本,一键生效
  • 缺点:整体变慢,但不触限速

这是最暴力也最可靠的方法。跑不急的长任务推荐先把这个打开。


方案二:用 .clinerules 限制 AI 的 Token 消耗行为

.clinerules 是写给 AI 的”工作守则”,放在项目根目录,每次 Cline 启动新 Task 都会读取。你可以用它来约束 AI 的输出风格,从源头减少 Token 消耗。

在你的 .clinerules 文件里加入这一节:

1
2
3
4
5
6
7
## 省 Token 守则(免费模型限速保护)

- **输出精简**:每次工具调用后只汇报关键状态,禁止复述操作细节
- **按需读文件**:只读任务直接相关的文件,不做"预防性探索"
- **分批执行**:完成当前步骤后暂停,等待我确认再继续,不要连续发起超过 3 次工具调用
- **只输出差异**:修改代码时只展示被改动的代码段,不输出整个文件
- **规划先行**:执行复杂任务前先用文字列出步骤,确认后再开始执行

这几条规则的逻辑:

  1. 精简输出 → 减少每次响应的 output tokens
  2. 禁止无效文件读取 → 减少 input tokens(大文件上下文是 TPM 杀手)
  3. 分批+等确认 → 人为拉长两次 API 调用之间的间隔
  4. 只输出差异 → 大幅减少代码类任务的 output tokens
  5. 规划先行 → 一次思考替代多次摸索,减少总调用次数

实测下来,加了这几条之后,同样的任务 Token 消耗可以降低 40-60%。


方案三:多 Key 轮换

大部分免费模型的限额是按 API Key 计算的。如果你能注册多个账号,就能轮换使用多个 Key,变相突破单 Key 限额。

Google Gemini 免费额度为例(目前是免费模型里最豪的选项之一):

  1. 用不同 Google 账号在 Google AI Studio 各申请一个 API Key
  2. 在 Cline 设置里切换 Key(跑满一个换下一个)
  3. 或者把多任务分配给不同 Key 并行跑

这个方法有点繁琐,但对于跑量大的批处理任务很有用。


方案四:混合使用付费 + 免费(最推荐)

免费模型限速的根本原因是它处理的 Token 太多了。聪明的做法是:

  • 简单/重复性任务 → 免费模型(代码格式化、简单问答、小文件修改)
  • 需要大上下文的复杂任务 → 付费模型(跨文件重构、长文生成)

在 Cline 里可以给不同任务类型预设不同的模型配置。复杂任务偶尔花几分钱,换来不限速地畅快跑,其实更划算。


一个实用的 .clinerules 模板

把这段直接贴到你项目的 .clinerules 末尾:

1
2
3
4
5
6
7
8
9
10
11
---

## 免费模型限速保护规则

**触发条件**:当你使用免费 API(如 Gemini Free、Step-3.5-Flash、OpenRouter 免费模型)时,必须遵守以下规则。

1. 每完成一个独立步骤后暂停,输出"✅ [步骤名] 完成,是否继续?"并等待确认
2. 读取文件前先确认是否必要,每次 Task 最多读取 5 个文件
3. 代码修改只输出变更的函数或代码块,绝不输出完整文件
4. 回复长度控制在 300 字以内,技术细节按需展开
5. 遇到不确定的地方,提问而不是猜测并尝试

小结

方案 难度 效果 推荐场景
Cline 请求延迟设置 ✅ 稳定 所有免费模型
.clinerules 省 Token 规则 ⭐⭐ ✅✅ 显著 日常开发任务
多 Key 轮换 ⭐⭐⭐ ✅✅✅ 高 批量任务
免费+付费混用 ⭐⭐ ✅✅✅ 最优 长期使用

如果你有其他躲过限速的方法,欢迎在评论区分享。

⏳ 约2分钟 · 588汉字+56词

字数统计 574 汉字+56 词 阅读时长约2分钟

三分钟搞懂让AI连接万物的协议

一句话解释:MCP是什么?

MCP (Model Context Protocol,模型上下文协议) 是Anthropic在 2024年11月推出的一个开放标准。简单说,它是AI连接外部服务的”统一插头”。

没有MCP之前,让AI操作你的邮箱、日历、项目管理工具,每个服务都需要单独对接。MCP把这些都统一成了一套标准接口,就像 USB-C 统一了充电口一样。

它能做什么?

通过MCP,AI可以直接:发送Slack(飞书/钉钉)消息、创建Jira(飞书项目/禅道)任务、查询数据库、读写Google Drive(腾讯文档/飞书文档)文件、操作 Salesforce(销售易/纷享销客)客户记录……几乎你能想到的外部服务,都可以通过MCP来连接。

通俗类比

如果把AI比作一个大脑很聪明但被关在房间里的人,MCP就是给他装了电话、电脑和各种工具。有了MCP,AI就能与外界交互,而不只是和你聊天。

发展现状

截至 2026 年初,MCP生态已经非常庞大:超过 10,000 个 MCP 服务器可用,主流 AI 工具全部支持(包括ChatGPT、Claude、Gemini、Cursor、VS Code等)。MCP已经从Anthropic的”自家产品”变成了行业通用标准,由Linux基金会旗下的 Agentic AI 基金会托管。

一个真实案例

一位项目经理每周五下午要做同样的事:打开Jira(飞书项目/禅道)看本周关闭了哪些任务,打开Slack(飞书/钉钉)翻上周的重要讨论,再打开Google Doc(腾讯文档/飞书文档)写一份进度周报,发给老板。整套流程要花将近一小时。

接入MCP之后,她对AI说了一句话:「帮我写这周的项目周报。」

AI通过Jira的MCP服务器查询了本周已完成的任务列表,通过Slack的MCP读取了#项目频道的关键对话,然后按照公司的周报模板生成了初稿。她只花了5分钟做最终确认,然后直接发送。

关键在于:AI不是在”假装”完成这些事,它是真的访问了这些系统、读取了真实数据。这就是MCP与普通聊天的本质区别——从”告诉你答案”变成了”替你做事”。

一句话总结

MCP是AI与外部世界之间的桥。它不让AI变得更聪明,但让AI变得更有用。

⏳ 约2分钟 · 755汉字+60词

三分钟搞懂AI世界最火的新概念

一句话解释:Skill是什么?

Skill(代理技能)本质上就是一份”工作手册”。就像你给新员工写的培训文档一样,它告诉AI:”碰到这类任务,你应该按这个流程来做。”

举个例子:你可以写一个Skill,告诉AI”每次写周报时,先列本周完成项,再写下周计划,最后加一句风险提示”。从此,AI就能每周稳定输出符合你要求的周报。

为什么突然火了?

2025年10月,Anthropic推出了Agent Skills功能,迅速在开发者社区引发广泛关注。Skill的核心优势在于三点:

简单到离谱。 一个Skill就是一个Markdown文件,加上一点YAML元数据。不需要写代码,不需要搭服务器,用记事本就能创建。

省token。 传统方式会把工具定义一股脑塞进上下文,而Skill最大只给AI看一个名字和简介(可能只占 20-50 个 token),需要时再加载完整说明。

可复用、可分享。 团队里一个人写的Skill,其他人直接拿来用。就像分享一份文档一样简单。

通俗类比

如果把AI比作一个新员工,Skill就是你给他的SOP手册。他很聪明,但没有手册的话,每次做事都得重新教;有了手册,他就能稳定输出符合你预期的结果。

谁在用?

目前已有包括Canva、Notion、Figma、Atlassian等知名企业提供预建的Skill。开发者社区也在快速跟进,几乎所有主流的AI编程工具(Claude Code、Cursor等)都已支持。

更进一步的是 OpenClaw——一个以 Skill 为核心架构的 AI 代理框架。它运行在用户自己的设备上,通过 WhatsApp、Telegram、微信等聊天工具接受指令,再按照对应的 Skill 驱动 AI 完成任务。它的技能市场 ClawHub 上已有超过 3,200 个 Skill,覆盖从代码审查到客户跟进的各类场景。2026 年 3 月,腾讯宣布基于 OpenClaw 推出兼容微信生态的 AI 产品,Skill 这套机制正式进入中国主流市场视野。

一个真实案例

一位独立研究员在 OpenClaw 上写了一个 Skill,大概是这样描述的:

每天早上8点,从36氪、The Information、X科技话题抓取过去24小时的内容,过滤出与 AI Agent 相关的信息,用中文总结成5条要点,每条不超过50字,发送到我的微信。

这个 Skill 写完之后,他什么都不用再做。每天早上微信收到一条消息,AI 已经替他完成了信息筛选、翻译和提炼。

关键在于:OpenClaw 的 AI 代理本身很聪明,但如果没有这个 Skill,它不知道该关注哪些信源、用什么格式、面向什么读者。Skill 是让 AI 从”能做很多事”变成”稳定做好这一件事”的关键。这个 Skill 本身不到150字,却相当于一份永久有效的工作说明书。

一句话总结

Skill不是什么高深技术,它就是让AI”照着你的规矩办事”的一种方法。简单、轻量、强大。

⏳ 约6分钟 · 2242汉字+152词

这场技术圈的论战,最终和你有什么关系

引言:一场”谁杀死谁”的网络议战

如果你最近关注AI话题,很难不注意到这场争论:”Skill杀死了MCP!”这个论断从 2025 年底开始在X(原推特)上爆发,引发了AI从业者和开发者们的激烈讨论。知名技术博主Simon Willison称Skill”可能比MCP更重要”,而另一边则有人反驳:这就像”说有了菜谱就不需要厨房”一样荒谬。

这场争论的本质是什么?谁对谁错?未来会怎样发展?这篇文章尝试给你一个清晰的回答。

第一章:回顾——两者是怎么来的

MCP的诞生:解决”AI孤岛”问题

2024年11月,Anthropic推出MCP,解决的是一个很现实的问题:AI很聪明,但它被困在聊天窗口里,无法主动操作外部工具。MCP让AI能直接连接Slack、Jira、数据库等外部服务,从”只会聊天”变成”能做事”。

它迅速获得了行业认可。到 2025 年12月,MCP正式捐赠给Linux基金会旗下的Agentic AI基金会(AAIF),从Anthropic的单独项目变成了行业公共标准,OpenAI、Block等公司共同参与治理。到 2026 年初,生态中已有超过10,000个MCP服务器,主流AI工具全部接入。

Skill的崛起:”轻量级”替代方案

2025年10月,Anthropic又推出Agent Skills。如果说MCP是一套复杂的工业协议,Skill就是一份Markdown文档加一点元数据——简单得有点让人难以置信。

但就是这个”简单”触动了很多人。开发者们发现,以前需要搭建一个MCP服务器才能做的事,现在写一个Markdown文件就能解决。Canva、Notion、Figma等企业迅速跟进,Agent Skills在开发者社区快速扩散。

第二章:争论的核心——到底在争什么

“Skill杀死MCP”派的论据

论据一:让AI”变笨”。 MCP的一大痛点是,每次启动时要把所有工具的说明全部塞给AI,相当于让AI在开始工作前先读完一本厚厚的说明书。开发者Armin Ronacher就提到,他们的MCP服务器一加载就占用了约8000个token的空间——通俗来说,就是强迫AI先记住一篇几千字的文档,才能开始干活。而Skill只在启动时给AI看一个名字和简介,需要时再调出完整内容,AI的反应速度和质量都更好。

论据二:小题大做。 很多早期的MCP服务器搭建了一套复杂的基础设施,实际上只是在做很简单的事。用一份Skill文档来描述同样的操作规则,让AI自己去执行,效果完全一样,但搭建和维护成本几乎为零。

论据三:门槛太高。 MCP是一套完整的工程规范,需要具备一定的技术背景才能搭建和维护。对于很多只需要AI”照着规矩办事”的简单场景,这种复杂度完全没有必要。

“MCP不会死”派的反驳

反驳一:两者根本不在同一层。 Goose团队的Angie Jones打了一个经典比方:说Skill杀死了MCP,就像说”有了菜谱就不需要厨房”一样荒谬。厨房还在,菜谱只是告诉你怎么用它。Skill是菜谱,MCP是厨房——菜谱告诉你怎么做,厨房提供做菜的能力。

反驳二:Skill无法替代外部连接。 发送Slack消息、查询生产数据库、操作CRM记录——这些需要真实的集成、真实的权限和真实的执行。光靠文档指导是做不到的。

反驳三:数据说话。 到 2026 年初,MCP生态的SDK月下载量超过9700万次,10,000+服务器获得主流客户端支持。如果Skill真的”杀死”了MCP,这些数字应该下降而不是上升。

第三章:真相——不是替代,而是分层

理清了双方论据,真相其实很清晰:Skill和MCP不是竞争关系,而是同一套架构的不同层次。

Skill 是”知识层”。 它编码的是”如何做”——团队规范、工作流程、领域专业知识。它们是Markdown文档,由人类写作和维护,轻量且易于分享。

MCP 是”执行层”。 它提供的是”能做什么”——外部服务的连接、认证、执行和状态管理。它是真正让AI”动手”的基础设施。

OpenClaw 是一个很好的佐证。它的技能市场 ClawHub 上销售的”Skill”,本质上是打包好的 MCP 服务器(执行层);而它内部的 SKILL.md 文件,则是告诉 AI 代理如何调用这些工具的指令集(知识层)。OpenClaw 把两者都叫”Skill”,造成了命名上的混淆——但底层架构是清晰的:两层各司其职,只是被整合进了同一个产品。这种混淆恰恰说明,在真实的产品演进中,两层正在被有意识地封装在一起,而不是在互相取代。

所以真正发生的事情是:Skill没有广泛地替代MCP,而是淘汰了那些”本来就不应该存在”的MCP服务器。很多早期的MCP服务器其实只是在做很简单的事,Skill用一份文档就能更好地解决。但对于真正需要持久连接、复杂认证和实时数据的场景,MCP仍然不可替代。

第四章:未来走向——三个关键趋势

趋势一:融合而非替代

最务实的开发者已经在同时使用两者,OpenClaw 是目前最完整的”融合产品”案例。它的底层通过 MCP 连接外部服务,上层通过 SKILL.md 定义 AI 的工作逻辑,其技能市场 ClawHub 上已有超过 3,200 个基于 MCP 的 Skill 可供一键安装。有开发者分享,他写了一个 Trello MCP 服务器,同一套代码不改一行就同时跑在 Claude Desktop 和 OpenClaw 里——这正是”融合”的实际样子:工具可复用,平台各自分工。

未来的主流形态很可能就是这样:Skill 描述工作流程,MCP 提供执行能力,一个 OpenClaw 式的代理框架在中间把两者整合,用户只需通过聊天窗口下指令。

趋势二:MCP下沉为基础设施

一个明显的变化是MCP正在从”前台”退到”后台”。以前,AI每次交互都直接调用MCP工具;现在,MCP越来越多地处理底层的数据存储、账号验证、企业系统对接等问题,而上层的交互逻辑则由Skill和代理框架来编排。

这其实是技术成熟的标志。就像HTTP协议今天无处不在,但普通用户不需要知道它的存在。MCP也在走同样的路——成为”看不见但离不开”的基础层。

趋势三:安全与治理成为关键议题

随着两者的普及,安全问题正在上升为核心关切。MCP方面,已经出现过实际的安全漏洞,影响了数十万个环境。”工具下毒”攻击——即在工具描述中隐藏恶意指令来操纵AI行为——成为新的威胁向量。

Skill同样面临挑战:如果不受信任的Skill被加载,它可能指导 AI 执行有害操作。行业正在探索”AI网关”的方案——在AI和外部服务之间加一层审核,过滤危险操作、记录所有行为。

第五章:对普通用户意味着什么

作为内容创作者、运营人员或日常AI用户,这场技术变迁对你意味着:

AI助手会越来越”懂你的风格”。 Skill让AI记住你的创作习惯——你写稿的语气、你发帖的格式、你回复用户的方式——不用每次都重新交代。今天你可能还需要自己写Skill,但未来很可能在应用内通过简单设置就能完成。对内容创作者来说,这意味着AI能持续输出”你的风格”,而不是每次都要花时间调教。

AI能帮你做的事会越来越多。 MCP生态的壮大意味着AI能连接的平台越来越丰富。从自动整理选题、发布内容到追踪数据、回复私信,AI正在从”聊天机器人”变成真正的”数字助理”。对中国用户来说,最近的落地信号来自腾讯:2026年3月,腾讯宣布基于 OpenClaw 推出兼容微信生态的 AI 产品,意味着这套”MCP执行层 + Skill指令层”的架构,正在借助微信这个超级入口进入普通人的日常。

安全和信任会成为关注点。 当AI能直接操作你的工具和数据时,权限管理和安全审计会变得和管理员工权限一样重要。

结语

技术圈特别是AI圈曾有大佬锐评:「AI 圈子一惊一乍什么都炸裂」,所以我们讨论谁干掉了谁,现实往往是更加微妙的共存与分工。Skill和MCP的关系,不如说是”各就各位”。

当Skill让AI想明白”该怎么做”,MCP让AI有能力”真正去做”时,我们的AI助手才算真正长大了。而这,才是这场争论背后真正值得关注的事。

⏳ 约3分钟 · 1000汉字+22词

孩子在备考 FCE(剑桥英语B2),每周老师批完作业,密密麻麻的红笔,加上孩子本来就歪歪扭扭的文字,肉眼难以识别。而且批改的内容孩子翻翻就搁一边了,真正能内化的没多少。

于是我想试试把每次批改让 AI 帮我整理成结构化的错题集,挂到网上,随时能查。

结果出来了:leonfce.hawken.im


流程是这样的

整个事情分三步,我基本没手动干预。

第一步:微信存图

老师在微信上发来批改图,我全部扔进一个文件夹。不需要命名,不需要整理,就是一堆 xxxx.jpg

第二步:OCR 读图

用 OCR 模型把图片里的文字认出来——不光是学生原文,还有老师的批注、改正、旁边写的评语,全提取出来。

这一步以前很难做好,批改里有大量手写字,还有删改符号、箭头、圈圈,普通 OCR 基本废了。但是好在老师的红字是键盘敲在图片上的。我给的提示词里还宽容的指出:“即便识别不出来也没关系,因为后面的推理模型可以补全。“

第三步:推理模型做解析

拿到 OCR 结果之后,交给推理模型做第二轮处理:

  1. 识别错误类型——是时态错了、主谓不一致、搭配不对、还是逻辑问题?
  2. 生成示范句——把错误的那句话改对,作为标准示例
  3. 再造一个同类句——用同样的语法点或搭配,造一个全新的句子,供孩子对照练习

这样每一个错误,孩子手里就有三样东西:原来错的、改对的、另一个例子。
效果比我预期好很多,因为所谓的 LLM 不就是大语言模型吗,最原始的功能就是补全语言。


出来的效果

leonfce.hawken.im 这次处理了 42 页批改,老师的 FCE 写作课内容。

错误被按类型归类:主谓一致、时态、词形变化、介词搭配、写作结构……每一条都有出处(对应第几张图),方便孩子回头翻原图核对。
最后还有一张汇总表,按错误类型统计,一眼能看出哪块是高频弱点。

然后再让推理模型自己做一个总结,下次我又来图了可以复用整个过程。


为什么这个对孩子有用

普通的错题本,孩子自己整理,费时费力,还容易漏,而且整理完也就抄了一遍,没有深度加工。

这个流程做出来的东西不一样:

  • 结构化:不是一页页翻图,是按类型检索
  • 有例句:不只是”你这里错了”,而是”对的该是这样,再看另一个同类的”
  • 可复习:网页随时打开,不用找本子

当然,AI 不能替代孩子自己思考。但它能做的那部分——把散乱的批改变成有组织的材料——确实帮我省了大量时间,而且做得比我手工整理好。


技术上的流程整理

整个流程用 VSCode + Cline 跑的,本地执行。大概步骤:

  1. 读取文件夹里所有图片
  2. 逐张调 OCR 模型(支持手写识别的多模态模型),输出批改内容
  3. 把 OCR 结果喂给推理模型,按固定 prompt 输出错题结构(错误类型 / 示范句 / 造句)
  4. 聚合成 HTML,推上服务器

下次处理新的一批作业,把图片扔进去,重跑一遍,新内容自动合并进去。


如果你家孩子也在备考英语,或者有类似整理学习材料的需求,这个思路可以直接套用,但是我估计英语和语文要好办一些,数学错题、物理错题能不能被识别的很好还不好说。因为我是先识别成文字再进行推理。跟手机某些 App 的直接分析画面可能还有点距离。

⏳ 约3分钟 · 668汉字+258词

不神秘,不复杂。


1. 它到底是什么

OpenClaw 就是一个跑在你电脑上的 AI 助手框架。 它把大模型(Claude、GPT、Kimi、DeepSeek 随便选)接到你常用的聊天工具上(Telegram、Slack),让 AI 不只能聊天,还能操作你的电脑——发邮件、改日历、跑代码、刷网页,全自动。

它是开源免费的。你只需要付大模型的 API 费用。


2. 它怎么工作的

整个架构就三层:

💬
聊天入口
Telegram
Slack / Discord
🦞
OpenClaw 网关
跑在你电脑上
调度一切
🧠
大模型 API
Claude / GPT
Kimi / DeepSeek
执行动作
发邮件 / 改文件
刷网页 / 跑脚本

你在 Telegram 上说「帮我把明天的会议推迟到下午三点」,消息到 OpenClaw 网关,网关问大模型该怎么做,大模型说调 Google Calendar API,网关就去执行。完事回你一句「搞定了」。


3. 大家拿它干嘛

📧 邮件自动化
每天扫收件箱,总结重要邮件,起草回复
📅 日程管理
自动排日程、解决冲突、发送每日简报
💻 代码助手
监控 GitHub PR,自动修 bug 并提交
🌐 网页自动化
填表、抓数据、自动完成重复操作
🏠 智能家居
控制空调、灯光、空气净化器
📊 投资监控
每天跑策略回测、推送行情摘要

4. 模型怎么选

OpenClaw 不绑定任何模型。你有 API key 就能用。社区里最主流的搭配:

Claude Sonnet
工具调用最稳,官方推荐
Kimi K2.5
OpenRouter 调用量冠军
DeepSeek V3.2
极致便宜,日常跑量首选
MiniMax M2.5
编码能力对标 Opus
GLM-5
长任务 + Agent 特别强
Qwen3.5-Plus
性价比天花板
省钱心法:80% 的日常任务用便宜模型(DeepSeek / Qwen-Flash),20% 的硬骨头切到 Claude / GLM-5。一个月 API 费用可以从 $500 降到 $50 以内。

5. 注意事项

安全第一。 OpenClaw 有系统级权限,能读你的邮件、日历、文件。配置不当等于给 AI 开了你电脑的 root。装之前看一遍安全文档,不懂命令行的慎用。

解决方案一:安装在非主力机上,甚至可以不用显示器(这也是为啥前段时间 Mac Mini 大卖的原因)。

解决方案二:安装在云服务器 VPS 上,这个方案更酷但是要花费一笔 VPS 的租用费。

Token 费用会爆。 Agent 是循环调用的,一个复杂任务可能跑几十轮对话。不设预算上限的话,一觉醒来账单可能吓你一跳。

解决方案:给你的小龙虾吃好的。我自己发现思考能力差的模型反而会消耗更大量的 Token,因为陷入了思考循环出不来。


说到 Token,OpenClaw 跑任务很费量——如果你没有便宜好用的 API 渠道,可以看看我上篇写的:那些营销号真的没告诉你,小龙虾要吃很多很多 token 吗?!


以上。

github.com/openclaw/openclaw

⏳ 约3分钟 · 911汉字+59词

身边所有人都在搞 AI,但真正顺畅用上 API 的没几个——封号、网络、信用卡,三道门槛拦着。我自己折腾了一段时间,最后干脆手搓了一个聚合平台,给自己也给大家用。这篇聊聊它是怎么做出来的,以及我拿它做了什么测试。


怎么搭的

平台叫 AI加点油aijia.you。核心是把几条上游 API 渠道汇成一个入口,用户充一次值,用一个 Key,模型随便换。

基础设施选的阿里云新加坡节点(2C2G)。选新加坡主要是因为需要接入国外的大模型,比如 Gemini, Claude, OpenAI, 但是现在这御三家只接入了 Gemini。

Claude 还不敢接因为中国人一用就封号,大家都怀疑 Anthropic 的老板当年在百度受了什么刺激,对中国人特别不友好。OpenAI 那边单纯是因为成本高接不起哈哈,等我有了前 100 个用户我就接。

最硬啃的部分是支付。国内用户直接走 Stripe 要么被拒刷,要么根本没卡。我自研了一个 stripe-adapter,把易支付协议(支付宝/微信)翻译成 Stripe 能接收的格式,绕过了直连限制。上线第一件事是自己充了五美元——支付链路通了,赠送的 100 万 tokens 也到账了,换算大概是五美元的体验额度。(敲重点:充值就送100万token哈!)

上游目前聚合了四条:阿里百炼、硅基流动、DeepSeek 官方、Gemini 官方。某条上游抖动时自动切换,用户感知不到。当然有发烧友也可以自己玩一玩各种模型,我当前上线了31个模型,其中含5个免费模型(划重点:免费!随便用),这五个模型我全试了,其中 DeepSeek R1 的蒸馏版当真能打,千问开源版也可以的。在模型广场点”免费”的标签就能看到。


自己当第一个用户跑了一圈

搭好之后,我用 Cline 接进去跑了一圈真实任务。

Cline 的接入很简单(图中用红线划出了要填的空):

  1. 选 “OpenAI Compatible“(意思是用和 ChatGPT 家一样的 API 协议)
  2. Base URL 填:https://aijia.you/v1
  3. API Key 在 aijia.you 后台一键申请,粘贴进去
  4. 模型名从模型广场直接复制——大小写必须一致,不然找不到模型

三分钟搞定。

然后我挨个测了几个模型:

GLM-4.7 不行。让它读一份文档,反复请求了好几次,最后也没成功。智谱家的模型在工具调用这块目前还不够稳,不是 Cline 的好搭档。

Qwen3-8B 顺利完成了任务。考虑到它是免费的,性价比相当能打。文档整理、代码注释这类任务交给它完全够用。

付费模型里:
Gemini 就不说了,毕竟是 T0 级别的。
性价比高的,可以选 DeepSeek-Reasoner, 推理任务交给它,基本不用操心。
别忘了 Cline 有个很好的功能是,Plan Mode 和 Act Mode 可以用不同的模型。
我 Plan Mode 用 DeepSeek-Reasoner,是一个擅长推理的模型,适合跟你一起讨论计划,执行的时候我选的 Gemini-2.5-Flash,出自 Gemini 家但还相对便宜,速度也快。

测下来整体流畅,支付链路、token 计费、模型切换都没出问题。GLM 那个坑留着,后续看智谱那边有没有改进。

对了下次我会试试最近爆火的小龙虾,OpenClaw,可以期待一个。


开了

aijia.you AI加点油,现在对外开放。(浏览器全拼输入:aijia.you,猛敲回车!)

注册送 100 万 tokens(约五美元额度),支持支付宝/微信充值,不需要境外信用卡。

如果正在被 API 折腾,来试试。

aijia.you

有问题可以关注公众号「AI加点油」找我。

恐慌发作 凌晨醒来第一件事是摸键盘

凌晨3点,从梦中惊醒。第一反应不是看时间,不是喝水,而是摸向键盘。
我想到张雪峰,几年前在地产繁荣的时代劝人学土木,现在又在AI爆炸的时代劝人学计算机。
我现在劝人学英语还是对的吗?会不会过一段时间多语言能力没啥意义了。
会不会再过几年键盘也像算盘一样被淘汰?我在凌晨摸着我赖以生存的键盘,本来会给我心安的键盘现在让我感到惶恐不安。

被不确定性包围

在这个信息爆炸的时代,短视频潮水般拍打我们的大脑,我多年前给自己定下目标,坚持输出有价值的工作,输出个10年又怎样。现在我有点怀疑了,还有意义吗,我自己这点点文字,才几十kb,跟互联网以pb计算的海量数据比,连一颗沙子都不算。我思考着在这个快速变化的世界里,坚持输出价值是否还有意义。

  1. 我认为的价值在他人眼里不是价值
  2. 而且随着时间的推移价值也会改变

我于是和好伙伴Gemini开始探讨两个问题:
键盘会不会被淘汰,英语还有没有用。

我没有刻意引导AI得出我想要的结论,而是请它中立客观并且从网上找数据来给我进行分析。因为我是真的在担心这两个问题,有了答案才好重新给自己想要创造的价值找到新的定位,或者心安之处。

键盘的”末日”预言

我和好伙伴聊了聊,结论是键盘在未来十年依然重要:

精确性:编程、写作、数据分析这些工作,键盘的速度和准确性是语音输入比不了的。熟练打字每分钟100个单词,语音输入做复杂的编辑修改会非常困难。

触觉反馈:物理键盘的”所按即所得”,手指的肌肉记忆,这种确定性是虚拟键盘给不了的。

私密性:键盘输入是安静的。图书馆、会议室、咖啡馆,你都能安静地工作,不会打扰别人,也不会泄露内容。

用户习惯:全球几十亿台电脑,几十亿用户已经习惯了键盘。这种惯性不会在十年内被颠覆。

我还想到了霍金,他只剩一个手指能动的时候,还在用键盘打字。我们普通人有十个手指,没理由抛弃键盘。

机械键盘重新流行也证明了这一点。游戏玩家、程序员、作家都在追求那种独特的触感。

英语的”过时”担忧

因为我最近在做英语教学工具,对键盘的担忧自然延伸到了英语。

我可靠的小伙伴帮我进行了分析:

我们预测,全球英语语言培训(ELT)整体市场规模将从2024年的约850亿至950亿美元增长至2030年的1300亿至1400亿美元,复合年增长率(CAGR)约为7%−8% 。在此宏观市场中,
数字英语学习(DELL)细分市场的增长将更为迅猛,预计将从2024年的100亿至140亿美元扩张至2030年的250亿至300亿美元,其复合年增长率高达15%−18% 。这一显著的增长率差异凸显了技术在推动市场变革中的核心作用。

AI越普及,人们越认识到有些价值是机器替代不了的。

思维工具:学英语是在大脑里构建新的思维框架。用不同的逻辑组织句子、表达观点,这个过程本身就在提升认知能力。

文化桥梁:AI能翻译莎士比亚的字面意思,但传不了音韵格律的美感;能转换商务邮件的诉求,但抓不住字里行间的语气。通过语言触摸另一个文化的灵魂,这种深度连接是翻译给不了的。

职业竞争力:英语不是加分项,是必需品。它意味着你掌握了与世界前沿思想对话的最高”带宽”。科技、学术、商业领域,最高质量、最新鲜的知识仍以英文为载体。掌握英语,你才能第一时间获取一手信息。

AI翻译的出现,反而像试金石,让那些真正重要的深层价值——思维拓展、文化理解、核心竞争力——更加凸显。

心安理得的结论

英语和键盘,就像数学和逻辑思维一样,是数字时代的基础设施。它们不会因为新技术而消失,反而会因为新技术的普及而变得更加重要。

0%