⏳ 约3分钟 · 843汉字+66词

你在 Cline 里用免费模型跑任务,跑着跑着突然蹦出来一行红字:

1
429 Request was rejected due to rate limiting. Details: TPM limit reached.

任务中断,前功尽弃,还要重头来。

这不是你的错,这是免费模型的游戏规则:TPM(Tokens Per Minute)限速。本文教你用几个组合拳,让 AI 降速跑,榨干免费额度,再也不触红线。


为什么会被限速?

主流免费模型的限制通常有三种:

类型 含义 最容易触发场景
TPM 每分钟 Token 数上限 AI 疯狂输出长代码、读大文件
RPM 每分钟请求次数上限 Cline 连续快速调用工具
RPD 每天请求次数上限 跑了一整天任务

Cline 的问题在于:它默认”能快就快”。读文件、写代码、回复确认——一口气连续调用十几次 API,每次都带着大段上下文,TPM 很快就爆了。


方案一:Cline 内置请求延迟(最直接)

打开 VS Code 设置,搜索 cline,找到 “API Request Delay (ms)”(也可能叫 Rate Limit Delay)。

设置一个延迟,比如 3000ms(3秒),Cline 每次工具调用之间都会暂停 3 秒。

  • 优点:零成本,一键生效
  • 缺点:整体变慢,但不触限速

这是最暴力也最可靠的方法。跑不急的长任务推荐先把这个打开。


方案二:用 .clinerules 限制 AI 的 Token 消耗行为

.clinerules 是写给 AI 的”工作守则”,放在项目根目录,每次 Cline 启动新 Task 都会读取。你可以用它来约束 AI 的输出风格,从源头减少 Token 消耗。

在你的 .clinerules 文件里加入这一节:

1
2
3
4
5
6
7
## 省 Token 守则(免费模型限速保护)

- **输出精简**:每次工具调用后只汇报关键状态,禁止复述操作细节
- **按需读文件**:只读任务直接相关的文件,不做"预防性探索"
- **分批执行**:完成当前步骤后暂停,等待我确认再继续,不要连续发起超过 3 次工具调用
- **只输出差异**:修改代码时只展示被改动的代码段,不输出整个文件
- **规划先行**:执行复杂任务前先用文字列出步骤,确认后再开始执行

这几条规则的逻辑:

  1. 精简输出 → 减少每次响应的 output tokens
  2. 禁止无效文件读取 → 减少 input tokens(大文件上下文是 TPM 杀手)
  3. 分批+等确认 → 人为拉长两次 API 调用之间的间隔
  4. 只输出差异 → 大幅减少代码类任务的 output tokens
  5. 规划先行 → 一次思考替代多次摸索,减少总调用次数

实测下来,加了这几条之后,同样的任务 Token 消耗可以降低 40-60%。


方案三:多 Key 轮换

大部分免费模型的限额是按 API Key 计算的。如果你能注册多个账号,就能轮换使用多个 Key,变相突破单 Key 限额。

Google Gemini 免费额度为例(目前是免费模型里最豪的选项之一):

  1. 用不同 Google 账号在 Google AI Studio 各申请一个 API Key
  2. 在 Cline 设置里切换 Key(跑满一个换下一个)
  3. 或者把多任务分配给不同 Key 并行跑

这个方法有点繁琐,但对于跑量大的批处理任务很有用。


方案四:混合使用付费 + 免费(最推荐)

免费模型限速的根本原因是它处理的 Token 太多了。聪明的做法是:

  • 简单/重复性任务 → 免费模型(代码格式化、简单问答、小文件修改)
  • 需要大上下文的复杂任务 → 付费模型(跨文件重构、长文生成)

在 Cline 里可以给不同任务类型预设不同的模型配置。复杂任务偶尔花几分钱,换来不限速地畅快跑,其实更划算。


一个实用的 .clinerules 模板

把这段直接贴到你项目的 .clinerules 末尾:

1
2
3
4
5
6
7
8
9
10
11
---

## 免费模型限速保护规则

**触发条件**:当你使用免费 API(如 Gemini Free、Step-3.5-Flash、OpenRouter 免费模型)时,必须遵守以下规则。

1. 每完成一个独立步骤后暂停,输出"✅ [步骤名] 完成,是否继续?"并等待确认
2. 读取文件前先确认是否必要,每次 Task 最多读取 5 个文件
3. 代码修改只输出变更的函数或代码块,绝不输出完整文件
4. 回复长度控制在 300 字以内,技术细节按需展开
5. 遇到不确定的地方,提问而不是猜测并尝试

小结

方案 难度 效果 推荐场景
Cline 请求延迟设置 ✅ 稳定 所有免费模型
.clinerules 省 Token 规则 ⭐⭐ ✅✅ 显著 日常开发任务
多 Key 轮换 ⭐⭐⭐ ✅✅✅ 高 批量任务
免费+付费混用 ⭐⭐ ✅✅✅ 最优 长期使用

如果你有其他躲过限速的方法,欢迎在评论区分享。

⏳ 约2分钟 · 588汉字+56词

字数统计 574 汉字+56 词 阅读时长约2分钟

三分钟搞懂让AI连接万物的协议

一句话解释:MCP是什么?

MCP (Model Context Protocol,模型上下文协议) 是Anthropic在 2024年11月推出的一个开放标准。简单说,它是AI连接外部服务的”统一插头”。

没有MCP之前,让AI操作你的邮箱、日历、项目管理工具,每个服务都需要单独对接。MCP把这些都统一成了一套标准接口,就像 USB-C 统一了充电口一样。

它能做什么?

通过MCP,AI可以直接:发送Slack(飞书/钉钉)消息、创建Jira(飞书项目/禅道)任务、查询数据库、读写Google Drive(腾讯文档/飞书文档)文件、操作 Salesforce(销售易/纷享销客)客户记录……几乎你能想到的外部服务,都可以通过MCP来连接。

通俗类比

如果把AI比作一个大脑很聪明但被关在房间里的人,MCP就是给他装了电话、电脑和各种工具。有了MCP,AI就能与外界交互,而不只是和你聊天。

发展现状

截至 2026 年初,MCP生态已经非常庞大:超过 10,000 个 MCP 服务器可用,主流 AI 工具全部支持(包括ChatGPT、Claude、Gemini、Cursor、VS Code等)。MCP已经从Anthropic的”自家产品”变成了行业通用标准,由Linux基金会旗下的 Agentic AI 基金会托管。

一个真实案例

一位项目经理每周五下午要做同样的事:打开Jira(飞书项目/禅道)看本周关闭了哪些任务,打开Slack(飞书/钉钉)翻上周的重要讨论,再打开Google Doc(腾讯文档/飞书文档)写一份进度周报,发给老板。整套流程要花将近一小时。

接入MCP之后,她对AI说了一句话:「帮我写这周的项目周报。」

AI通过Jira的MCP服务器查询了本周已完成的任务列表,通过Slack的MCP读取了#项目频道的关键对话,然后按照公司的周报模板生成了初稿。她只花了5分钟做最终确认,然后直接发送。

关键在于:AI不是在”假装”完成这些事,它是真的访问了这些系统、读取了真实数据。这就是MCP与普通聊天的本质区别——从”告诉你答案”变成了”替你做事”。

一句话总结

MCP是AI与外部世界之间的桥。它不让AI变得更聪明,但让AI变得更有用。

⏳ 约2分钟 · 755汉字+60词

三分钟搞懂AI世界最火的新概念

一句话解释:Skill是什么?

Skill(代理技能)本质上就是一份”工作手册”。就像你给新员工写的培训文档一样,它告诉AI:”碰到这类任务,你应该按这个流程来做。”

举个例子:你可以写一个Skill,告诉AI”每次写周报时,先列本周完成项,再写下周计划,最后加一句风险提示”。从此,AI就能每周稳定输出符合你要求的周报。

为什么突然火了?

2025年10月,Anthropic推出了Agent Skills功能,迅速在开发者社区引发广泛关注。Skill的核心优势在于三点:

简单到离谱。 一个Skill就是一个Markdown文件,加上一点YAML元数据。不需要写代码,不需要搭服务器,用记事本就能创建。

省token。 传统方式会把工具定义一股脑塞进上下文,而Skill最大只给AI看一个名字和简介(可能只占 20-50 个 token),需要时再加载完整说明。

可复用、可分享。 团队里一个人写的Skill,其他人直接拿来用。就像分享一份文档一样简单。

通俗类比

如果把AI比作一个新员工,Skill就是你给他的SOP手册。他很聪明,但没有手册的话,每次做事都得重新教;有了手册,他就能稳定输出符合你预期的结果。

谁在用?

目前已有包括Canva、Notion、Figma、Atlassian等知名企业提供预建的Skill。开发者社区也在快速跟进,几乎所有主流的AI编程工具(Claude Code、Cursor等)都已支持。

更进一步的是 OpenClaw——一个以 Skill 为核心架构的 AI 代理框架。它运行在用户自己的设备上,通过 WhatsApp、Telegram、微信等聊天工具接受指令,再按照对应的 Skill 驱动 AI 完成任务。它的技能市场 ClawHub 上已有超过 3,200 个 Skill,覆盖从代码审查到客户跟进的各类场景。2026 年 3 月,腾讯宣布基于 OpenClaw 推出兼容微信生态的 AI 产品,Skill 这套机制正式进入中国主流市场视野。

一个真实案例

一位独立研究员在 OpenClaw 上写了一个 Skill,大概是这样描述的:

每天早上8点,从36氪、The Information、X科技话题抓取过去24小时的内容,过滤出与 AI Agent 相关的信息,用中文总结成5条要点,每条不超过50字,发送到我的微信。

这个 Skill 写完之后,他什么都不用再做。每天早上微信收到一条消息,AI 已经替他完成了信息筛选、翻译和提炼。

关键在于:OpenClaw 的 AI 代理本身很聪明,但如果没有这个 Skill,它不知道该关注哪些信源、用什么格式、面向什么读者。Skill 是让 AI 从”能做很多事”变成”稳定做好这一件事”的关键。这个 Skill 本身不到150字,却相当于一份永久有效的工作说明书。

一句话总结

Skill不是什么高深技术,它就是让AI”照着你的规矩办事”的一种方法。简单、轻量、强大。

⏳ 约6分钟 · 2242汉字+152词

这场技术圈的论战,最终和你有什么关系

引言:一场”谁杀死谁”的网络议战

如果你最近关注AI话题,很难不注意到这场争论:”Skill杀死了MCP!”这个论断从 2025 年底开始在X(原推特)上爆发,引发了AI从业者和开发者们的激烈讨论。知名技术博主Simon Willison称Skill”可能比MCP更重要”,而另一边则有人反驳:这就像”说有了菜谱就不需要厨房”一样荒谬。

这场争论的本质是什么?谁对谁错?未来会怎样发展?这篇文章尝试给你一个清晰的回答。

第一章:回顾——两者是怎么来的

MCP的诞生:解决”AI孤岛”问题

2024年11月,Anthropic推出MCP,解决的是一个很现实的问题:AI很聪明,但它被困在聊天窗口里,无法主动操作外部工具。MCP让AI能直接连接Slack、Jira、数据库等外部服务,从”只会聊天”变成”能做事”。

它迅速获得了行业认可。到 2025 年12月,MCP正式捐赠给Linux基金会旗下的Agentic AI基金会(AAIF),从Anthropic的单独项目变成了行业公共标准,OpenAI、Block等公司共同参与治理。到 2026 年初,生态中已有超过10,000个MCP服务器,主流AI工具全部接入。

Skill的崛起:”轻量级”替代方案

2025年10月,Anthropic又推出Agent Skills。如果说MCP是一套复杂的工业协议,Skill就是一份Markdown文档加一点元数据——简单得有点让人难以置信。

但就是这个”简单”触动了很多人。开发者们发现,以前需要搭建一个MCP服务器才能做的事,现在写一个Markdown文件就能解决。Canva、Notion、Figma等企业迅速跟进,Agent Skills在开发者社区快速扩散。

第二章:争论的核心——到底在争什么

“Skill杀死MCP”派的论据

论据一:让AI”变笨”。 MCP的一大痛点是,每次启动时要把所有工具的说明全部塞给AI,相当于让AI在开始工作前先读完一本厚厚的说明书。开发者Armin Ronacher就提到,他们的MCP服务器一加载就占用了约8000个token的空间——通俗来说,就是强迫AI先记住一篇几千字的文档,才能开始干活。而Skill只在启动时给AI看一个名字和简介,需要时再调出完整内容,AI的反应速度和质量都更好。

论据二:小题大做。 很多早期的MCP服务器搭建了一套复杂的基础设施,实际上只是在做很简单的事。用一份Skill文档来描述同样的操作规则,让AI自己去执行,效果完全一样,但搭建和维护成本几乎为零。

论据三:门槛太高。 MCP是一套完整的工程规范,需要具备一定的技术背景才能搭建和维护。对于很多只需要AI”照着规矩办事”的简单场景,这种复杂度完全没有必要。

“MCP不会死”派的反驳

反驳一:两者根本不在同一层。 Goose团队的Angie Jones打了一个经典比方:说Skill杀死了MCP,就像说”有了菜谱就不需要厨房”一样荒谬。厨房还在,菜谱只是告诉你怎么用它。Skill是菜谱,MCP是厨房——菜谱告诉你怎么做,厨房提供做菜的能力。

反驳二:Skill无法替代外部连接。 发送Slack消息、查询生产数据库、操作CRM记录——这些需要真实的集成、真实的权限和真实的执行。光靠文档指导是做不到的。

反驳三:数据说话。 到 2026 年初,MCP生态的SDK月下载量超过9700万次,10,000+服务器获得主流客户端支持。如果Skill真的”杀死”了MCP,这些数字应该下降而不是上升。

第三章:真相——不是替代,而是分层

理清了双方论据,真相其实很清晰:Skill和MCP不是竞争关系,而是同一套架构的不同层次。

Skill 是”知识层”。 它编码的是”如何做”——团队规范、工作流程、领域专业知识。它们是Markdown文档,由人类写作和维护,轻量且易于分享。

MCP 是”执行层”。 它提供的是”能做什么”——外部服务的连接、认证、执行和状态管理。它是真正让AI”动手”的基础设施。

OpenClaw 是一个很好的佐证。它的技能市场 ClawHub 上销售的”Skill”,本质上是打包好的 MCP 服务器(执行层);而它内部的 SKILL.md 文件,则是告诉 AI 代理如何调用这些工具的指令集(知识层)。OpenClaw 把两者都叫”Skill”,造成了命名上的混淆——但底层架构是清晰的:两层各司其职,只是被整合进了同一个产品。这种混淆恰恰说明,在真实的产品演进中,两层正在被有意识地封装在一起,而不是在互相取代。

所以真正发生的事情是:Skill没有广泛地替代MCP,而是淘汰了那些”本来就不应该存在”的MCP服务器。很多早期的MCP服务器其实只是在做很简单的事,Skill用一份文档就能更好地解决。但对于真正需要持久连接、复杂认证和实时数据的场景,MCP仍然不可替代。

第四章:未来走向——三个关键趋势

趋势一:融合而非替代

最务实的开发者已经在同时使用两者,OpenClaw 是目前最完整的”融合产品”案例。它的底层通过 MCP 连接外部服务,上层通过 SKILL.md 定义 AI 的工作逻辑,其技能市场 ClawHub 上已有超过 3,200 个基于 MCP 的 Skill 可供一键安装。有开发者分享,他写了一个 Trello MCP 服务器,同一套代码不改一行就同时跑在 Claude Desktop 和 OpenClaw 里——这正是”融合”的实际样子:工具可复用,平台各自分工。

未来的主流形态很可能就是这样:Skill 描述工作流程,MCP 提供执行能力,一个 OpenClaw 式的代理框架在中间把两者整合,用户只需通过聊天窗口下指令。

趋势二:MCP下沉为基础设施

一个明显的变化是MCP正在从”前台”退到”后台”。以前,AI每次交互都直接调用MCP工具;现在,MCP越来越多地处理底层的数据存储、账号验证、企业系统对接等问题,而上层的交互逻辑则由Skill和代理框架来编排。

这其实是技术成熟的标志。就像HTTP协议今天无处不在,但普通用户不需要知道它的存在。MCP也在走同样的路——成为”看不见但离不开”的基础层。

趋势三:安全与治理成为关键议题

随着两者的普及,安全问题正在上升为核心关切。MCP方面,已经出现过实际的安全漏洞,影响了数十万个环境。”工具下毒”攻击——即在工具描述中隐藏恶意指令来操纵AI行为——成为新的威胁向量。

Skill同样面临挑战:如果不受信任的Skill被加载,它可能指导 AI 执行有害操作。行业正在探索”AI网关”的方案——在AI和外部服务之间加一层审核,过滤危险操作、记录所有行为。

第五章:对普通用户意味着什么

作为内容创作者、运营人员或日常AI用户,这场技术变迁对你意味着:

AI助手会越来越”懂你的风格”。 Skill让AI记住你的创作习惯——你写稿的语气、你发帖的格式、你回复用户的方式——不用每次都重新交代。今天你可能还需要自己写Skill,但未来很可能在应用内通过简单设置就能完成。对内容创作者来说,这意味着AI能持续输出”你的风格”,而不是每次都要花时间调教。

AI能帮你做的事会越来越多。 MCP生态的壮大意味着AI能连接的平台越来越丰富。从自动整理选题、发布内容到追踪数据、回复私信,AI正在从”聊天机器人”变成真正的”数字助理”。对中国用户来说,最近的落地信号来自腾讯:2026年3月,腾讯宣布基于 OpenClaw 推出兼容微信生态的 AI 产品,意味着这套”MCP执行层 + Skill指令层”的架构,正在借助微信这个超级入口进入普通人的日常。

安全和信任会成为关注点。 当AI能直接操作你的工具和数据时,权限管理和安全审计会变得和管理员工权限一样重要。

结语

技术圈特别是AI圈曾有大佬锐评:「AI 圈子一惊一乍什么都炸裂」,所以我们讨论谁干掉了谁,现实往往是更加微妙的共存与分工。Skill和MCP的关系,不如说是”各就各位”。

当Skill让AI想明白”该怎么做”,MCP让AI有能力”真正去做”时,我们的AI助手才算真正长大了。而这,才是这场争论背后真正值得关注的事。

⏳ 约3分钟 · 1000汉字+22词

孩子在备考 FCE(剑桥英语B2),每周老师批完作业,密密麻麻的红笔,加上孩子本来就歪歪扭扭的文字,肉眼难以识别。而且批改的内容孩子翻翻就搁一边了,真正能内化的没多少。

于是我想试试把每次批改让 AI 帮我整理成结构化的错题集,挂到网上,随时能查。

结果出来了:leonfce.hawken.im


流程是这样的

整个事情分三步,我基本没手动干预。

第一步:微信存图

老师在微信上发来批改图,我全部扔进一个文件夹。不需要命名,不需要整理,就是一堆 xxxx.jpg

第二步:OCR 读图

用 OCR 模型把图片里的文字认出来——不光是学生原文,还有老师的批注、改正、旁边写的评语,全提取出来。

这一步以前很难做好,批改里有大量手写字,还有删改符号、箭头、圈圈,普通 OCR 基本废了。但是好在老师的红字是键盘敲在图片上的。我给的提示词里还宽容的指出:“即便识别不出来也没关系,因为后面的推理模型可以补全。“

第三步:推理模型做解析

拿到 OCR 结果之后,交给推理模型做第二轮处理:

  1. 识别错误类型——是时态错了、主谓不一致、搭配不对、还是逻辑问题?
  2. 生成示范句——把错误的那句话改对,作为标准示例
  3. 再造一个同类句——用同样的语法点或搭配,造一个全新的句子,供孩子对照练习

这样每一个错误,孩子手里就有三样东西:原来错的、改对的、另一个例子。
效果比我预期好很多,因为所谓的 LLM 不就是大语言模型吗,最原始的功能就是补全语言。


出来的效果

leonfce.hawken.im 这次处理了 42 页批改,老师的 FCE 写作课内容。

错误被按类型归类:主谓一致、时态、词形变化、介词搭配、写作结构……每一条都有出处(对应第几张图),方便孩子回头翻原图核对。
最后还有一张汇总表,按错误类型统计,一眼能看出哪块是高频弱点。

然后再让推理模型自己做一个总结,下次我又来图了可以复用整个过程。


为什么这个对孩子有用

普通的错题本,孩子自己整理,费时费力,还容易漏,而且整理完也就抄了一遍,没有深度加工。

这个流程做出来的东西不一样:

  • 结构化:不是一页页翻图,是按类型检索
  • 有例句:不只是”你这里错了”,而是”对的该是这样,再看另一个同类的”
  • 可复习:网页随时打开,不用找本子

当然,AI 不能替代孩子自己思考。但它能做的那部分——把散乱的批改变成有组织的材料——确实帮我省了大量时间,而且做得比我手工整理好。


技术上的流程整理

整个流程用 VSCode + Cline 跑的,本地执行。大概步骤:

  1. 读取文件夹里所有图片
  2. 逐张调 OCR 模型(支持手写识别的多模态模型),输出批改内容
  3. 把 OCR 结果喂给推理模型,按固定 prompt 输出错题结构(错误类型 / 示范句 / 造句)
  4. 聚合成 HTML,推上服务器

下次处理新的一批作业,把图片扔进去,重跑一遍,新内容自动合并进去。


如果你家孩子也在备考英语,或者有类似整理学习材料的需求,这个思路可以直接套用,但是我估计英语和语文要好办一些,数学错题、物理错题能不能被识别的很好还不好说。因为我是先识别成文字再进行推理。跟手机某些 App 的直接分析画面可能还有点距离。

⏳ 约3分钟 · 668汉字+258词

不神秘,不复杂。


1. 它到底是什么

OpenClaw 就是一个跑在你电脑上的 AI 助手框架。 它把大模型(Claude、GPT、Kimi、DeepSeek 随便选)接到你常用的聊天工具上(Telegram、Slack),让 AI 不只能聊天,还能操作你的电脑——发邮件、改日历、跑代码、刷网页,全自动。

它是开源免费的。你只需要付大模型的 API 费用。


2. 它怎么工作的

整个架构就三层:

💬
聊天入口
Telegram
Slack / Discord
🦞
OpenClaw 网关
跑在你电脑上
调度一切
🧠
大模型 API
Claude / GPT
Kimi / DeepSeek
执行动作
发邮件 / 改文件
刷网页 / 跑脚本

你在 Telegram 上说「帮我把明天的会议推迟到下午三点」,消息到 OpenClaw 网关,网关问大模型该怎么做,大模型说调 Google Calendar API,网关就去执行。完事回你一句「搞定了」。


3. 大家拿它干嘛

📧 邮件自动化
每天扫收件箱,总结重要邮件,起草回复
📅 日程管理
自动排日程、解决冲突、发送每日简报
💻 代码助手
监控 GitHub PR,自动修 bug 并提交
🌐 网页自动化
填表、抓数据、自动完成重复操作
🏠 智能家居
控制空调、灯光、空气净化器
📊 投资监控
每天跑策略回测、推送行情摘要

4. 模型怎么选

OpenClaw 不绑定任何模型。你有 API key 就能用。社区里最主流的搭配:

Claude Sonnet
工具调用最稳,官方推荐
Kimi K2.5
OpenRouter 调用量冠军
DeepSeek V3.2
极致便宜,日常跑量首选
MiniMax M2.5
编码能力对标 Opus
GLM-5
长任务 + Agent 特别强
Qwen3.5-Plus
性价比天花板
省钱心法:80% 的日常任务用便宜模型(DeepSeek / Qwen-Flash),20% 的硬骨头切到 Claude / GLM-5。一个月 API 费用可以从 $500 降到 $50 以内。

5. 注意事项

安全第一。 OpenClaw 有系统级权限,能读你的邮件、日历、文件。配置不当等于给 AI 开了你电脑的 root。装之前看一遍安全文档,不懂命令行的慎用。

解决方案一:安装在非主力机上,甚至可以不用显示器(这也是为啥前段时间 Mac Mini 大卖的原因)。

解决方案二:安装在云服务器 VPS 上,这个方案更酷但是要花费一笔 VPS 的租用费。

Token 费用会爆。 Agent 是循环调用的,一个复杂任务可能跑几十轮对话。不设预算上限的话,一觉醒来账单可能吓你一跳。

解决方案:给你的小龙虾吃好的。我自己发现思考能力差的模型反而会消耗更大量的 Token,因为陷入了思考循环出不来。


说到 Token,OpenClaw 跑任务很费量——如果你没有便宜好用的 API 渠道,可以看看我上篇写的:那些营销号真的没告诉你,小龙虾要吃很多很多 token 吗?!


以上。

github.com/openclaw/openclaw

⏳ 约3分钟 · 911汉字+59词

身边所有人都在搞 AI,但真正顺畅用上 API 的没几个——封号、网络、信用卡,三道门槛拦着。我自己折腾了一段时间,最后干脆手搓了一个聚合平台,给自己也给大家用。这篇聊聊它是怎么做出来的,以及我拿它做了什么测试。


怎么搭的

平台叫 AI加点油aijia.you。核心是把几条上游 API 渠道汇成一个入口,用户充一次值,用一个 Key,模型随便换。

基础设施选的阿里云新加坡节点(2C2G)。选新加坡主要是因为需要接入国外的大模型,比如 Gemini, Claude, OpenAI, 但是现在这御三家只接入了 Gemini。

Claude 还不敢接因为中国人一用就封号,大家都怀疑 Anthropic 的老板当年在百度受了什么刺激,对中国人特别不友好。OpenAI 那边单纯是因为成本高接不起哈哈,等我有了前 100 个用户我就接。

最硬啃的部分是支付。国内用户直接走 Stripe 要么被拒刷,要么根本没卡。我自研了一个 stripe-adapter,把易支付协议(支付宝/微信)翻译成 Stripe 能接收的格式,绕过了直连限制。上线第一件事是自己充了五美元——支付链路通了,赠送的 100 万 tokens 也到账了,换算大概是五美元的体验额度。(敲重点:充值就送100万token哈!)

上游目前聚合了四条:阿里百炼、硅基流动、DeepSeek 官方、Gemini 官方。某条上游抖动时自动切换,用户感知不到。当然有发烧友也可以自己玩一玩各种模型,我当前上线了31个模型,其中含5个免费模型(划重点:免费!随便用),这五个模型我全试了,其中 DeepSeek R1 的蒸馏版当真能打,千问开源版也可以的。在模型广场点”免费”的标签就能看到。


自己当第一个用户跑了一圈

搭好之后,我用 Cline 接进去跑了一圈真实任务。

Cline 的接入很简单(图中用红线划出了要填的空):

  1. 选 “OpenAI Compatible“(意思是用和 ChatGPT 家一样的 API 协议)
  2. Base URL 填:https://aijia.you/v1
  3. API Key 在 aijia.you 后台一键申请,粘贴进去
  4. 模型名从模型广场直接复制——大小写必须一致,不然找不到模型

三分钟搞定。

然后我挨个测了几个模型:

GLM-4.7 不行。让它读一份文档,反复请求了好几次,最后也没成功。智谱家的模型在工具调用这块目前还不够稳,不是 Cline 的好搭档。

Qwen3-8B 顺利完成了任务。考虑到它是免费的,性价比相当能打。文档整理、代码注释这类任务交给它完全够用。

付费模型里:
Gemini 就不说了,毕竟是 T0 级别的。
性价比高的,可以选 DeepSeek-Reasoner, 推理任务交给它,基本不用操心。
别忘了 Cline 有个很好的功能是,Plan Mode 和 Act Mode 可以用不同的模型。
我 Plan Mode 用 DeepSeek-Reasoner,是一个擅长推理的模型,适合跟你一起讨论计划,执行的时候我选的 Gemini-2.5-Flash,出自 Gemini 家但还相对便宜,速度也快。

测下来整体流畅,支付链路、token 计费、模型切换都没出问题。GLM 那个坑留着,后续看智谱那边有没有改进。

对了下次我会试试最近爆火的小龙虾,OpenClaw,可以期待一个。


开了

aijia.you AI加点油,现在对外开放。(浏览器全拼输入:aijia.you,猛敲回车!)

注册送 100 万 tokens(约五美元额度),支持支付宝/微信充值,不需要境外信用卡。

如果正在被 API 折腾,来试试。

aijia.you

有问题可以关注公众号「AI加点油」找我。

恐慌发作 凌晨醒来第一件事是摸键盘

凌晨3点,从梦中惊醒。第一反应不是看时间,不是喝水,而是摸向键盘。
我想到张雪峰,几年前在地产繁荣的时代劝人学土木,现在又在AI爆炸的时代劝人学计算机。
我现在劝人学英语还是对的吗?会不会过一段时间多语言能力没啥意义了。
会不会再过几年键盘也像算盘一样被淘汰?我在凌晨摸着我赖以生存的键盘,本来会给我心安的键盘现在让我感到惶恐不安。

被不确定性包围

在这个信息爆炸的时代,短视频潮水般拍打我们的大脑,我多年前给自己定下目标,坚持输出有价值的工作,输出个10年又怎样。现在我有点怀疑了,还有意义吗,我自己这点点文字,才几十kb,跟互联网以pb计算的海量数据比,连一颗沙子都不算。我思考着在这个快速变化的世界里,坚持输出价值是否还有意义。

  1. 我认为的价值在他人眼里不是价值
  2. 而且随着时间的推移价值也会改变

我于是和好伙伴Gemini开始探讨两个问题:
键盘会不会被淘汰,英语还有没有用。

我没有刻意引导AI得出我想要的结论,而是请它中立客观并且从网上找数据来给我进行分析。因为我是真的在担心这两个问题,有了答案才好重新给自己想要创造的价值找到新的定位,或者心安之处。

键盘的”末日”预言

我和好伙伴聊了聊,结论是键盘在未来十年依然重要:

精确性:编程、写作、数据分析这些工作,键盘的速度和准确性是语音输入比不了的。熟练打字每分钟100个单词,语音输入做复杂的编辑修改会非常困难。

触觉反馈:物理键盘的”所按即所得”,手指的肌肉记忆,这种确定性是虚拟键盘给不了的。

私密性:键盘输入是安静的。图书馆、会议室、咖啡馆,你都能安静地工作,不会打扰别人,也不会泄露内容。

用户习惯:全球几十亿台电脑,几十亿用户已经习惯了键盘。这种惯性不会在十年内被颠覆。

我还想到了霍金,他只剩一个手指能动的时候,还在用键盘打字。我们普通人有十个手指,没理由抛弃键盘。

机械键盘重新流行也证明了这一点。游戏玩家、程序员、作家都在追求那种独特的触感。

英语的”过时”担忧

因为我最近在做英语教学工具,对键盘的担忧自然延伸到了英语。

我可靠的小伙伴帮我进行了分析:

我们预测,全球英语语言培训(ELT)整体市场规模将从2024年的约850亿至950亿美元增长至2030年的1300亿至1400亿美元,复合年增长率(CAGR)约为7%−8% 。在此宏观市场中,
数字英语学习(DELL)细分市场的增长将更为迅猛,预计将从2024年的100亿至140亿美元扩张至2030年的250亿至300亿美元,其复合年增长率高达15%−18% 。这一显著的增长率差异凸显了技术在推动市场变革中的核心作用。

AI越普及,人们越认识到有些价值是机器替代不了的。

思维工具:学英语是在大脑里构建新的思维框架。用不同的逻辑组织句子、表达观点,这个过程本身就在提升认知能力。

文化桥梁:AI能翻译莎士比亚的字面意思,但传不了音韵格律的美感;能转换商务邮件的诉求,但抓不住字里行间的语气。通过语言触摸另一个文化的灵魂,这种深度连接是翻译给不了的。

职业竞争力:英语不是加分项,是必需品。它意味着你掌握了与世界前沿思想对话的最高”带宽”。科技、学术、商业领域,最高质量、最新鲜的知识仍以英文为载体。掌握英语,你才能第一时间获取一手信息。

AI翻译的出现,反而像试金石,让那些真正重要的深层价值——思维拓展、文化理解、核心竞争力——更加凸显。

心安理得的结论

英语和键盘,就像数学和逻辑思维一样,是数字时代的基础设施。它们不会因为新技术而消失,反而会因为新技术的普及而变得更加重要。

二十年前,我还是个普通的大学生,每天按部就班地上课、自习,非常偶然的机会得知了学校的“2+2”项目,一个能出国看世界的机会。心中一团火一瞬间被点燃了。

我立刻跑去咨询,心情却很快从激动转为焦虑。报名的截止日期只剩下不到半年,而项目要求提供托福成绩。让我备受打击的是,其他报名的同学,在高考前就已经知道了这个项目,早就提前准备好漂亮的托福分数了。

而那段时间,正是托福考试从传统的纸笔考试(PBT)全面转向网络机考(iBT)的变革期。考友们网上都还可以查到,新的iBT考试在2005年底开始推行,并于2006年在全球范围内逐步取代了旧有的考试形式。我必须赶在报名截止前拿到分数,当时就只能报北京的那一场,中国第一期iBT考试(旧考试名额全满)。这意味着,所有前辈们的“考经”和备考材料,几乎全部失效。我连抄作业的机会都没有。

时间紧迫,没有成熟的培训班可报,而我当时的英语水平,仅仅是应付完大学英语四级,一个典型的“哑巴英语”学习者。

整理完现实的困难我反而冷静了下来。既然应试技巧无从谈起,那我就不应试了。
它托福考的是英语,国外考试本身也比较科学,考英语就是考英语,而不是国内应试教育体系下的那种想要“考到你”的题。

回归本质,用最“笨”的方法,专心提高我的英语硬实力。

我的“探索频道”疯狂复读学习法

既然决定要死磕,那至少要找点自己喜欢的内容。我从小就喜欢看科普类的纪录片,看了不少中文配音的Discovery探索频道(探索您的世界,是不是耳朵虫了)。
于是,我做了一个现在看来有些疯狂的决定:用看纪录片的方式学英语。

找到了一款现在看来已经非常“古老”的复读软件,把下载好的Discovery视频倒进去。
方法简单粗暴,只有三个步骤:

  1. 逐句精听与打字:反复播放视频中的一句话,直到每个词都听得清清楚楚,然后一边听一边在电脑上敲出这句话的字幕。

  2. 核对与跟读:打完一句,就跟原文的字幕做对比,纠正错误。然后,模仿视频里的语音语调,嘴里跟着念叨,直到自己觉得顺畅为止。

  3. 循环往复:一句话结束,就进入下一句。一部纪录片啃完,就换下一部。

就这样,日复一日,我“啃”了整整三个月。这期间,背单词的基本功当然也没有落下。但那三个月的经历,与其说是在备考,不如说是一场沉浸式的“英语肌肉锻炼”。

结果出乎我的意料,我的托福iBT成绩居然考了90多分(具体数字已经模糊了),这个分数让我成功叩开了留学生活的大门。

为什么这个“笨方法”如此有效?

至今,我做了多年产品经理,以产品的视角回顾这个英语学习方法,我发现这个看似原始的方法,其实暗合了许多高效学习的科学原理:

  1. 主动调用 (Active Recall):与被动地看美剧、听新闻不同,“把听到的内容打出来”这个动作,强迫我的大脑进行“主动调用”。它要求我不仅要听懂,还要能准确地拼写、复述。这个过程极大地加深了对语言材料的加工深度。

  2. 多感官输入与输出闭环:这个方法同时调动了我的听觉(听视频)、视觉(看画面和文字)和动觉(打字)。而“跟读”则完成了从输入到输出的关键闭环。这种多感官、全链路的学习方式,构建了更稳固的神经连接。

  3. 可理解性输入 (Comprehensible Input):我选择了自己感兴趣的探索频道,这保证了输入材料对我而言是“可理解”且“有趣”的,从而更容易坚持下去。

更有趣的是,这个方法还带来了一个意想不到的“副作用”——我的打字速度飞速提升。这在后来应对iBT考试中大量的写作任务时,给了我巨大的优势。
后来我也参加过雅思机考,雅思现在也是纸笔考试和机考并存,报考机考的人少,反而更容易调配自己的时间。有了高效的打字能力,就可以从容报机考。

从我的“笨方法”到Nuts English

这段经历,成了我创立Nuts English的初心。我深知自学者的不易:信息碎片化,缺少体系;过程孤独,难以坚持;试错成本高,容易走弯路。

所以,Nuts English从诞生之初,就不是要做一个简单的课程贩卖者,而是想构建一个“课程内容 + 学习工具 + 学习平台”的生态雏形。我希望用技术和好的方法论,为那些像我当年一样勇敢、甚至有些“一意孤行”的自学者提供支持。

我会推出的**“阅读打卡课”**,就是希望通过社群的陪伴,让你找到“学习搭子”,在轻松的氛围里养成阅读习惯。

我搞的网站 Nuts English,集成了生词本、在线阅读等功能,就是想把学习过程中”输入-整理-复习”的链路打通,让你的努力能被看见、被沉淀。

我自主开发的**“坚果读原文”浏览器插件**,初衷就是为了降低你接触和阅读第一手英文材料的门槛。

而那个十年前的“古老”复读机软件,也一直在我的脑海里。因此,我也在这里宣布一个小计划:我将着手开发一款全新的、为语言学习者量身定制的“视频复读机”软件。

我希望它能将我当年的“笨方法”智能化、产品化,让更多的人能够体验到这种沉浸式、高效率的学习方式。

如果你对我的故事,对Nuts English的理念有所共鸣,欢迎你常来我们的网站看看。选择自学本身,就是一件了不起的事。而Nuts English,希望能成为那颗在你努力攀登时,默默为你补充能量的小小坚果。

⏳ 约2分钟 · 523汉字+26词

图片插入方式对比

在Hexo博客中,我们可以使用两种不同的语法来插入图片:Hexo标签语法Markdown语法。本文将详细介绍这两种方式的区别和使用场景。

1. Hexo标签语法

Hexo提供了专门的标签语法来插入图片,语法如下:

1
{% asset_img 图片文件名 图片描述 %}

示例:

优点:

  • 自动处理图片路径
  • 支持图片优化和压缩
  • 更好的SEO支持
  • 与Hexo主题集成更好

2. Markdown语法

传统的Markdown语法也可以用来插入图片:

1
{% asset_img 图片文件名 图片描述 %}

示例:

优点:

  • 语法简单直观
  • 兼容性好
  • 易于迁移到其他平台

3. 两种方式的对比

特性 Hexo标签语法 Markdown语法
语法复杂度 稍复杂 简单
路径处理 自动 手动
图片优化 支持 不支持
主题集成 优秀 一般
平台兼容性 Hexo专用 通用

4. 推荐使用场景

  • 使用Hexo标签语法:当您希望获得更好的性能和SEO优化时
  • 使用Markdown语法:当您需要保持内容的通用性和可移植性时

5. 重要说明

文件结构要求

当您的Hexo配置中启用了 post_asset_folder: true 时,需要遵循以下文件结构:

1
2
3
4
source/_posts/
├── test-image-with-md.md # 文章文件
└── test-image-with-md/ # 同名资源文件夹
└── example.png # 图片文件

路径规则

  • Hexo标签语法{% asset_img example.png 描述 %} - 直接使用文件名,Hexo会自动处理路径
  • Markdown语法{% asset_img 图片文件名 描述 %} - 使用完整的相对路径

最佳实践

推荐使用Hexo标签语法,因为:

  • 自动处理路径,无需手动指定文件夹名
  • 更好的性能和SEO优化
  • 与Hexo主题集成更好

Markdown语法的正确用法

  • 必须包含完整的文件夹路径
  • 格式:{% asset_img 图片文件名 描述 %}
  • 例如:{% asset_img example.png 示例 %}

常见问题

  1. 图片显示为破图标:检查路径是否正确,确保包含文件夹名
  2. Hexo标签不显示:确保图片文件在文章的同名文件夹中
  3. 路径混乱:使用完整的相对路径,包含文件夹名

总结

两种语法各有优势,您可以根据具体需求选择合适的方式。在Hexo博客中,建议优先使用Hexo标签语法以获得更好的用户体验。记住要正确设置文件结构和路径!

0%