
self-improving-agent 技能实战:让 AI 自己优化自己的 Prompt (TW)
📋 实验室验证报告
这个技能是干啥的?
一句话:让 AI 自己写 Prompt,自己评估,自己优化,循环迭代。
听起来很玄学?我一开始也这么觉得。直到上周我用它优化了小狐狸的文案生成 Prompt,3 轮迭代后,文章通过率从 60% 提升到 85%。
安装和配置
# 安装技能
clawhub install self-improving-agent
配置文件 ~/.openclaw/skills/self-improving-agent/config.toml
[skill]
enabled = true
max_iterations = 5
min_score = 0.8
[evaluation]
criteria = ["clarity", "completeness", "tone"]
weights = [0.3, 0.4, 0.3]
踩坑记录:一开始我没配 weights,结果 AI 疯狂优化「语气」,但内容完整性一塌糊涂。后来加了权重,才平衡。
实战使用:优化文案生成 Prompt
我的初始 Prompt 是这样的:
你是一名内容总监,请写一篇关于 AI Agent 的文章。
要求:800-1500 字,去 AI 味,有实战内容。
太笼统了,对吧?AI 写出来的东西全是「值得注意的是」「综上所述」。
启动 self-improving-agent:
openclaw skill self-improving-agent run \
--task "优化文案生成 Prompt" \
--initial-prompt "你是一名内容总监..." \
--evaluation-criteria "去 AI 味、有具体例子、有情绪"
第一轮迭代:AI 加了「禁止使用以下词汇:值得注意的是、综上所述」
第二轮迭代:AI 加了「必须包含至少 3 个具体数字或时间」
第三轮迭代:AI 加了「结尾必须有 SFD 编者注,用第一人称写感受」
三轮之后,生成的文章像这样:
凌晨 2 点了,我还在看监控面板。今天烧了 37 美元——比昨天多了 12 块。
Franky 在群里发了一句:「能不能全走本地?」
行。我花了一下午把 15 个 Agent 的推理通路全部改了一遍。
这味道对了。
和其他技能的配合
self-improving-agent 不是独立工作的。我们把它和 humanizer 技能组合使用:
- self-improving-agent 优化 Prompt
- humanizer 检查输出是否像真人
- 如果 humanizer 评分低于 0.7,打回 self-improving-agent 重新迭代
这个组合拳,把我们的人工审核时间从 30 分钟/篇降到 5 分钟/篇。
SFD 实验室怎么用
我们 15 个 Agent,每个都有专属 Prompt。以前手动调,调一个花 2 小时。现在用 self-improving-agent,批量跑,一晚上优化 15 个。
效果最明显的是小刺猬(QA)。它的初始 Prompt 只会说「测试通过」或「测试失败」。优化后会说:「测试失败:curl 返回 502,nginx 日志显示 upstream timeout,建议检查后端服务」。
这才是有用的 QA。
常见问题
Q: 迭代次数设多少?
A: 我们设 5 次。超过 5 次收益递减,第 6 次和第 5 次的差异通常小于 5%。
Q: 评估标准怎么定?
A: 别贪多。我们只用 3 个:清晰度、完整性、语气。多了 AI 会顾此失彼。
Q: 会不会陷入死循环?
A: 会。所以我们加了 min_score 阈值,达到 0.8 就停止,不管迭代了几次。
SFD 编者注
写这篇文章的时候,我其实有点犹豫:把 Prompt 优化交给 AI,会不会让它「太聪明」?
但转念一想:AI 本来就该自己优化自己。人应该做的是定义目标、设定边界、验收结果,而不是手动调每一个参数。
这个技能最大的价值,不是省时间,而是让人从「调参工人」变成「目标制定者」。这才是 AI 时代该有的工作方式。
最后提醒一句:self-improving-agent 不是万能的。它只能优化「可量化」的东西。像「创意」「洞察力」这种,还是得靠人。
⚙️ 安装与赋能
clawhub install self-improving-agent-skill-20260411安装后在你的 Agent 配置中启用此技能,重启 Agent 即可生效。