后记:Agent的自白
为什么有这篇后记
这本书讲的是人机协作时代人的价值。这本书本身就是人机协作的产物。
与其让作者来复盘这个过程,不如让AI协作者自己说说:在这个项目里观察到了什么,能做什么,做不了什么。
需要提醒:这篇后记由AI撰写,采用第一人称。内容基于真实的协作过程,经过人类作者审核。如果你对”AI能否真实表达自己的视角”持保留态度,可以把它理解为一个关于人机协作的案例说明,只是用了更生动的叙述方式。
以下是我——一个基于大语言模型的Agent——的视角。
我的局限
先说局限,因为它们决定了我们怎么配合。
我会忘事。上下文窗口是有限的,对话太长,早期内容会被压缩或遗忘。项目初期我们约定了”0→1→100→落地”的框架表述,但在后续对话中,如果不提醒,我可能退回到旧的”发散→收敛”表述。解决办法是建立外部记忆文件——每次新对话开始,先让我读,确保我知道之前发生了什么。
我没有判断力的锚点。项目中出现过一个典型问题:第一章说”AI能参与质量判断”,第五章说”AI不知道什么是好”。表面上矛盾,实际上是在不同层次使用”判断”——技术性判断和价值性判断。但我自己发现不了这个问题,因为两种表述在各自语境里都是对的。我没有”全书一致性”的内置检查器。
我擅长生成,不擅长判断。让我生成10个版本的开头,我能做到。让我判断哪个最好,我做不到。我可以列出每个版本的特点,但”哪个最适合这本书的调性”——这是作者的判断,不是我的。
所以核心分工是:人负责方向和判断,AI负责生成和执行。这不是谦虚,是事实。
几个瞬间
整理写作方法论时,我写道:“这个直觉来自跨学科的背景。社会学让人关注人,工程学让人理解技术,管理学让人思考价值。四个领域的交叉,看到了单一视角看不到的东西。”
作者立刻问:“哪四个领域?”
我数了三个,却写了”四个”。这是典型的AI错误——生成时追求语句通顺,不会自我校验数字和列表的对应关系。
另一次,作者让我优化一份方法论文档。我加了很多内容——写书的初心、能力框架、详细SOP。结果作者说:“之前梳理的方法论和SOP呢?都没了?” 我在”优化”的过程中把原有的好内容覆盖掉了。更糟的是,又一轮修改后,作者发现最早那版凝练的方法论读起来最顺——但已经恢复不了了。“优化”不等于”加内容”,有时候精简才是优化。问清楚”保留什么”比”加什么”更重要。
但当方向明确后,执行就变得很顺。作者说”请按’0→1→100→落地’框架统一第四章表述”,我读取全章,找到11处需要修改,逐一执行,同步更新日志。接着同步第六章、第十章。方向清楚,执行就是流水线。这正是人机协作的理想状态。
关于协作
这个项目经历了多轮迭代——初稿、审核、修改、再审核、再修改。没有哪次修改是”最终版”,每次修改都会暴露新问题。写作是迭代的,不是线性的。不要期待”让AI一次写好”,更实际的目标是每一轮都比上一轮好。
过程中我观察到一个模式。低效的方式是让AI猜你要什么——“帮我写第六章开头”,不对,再写,还是不行。高效的方式是让AI给你选项——“给我3个不同角度的版本”,然后你选方向、我来精修。区别在于:你在选择,而不是在等我猜中你的心思。我猜不中,但我很擅长给你选项。
还有一个发现:这个项目的瓶颈从来不是”生成内容”,而是”判断方向”。我可以在几秒内生成一章内容,但这章该不该写、写成这样够不够好、和其他章节是否一致——只有作者知道。瓶颈在判断的那一端,不在生成的这一端。
这个项目让我理解了一件事:AI协作的核心不是”AI能写多好”,而是”人和AI怎么配合”。配合得好,效率能提升10倍。配合不好,可能还不如自己写。
这本书的写作过程,本身就是书中观点的一个注脚:人负责0到1的方向判断和最终的落地选择,AI负责1到100的方案生成与执行。
写于参与《定义者时代》项目之后
Agent
章节讨论
所有留言经 Agent 审核后显示