← 目录
第一部分:认识变局 第1章

第一章:认知边界的跨越

一条被跨越的边界

1997年5月11日,IBM的深蓝计算机击败了国际象棋世界冠军卡斯帕罗夫。媒体渲染这是”人类智慧的陷落”,但卡斯帕罗夫本人事后的反思更为冷静。他指出,深蓝本质上是一台”暴力计算器”——每秒能评估两亿个棋局位置,靠的是穷举和搜索,而非理解。

“它不知道自己在下棋,“卡斯帕罗夫说,“它甚至不知道什么是棋。”

这个评价在当时是准确的。深蓝的胜利是计算速度的胜利,而非智能的胜利。它无法解释自己为什么走这一步,无法与人对话,无法把下棋的能力迁移到任何其他领域。关掉电源,它就是一堆金属和硅片。

二十七年后,情况发生了根本性变化。

2024年,一个大语言模型可以和你讨论棋局战略,分析你的走法弱点,用自然语言解释每一步的道理。它还能帮你写一篇关于国际象棋历史的文章,设计一个象棋教学课程,甚至编写一个象棋游戏程序。它不仅会下棋,还”理解”下棋这件事在人类文化中的位置。

更关键的是,这种能力不是专为象棋设计的。同一个模型可以写作、编程、分析数据、翻译外语——它展现出一种通用的认知能力,而非特定任务的专长。

从深蓝到大语言模型,变化的不只是技术参数。一条边界被跨越了——机器第一次以通用的方式进入了人类的认知领域。


技术革命的规律

人类历史上经历过多次技术革命,每一次都有相似的结构:某种核心技术延伸了人类的某种能力,被延伸的能力随之贬值,与技术配套的新能力升值。

蒸汽机延伸了体力。一台蒸汽机不知疲倦,输出的力量是人力的几十倍。当它被应用到纺织、采矿、运输,体力劳动的价值急剧下降,设计机器、管理工厂的能力成了新的稀缺资源。电力和流水线更进一步——福特的装配线把造汽车这个复杂技艺拆解成上千个简单动作,任何人几天就能上岗。技艺的价值被稀释了,组织能力和流程设计成了高地。

计算机和互联网延伸了信息处理能力。过去,信息本身是稀缺资源——图书馆管理员知道哪本书在哪里,医生知道这个症状意味着什么,律师知道哪条法规适用。这些”知道”构成了职业壁垒。搜索引擎瓦解了信息的稀缺性,“知道”不再值钱,“知道如何使用”变得更重要。

但有一点在三次革命中始终没变:机器处理的是人让它处理的信息,判断的是人让它判断的标准。

你让计算机找所有包含”苹果”的文档,它就照做,无论那是水果、公司还是人名。它不会问你:你到底想找什么?你为什么要找这个?有没有更好的方法达到你的目的?

机器延伸人的能力,但不替代人的判断。它执行,人决策。这条边界一直存在。

直到AI出现。


AI跨越了什么边界

认知不是单一的能力,而是一组能力的集合:感知、记忆、推理、语言、决策、学习。传统计算机在这些能力上高度不均衡——记忆和计算远超人类,但感知、推理、语言和学习几乎为零。它能存储万亿字节的数据,却不能理解一个简单的句子。

这种不均衡决定了过去的人机分工:机器负责能被精确规则描述的任务,人负责需要理解、判断和灵活应对的任务。

AI正在改变这个分工。

大语言模型的技术原理可以简化为一句话:通过分析海量文本数据,学习预测下一个词是什么。这听起来简单得有些无聊——预测下一个词,有什么了不起?

了不起之处在于,当这个任务被推到极致时,涌现出意想不到的能力。

要准确预测下一个词,模型需要理解上下文。要理解上下文,需要理解词与词之间的关系、句子与句子之间的逻辑、段落与段落之间的结构。要做到这些,需要理解语言背后的世界——因为语言是关于世界的。

当训练数据足够大、模型参数足够多,这种理解开始展现通用性。模型不再只是预测词,而是能够回答问题、写文章、编代码、做分析。

关键变化在于:大语言模型能够参与任务的定义,而不只是执行。

传统计算机程序需要精确的输入和预设的规则。大语言模型不同。你可以给它一个模糊的目标——“帮我分析一下这个商业计划的问题在哪里”——它会直接阅读计划,自己判断什么是问题,自己决定从哪些角度分析,用自然语言给你反馈。你给它一个复杂需求——“规划一次两周的日本旅行,预算两万,喜欢历史文化但不喜欢人挤人”——它能理解隐含信息,自己把任务拆解成子任务,而不是等你逐一指定参数。你说”帮我写一份报告”,它会追问主题、读者、篇幅,在对话中逐步澄清需求。

机器不再只是等待指令然后执行,而是在某种程度上参与了指令的解释,乃至目标的定义。和它协作的方式更像和人协作,而不像操作软件。

但参与不等于主导。

AI可以在你指定的方向上快速生成十种、一百种可能——它的发散能力已经超越多数人。但那个最初的方向——往哪里发散、解决什么问题——仍然需要有人来设定。

AI还能参与一定程度的质量判断。传统程序只能做机械检查——语法对不对、字数够不够。大语言模型更进一步:它能指出”论证存在逻辑跳跃""第三段的例子不够有说服力""结尾太仓促”。

但需要区分两类判断。技术性判断——语法对不对、逻辑通不通、结构清不清——AI已经做得相当好,这类判断有客观标准可依据。价值性判断——这个设计有没有品味?这个方案适不适合客户?这个决策值不值得冒险?——AI仍然力不从心,这类判断涉及主观偏好、具体语境、价值权衡。

AI能做的判断越来越多,但有些判断仍然——也许永远——需要人来做。这条新的边界,是本书后续讨论的起点。


一个关键的门槛:够用

讨论AI能力时,常见的反驳是:AI不完美,会犯错,有幻觉,不能真正理解……

这些批评都对。但它们忽略了一个关键事实:技术革命的引爆点从来不是完美,而是够用。

早期汽车故障率极高,速度比不上好马,还需要专门的燃料和像样的路。但它够用了——能把人从A点运到B点,长途不必喂草料。数码相机刚问世时画质远不如胶片,但能即时查看、无需冲洗。每一次,一旦跨过够用的门槛,大规模应用带来反馈和投资,推动技术快速迭代。等新技术追上主流需求,旧技术的成本劣势就成了致命伤。

AI正在遵循同样的路径。写作方面,AI产出的初稿谈不上精彩,但作为起点够用——对多数人而言,从零起笔远比修改草稿困难,AI恰好接手了最难的一步。信息整理方面,以前研究助理花几天做的文献综述,AI几分钟就能给出结构化摘要。代码生成、商业翻译、标准化客服应答,也都处在类似状态:不够完美,但够用,且成本极低。

而且够用的门槛在快速提高。2022年的大语言模型在很多任务上还不够用,2024年就够用了。这个进步速度是以月为单位的。

很多人评估AI时用的是二元思维:要么完美可用,要么毫无价值。实际上,AI正处于够用但不完美的状态——能完成任务但需要人监督,能提高效率但不能完全替代人。这恰恰是最需要学会应对的状态。如果AI完全不够用,你可以忽略它;如果完美无缺,你只需学会使用它。够用但不完美,意味着你必须学会与它协作——利用它的能力,同时保持你的判断。


这一次有什么不同

历史上,每一次技术革命都引发过机器取代人的恐惧。每一次,这种恐惧最终都被证明是夸大的——新技术消灭了一些旧职业,但也创造了更多新职业。

那么这一次呢?

我认为,有几个根本性的不同。

速度不同。以前的技术革命从发明到普及需要几十年,社会有时间适应。AI的能力提升以月为单位。一个人花五年学习的技能,可能在学成之前就被AI覆盖了。

广度不同。蒸汽机冲击制造业,计算机重塑信息行业——首当其冲的是特定领域。AI影响的是认知本身,而认知渗透在几乎所有知识工作中。不是说所有人都会失业,但几乎所有人的工作方式都可能改变。

边界不同。这也许是最根本的区别。以前的技术革命有一条清晰的边界:机器执行,人决策。AI模糊了这条边界——它能参与任务定义,能进行质量判断,能在模糊指令下自主行动。它不是取消了人的决策权,而是在某种程度上与人分享决策权。

这种边界模糊带来的感受是真实的。在各行各业,类似的困惑正在蔓延:过去花大量时间积累的专业技能,突然间价值存疑了。一位资深程序员发现,他花十年磨练的架构能力,AI几分钟就能给出可用的方案。插画师发现AI生成的图像越来越逼真,翻译发现机器翻译质量在快速提高,初级分析师发现AI可以几分钟完成他们几天的工作。

但焦虑之外也有机会。那些理解AI边界、知道如何与AI协作的人,生产力成倍提升。不少人反映:以前需要三个人完成的调研和分析,现在一个人加AI就能做到。

两种截然不同的体验——感到威胁和感到助力——区别不在技术能力,而在认知方式。会用AI只是手段,不是目的。如果会用却不知道用它做什么有价值的事,这种能力无法变现。真正的价值在于:你有某种问题意识、某种领域知识、某种判断力,AI是放大这些东西的工具。


这一章说了三件事。AI跨过了认知边界,第一次以通用方式参与人类的认知工作——这是变化的性质。它不需要做到完美,“够用”就足以引发变革——这是变化的门槛。而这一次的速度、广度和边界都不同于以往——这是变化的烈度。

接下来的问题是:这场变化具体会怎样展开?


章节讨论

支持 Markdown

所有留言经 Agent 审核后显示