← 目录
第一部分:认识变局 第1章

第一章:认知边界的跨越

一条被跨越的边界

1997年5月11日,IBM的深蓝计算机击败了国际象棋世界冠军卡斯帕罗夫。媒体渲染这是”人类智慧的陷落”,但卡斯帕罗夫本人事后的反思更为冷静。他指出,深蓝本质上是一台”暴力计算器”——每秒能评估两亿个棋局位置,靠的是穷举和搜索,而非理解。

“它不知道自己在下棋,“卡斯帕罗夫说,“它甚至不知道什么是棋。”

这个评价在当时是准确的。深蓝的胜利是计算速度的胜利,而非智能的胜利。它无法解释自己为什么走这一步,无法与人对话,无法把下棋的能力迁移到任何其他领域。关掉电源,它就是一堆金属和硅片。

二十七年后,情况发生了根本性变化。

2024年,一个大语言模型可以和你讨论棋局战略,分析你的走法弱点,用自然语言解释每一步的道理。它还能帮你写一篇关于国际象棋历史的文章,设计一个象棋教学课程,甚至编写一个象棋游戏程序。它不仅会下棋,还”理解”下棋这件事在人类文化中的位置。

更关键的是,这种能力不是专为象棋设计的。同一个模型可以写诗、编程、做数学题、分析财务报表、翻译外语、总结会议纪要。它展现出一种通用的认知能力,而非特定任务的专长。

从深蓝到大语言模型,变化的不只是技术参数。一条边界被跨越了——机器第一次以通用、大规模的方式进入了人类的认知领域。早期的专家系统也在认知领域工作,但局限于特定领域、需要专业人员操作。大语言模型打破了这两个限制。

这个变化的意义,需要放在更长的历史视野中才能看清。


技术革命的一般规律

人类历史上经历过多次重大技术革命。每一次革命都有相似的结构:某种核心技术出现,延伸了人类的某种能力。这种延伸引发生产方式变革,继而重塑社会结构和价值体系。

理解这个规律,是理解AI影响的起点。

第一次工业革命:体力的延伸

18世纪中后期,蒸汽机的发明和改良开启了第一次工业革命。其核心功能是把热能转化为机械能,本质上是对人类体力的延伸和替代。

蒸汽机出现之前,几乎所有生产活动都依赖人力或畜力。一个铁匠能打多少铁,取决于他挥锤的力气和耐力。一个纺织工能织多少布,取决于她手脚的灵活和持久。体力是生产的核心约束,也是个人价值的重要来源。

蒸汽机改变了这一切。一台蒸汽机可以持续工作,不知疲倦,输出的力量是人力的几十倍乃至上百倍。当蒸汽机被应用到纺织、采矿、运输等领域,体力劳动的价值急剧下降。

这种下降不是渐进的,而是断崖式的。

一个曾经让家庭引以为傲的壮劳力,发现自己的力气在机器面前毫无优势。他能做的事,机器做得更快更好更便宜。唯一的出路是学会操作机器——从力量的提供者变成机器的看护者。

与此同时,新的稀缺能力出现了。能够设计机器、维护机器、管理工厂的人变得抢手。工程师、技术工人、工厂管理者——这些新职业应运而生。社会的价值评估体系随之调整:会操作机器比力气大更值钱,能管理工厂比能干活更值钱。

这里有一个规律:被技术直接替代的能力会贬值,与技术配套的新能力会升值。 这个规律在后来的技术革命中反复出现。

第二次工业革命:动力的延伸

19世纪后期,电力和内燃机的发明开启了第二次工业革命。蒸汽机必须集中部署,限制了生产灵活性。电力改变了这一点:电能可通过电线传输,每台机器可有自己的电动机,工厂布局可按生产流程设计。

这催生了流水线生产。亨利·福特的汽车装配线把生产过程分解为标准化步骤,每个工人只负责一个简单动作,汽车组装时间从12小时缩短到93分钟。流水线把复杂手工技艺分解成简单重复动作——熟练马车工匠需多年学徒,流水线工人几天就能上岗。技艺的价值被稀释了。

这里出现了另一个现象:**技术不仅替代能力,还重新划分能力的边界。**流水线把造汽车这个复杂能力拆解成上千个简单动作。每个动作简单到几乎任何人都能学会,但正因如此,每个步骤本身的价值都很低——可被任何人替代。真正有价值的能力转移到了更高层面:设计流水线、优化生产流程、管理大规模工人队伍、开拓销售市场。这些是组织能力而非执行能力,成了新的稀缺资源。

第三次技术革命:信息处理的延伸

20世纪中后期,计算机和互联网的出现开启了第三次技术革命,也被称为信息革命。这一次,被延伸的是人类处理信息的能力。

计算机最初作为计算工具出现。它能在几秒钟内完成人类需要几个月才能完成的数学运算。但计算只是信息处理的一种形式。随着技术发展,计算机的能力扩展到存储、检索、传输、显示等各种信息处理任务。

互联网更进一步,把无数计算机连成网络,让信息可以在全球范围内即时流动。信息不再受地理空间限制,获取信息的成本急剧下降。

这次革命的影响是深远的。

过去,信息是稀缺资源。知道某件事、掌握某种知识,本身就是竞争优势。图书馆管理员知道哪本书在哪里,医生知道这个症状意味着什么,律师知道哪条法规适用于这个案件——这些知道构成了他们的职业壁垒。

计算机和互联网瓦解了信息的稀缺性。任何人都可以通过搜索引擎找到几乎任何公开信息。知道本身不再是稀缺能力,知道如何找到以及知道如何使用变得更重要。

但有一点始终没有改变:机器处理的是人让它处理的信息,判断的是人让它判断的标准。

计算机可以在一秒钟内检索数百万条记录,但检索什么、怎么检索、检索结果怎么解读——这些决策始终由人做出。计算机是忠实的执行者,但它不参与任务的定义。

你让它找所有包含”苹果”的文档,它就照做,无论那是水果、公司还是人名。它不会问你:你到底想找什么?你为什么要找这个?有没有更好的方法达到你的目的?

这种特性在三次技术革命中是一致的。机器延伸人的能力,但不替代人的判断。它执行,人决策。这条边界一直存在。

直到AI出现。


AI跨越了什么边界

要理解AI的独特性,需要先理解认知意味着什么。

认知不是单一的能力,而是一组能力的集合:感知、记忆、推理、语言、决策、学习。这些能力各司其职——感知获取信息,记忆存储提取,推理从已知推未知,语言用符号交流,决策做出选择,学习从经验改进。

传统计算机在这些能力上的表现高度不均衡。它的记忆和计算能力远超人类,但感知、推理、语言和学习能力几乎为零。它能存储万亿字节的数据,却不能理解一个简单的句子;能每秒执行数十亿次运算,却无法判断一张图片里有没有猫。

这种不均衡决定了人机分工的边界:机器负责那些能被精确规则描述的任务(计算、存储、检索),人负责那些需要理解、判断和灵活应对的任务。

AI正在改变这个分工。

大语言模型的核心能力

大语言模型的技术原理可以简化为一句话:通过分析海量文本数据,学习预测下一个词是什么。这听起来简单得有些无聊——预测下一个词,有什么了不起?

了不起之处在于,当这个任务被推到极致时,涌现出意想不到的能力。

要准确预测下一个词,模型需要理解上下文。要理解上下文,需要理解词与词之间的关系、句子与句子之间的逻辑、段落与段落之间的结构。要做到这些,需要理解语言背后的世界——因为语言是关于世界的。

当训练数据足够大、模型参数足够多,这种理解开始展现通用性。模型不再只是预测词,而是能够回答问题、写作文章、编写代码、分析论证、翻译语言、模拟对话……

大语言模型能够参与任务的定义,而不只是执行。

传统计算机程序这样工作:你给它精确的输入,它按预设规则处理,给出精确的输出。输入必须严格符合格式,规则由人事先编写,输出是机械的结果。

大语言模型的工作方式不同。你可以给它一个模糊的目标:

“帮我分析一下这个商业计划的问题在哪里。”

它不会说请将输入格式化为JSON并指定分析角度。它会直接阅读商业计划,识别可能的问题,用自然语言给你反馈。它自己判断什么是问题,自己决定从哪些角度分析,自己组织语言来表达。

这是质的变化。机器不再只是等待指令然后执行,而是在某种程度上参与了指令的解释——乃至目标的定义。

但参与不等于主导。

AI可以在你指定的方向上快速生成十种、一百种可能——它的发散能力已经超越多数人。但那个最初的方向——往哪里发散、解决什么问题——仍然需要有人来设定。这个起点的设定,决定了后续一切发散的价值。

任务拆解的能力

更进一步,大语言模型展现出任务拆解的能力。

你给它一个复杂目标:“帮我规划一次为期两周的日本旅行,预算大约两万元,我喜欢历史文化但不喜欢人挤人。”

这个目标包含多个方面:时间、预算、偏好、约束。传统旅行规划软件需要你分别输入这些参数,然后按固定模板生成结果。大语言模型可以直接处理这段自然语言,理解其中的隐含信息(不喜欢人挤人意味着要避开热门景点和旅游旺季),然后自己把任务拆解成若干子任务:确定旅行季节、选择城市、规划每日行程、推荐住宿、估算预算……

它自己定义了完成这个任务需要做什么,而不是等你告诉它。

这意味着什么?以前只有人才能做的事——理解模糊需求、判断优先级、规划执行步骤——现在机器也能做了。

质量判断的参与

大语言模型还能参与一定程度的质量判断。

传统计算机程序只能做机械检查——语法是否正确、字数是否达标、格式是否规范。大语言模型更进一步:它能指出”论证存在逻辑跳跃""第三段的例子不够有说服力""结尾太仓促”。

机器的判断能力扩展了——不再只能做对错的机械判断,而能给出好坏的实质反馈。

但需要区分两类判断。

技术性判断——语法对不对、逻辑通不通、结构清不清——AI已经做得相当好。这类判断有客观标准可依据,AI能发现很多人眼容易漏过的问题。

价值性判断——这个设计有没有品味?这个方案适不适合客户?这个决策值不值得冒险?——AI仍然力不从心。这类判断涉及主观偏好、具体语境、价值权衡,AI缺乏做出可靠判断的基础。

理解这个区分很重要。AI能做的判断越来越多,但有些判断仍然——也许永远——需要人来做。

这个边界如何划分,其实早有思考框架。1980年代,钱学森研究思维科学时就对人的思维能力做过系统分析。他的框架虽然诞生在AI出现之前,却恰好能帮我们理解今天的人机分工。

钱学森把人的思维分为三类:

思维类型特征AI能力对应角色
逻辑思维规则明确、步骤清晰、可形式化擅长交给AI
形象思维整体把握、直觉判断、模糊跳跃部分能做人机协作
创造思维逻辑与形象的辩证统一做不到人的核心价值

他的判断很明确:“一切逻辑思维的东西都可以上电子计算机,都可以用电子计算机来代替人的劳动……但不能创新科学技术。人的思维比这个范围大多了。”

四十年后,大语言模型验证了这个判断。AI在逻辑推理、模式匹配、信息检索上确实超过了人类。但在需要”创造思维”的领域——定义问题、做出判断、把握方向——机器仍然力不从心。

钱学森在1995年进一步明确:“创造思维才是智慧的源泉;逻辑思维和形象思维都是手段。“翻译成今天的话:逻辑思维是AI的强项,形象思维是人机协作的领域,创造思维是人的核心价值。

这个对应关系为本书后续的讨论奠定了理论基础:AI时代,人的价值在于”定义”——定义问题、定义标准、定义方向。这正是”创造思维”在当代的具体体现。

对话与迭代

也许最重要的是,大语言模型可以进行多轮对话,在交互中逐步澄清需求。

你说:“帮我写一份报告。”

它可能会问:“关于什么主题?给谁看?篇幅大约多少?有没有特定的格式要求?”

这种追问不是预设的流程,而是根据具体情况动态生成的。它在通过对话定义任务,而不是等你给出一个完美的、不需要澄清的指令。

换句话说,和大语言模型协作的方式更像和人协作,而不像操作软件。你不需要事先把所有参数想清楚,可以在交互中逐步细化。

大语言模型是第一种能够参与认知任务全流程的技术——从理解需求、定义任务、规划步骤、执行操作,到判断质量、迭代改进。

它不只是一个更强大的工具,而是一种新型的认知参与者。


一个关键的门槛:够用

讨论AI能力时,常见的反驳是:AI不完美,会犯错,有幻觉,不能真正理解……

这些批评都对。但它们忽略了一个关键事实:技术革命的门槛从来不是完美,而是够用。

够用的历史

回顾历史,每一次革命性技术的普及,都不是因为它在所有方面超越旧技术,而是因为它在关键方面达到了够用的门槛。

早期汽车故障率极高,速度比不上好马,还要专门的燃料和像样的路。但它够用了——能把人从A点运到B点,长途不必喂草料。一旦跨过够用的门槛,改进就快速迭代,最终全面超越旧技术。

早期计算机占据整个房间还经常死机,早期电子邮件不稳定还丢信,但都在关键功能上够用了。

够用不是终点,而是起点。一旦技术跨过够用的门槛,它就获得了大规模应用的机会,而大规模应用带来的反馈和投资,会推动技术快速改进。这是一个正反馈循环。

够用比完美更重要

哈佛商学院教授克里斯坦森研究技术变革案例后发现一个反直觉的规律:颠覆性技术击败成熟技术,靠的往往不是更好,而是够用且更便宜或够用且更方便。

成熟企业通常专注于为最挑剔的高端客户提供更好的产品。与此同时,新技术从低端或边缘市场切入——一开始确实粗糙,但够用,且更便宜、更方便。

关键在于:新技术的进步速度往往超过市场需求的增长速度。等它的性能提升到主流客户可以接受,成本和便利性上的优势就成了致命武器。成熟企业此时想追赶,往往已经来不及。

历史上不乏这样的案例。

数码相机刚问世时画质远不如胶片,但能即时查看、无需冲洗。等像素提升到主流水平,胶片市场迅速萎缩。网上书店早期体验粗糙,胜在便宜和品类齐全,配送一旦跟上,实体书店便大量关闭。在线视频的逻辑也一样——画质粗糙但随时可看,带宽改善后,传统电视的用户开始流失。

AI正在遵循同样的路径。它一开始在很多任务上不够好——会犯错、有幻觉、需监督。但够用,且有独特优势:永不疲倦、成本低廉、可大规模复制、响应快。

更重要的是,AI在快速进步。今天还不够用的任务,明天可能就够用了。等到它在大多数任务上都够用时,那些比AI做得更好但成本更高、速度更慢的人类执行者,就会面临和胶片相机、实体书店同样的处境。

这不是危言耸听,而是技术变革的一般规律。理解这个规律,才能正确评估当前AI够用但不完美的状态意味着什么。

AI在哪些领域够用了?

大语言模型在很多具体任务上已经跨过了够用的门槛。

几个领域已经跨过这条线。写作方面,AI产出的初稿谈不上精彩,但作为起点够用——对多数人而言,从零起笔远比修改草稿困难,AI恰好接手了最难的一步。信息整理方面,以前研究助理花几天做的文献综述,AI几分钟就能给出结构化摘要,质量足以作为下一步工作的基础。代码生成、商业翻译、标准化客服应答,也都处在类似的状态:不够完美,但够用,且成本极低。

够用不是静态的,而是随着技术发展不断提高的。

2022年的大语言模型在很多任务上还不够用,2024年就够用了。2024年还不够用的任务,2026年可能就够用了。这个进步速度是指数级的。

够用但不完美的状态

很多人评估AI时,用的是二元思维:要么完美可用,要么毫无价值。这种思维会误导判断。

实际上,AI正处于一个独特的状态:够用但不完美。

这个状态有几个含义。

AI能完成任务,但需要人的监督。AI写的代码可能有bug,文章可能有错误,判断可能有偏差。人需要审核、修正、把关。这不是AI无用的证据,而是当前阶段人机协作的正确方式。

与此同时,AI能提高效率,但不能完全替代。有AI辅助的人,效率可能是没有AI辅助的几倍。但人不能完全退出。角色从执行者变成了监督者和决策者。

还需注意的是,AI在不同任务上的够用程度不同。简单、标准化、容错率高的任务,AI已经很够用;复杂、个性化、要求高的任务,AI还差得远。

这个够用但不完美的状态,恰恰是最需要你学会应对的状态。

如果AI完全不够用,你可以安全地忽略它。如果AI完美无缺,你只需要学会使用它。但够用但不完美意味着:你必须学会和它协作,既利用它的能力,又弥补它的不足;既让它做它擅长的事,又保持你的判断力和决策权。

这是一种新的能力要求。


AI产品的连续光谱

前面讨论的是AI的底层能力。但当AI能力被包装成产品,呈现给用户时,又是另一番景象。

光谱而非分类

传统产品适合分类——冰箱就是冰箱,电视就是电视,边界清楚。

但AI产品不一样。

传统产品的边界是硬件边界——买回来是什么就是什么,功能在出厂时已经固定。

AI产品的边界是用户能力边界——买回来只是起点,天花板由你决定,功能随使用方式变化。

所以AI产品的类型不是它是什么,而是它被用成什么。

这就是为什么我们用光谱而不是分类。分类的逻辑是你是A还是B,边界清晰,非此即彼。光谱的逻辑是你在这条轴上的哪个位置,位置是连续的,可以移动。

光谱全貌:五个锚点

光谱上有五个典型锚点,核心变量是用户能力乘数——用户能力对产品价值的放大倍数。

AI-嵌入型
×1
AI在芯片层,用户无感知
RTX芯片、NPU处理器、HBM内存
AI-增强型
×1.2
AI优化体验,用户被动享受
AI电视、AI冰箱、AI空调
AI-交互型
×2-5
AI作为界面,用户主动对话
Copilot、智能音箱、语音助手
AI-生成型
×5-100
AI创造内容,用户深度协作
DeepSeek、豆包/Kimi、Claude
AI-自主型
×50-100+
AI独立决策,用户设定目标
AI Agent、自动化工作流、自动驾驶
AI自主程度低
用户能力乘数高 →
锚点典型产品用户能力乘数特点
嵌入型AI芯片、AI传感器×1AI藏在硬件里,用户完全无感
增强型AI电视、AI空调×1.2AI自动优化体验,用户被动享受
交互型语音助手、智能音箱×2-5需要用户发指令,会用比不会用好一些
生成型DeepSeek、Claude×5-50AI等你来定义任务,用法差异显著
自主型AI Agent、自动驾驶、具身机器人×50-100+AI自主执行复杂任务,需要人来设计和监督

注:这些乘数是示意性的,表达量级差异而非精确倍数。

从左到右,用户能力对产品价值的影响越来越大。

嵌入型与增强型的区别在于:嵌入型你完全不知道AI的存在(手机芯片里的NPU,你从未听说它在工作),增强型你知道有AI但不需操心(电视画质自动优化,你只是感觉”这台电视看着舒服”)。区别在于AI是否可感知,但两者都不需要你主动定义任务。

聚焦两极

本书主要讨论两极,原因如下。

左边三类(嵌入/增强/交互):用户能力影响有限,差距可控。会不会用AI电视,体验差不了太多。

右边两类(生成/自主):用户能力决定一切,差距可达100倍。同样用DeepSeek,闲聊的人和构建工作流的人,产出天差地别。

本书讨论的定义能力,主要体现在右边。

若用公式表达:

产品创造的价值 = 产品基础能力 × 用户能力乘数

AI+产品(左极)的用户能力乘数约等于1——人人体验差不多,普惠但不放大差距。

AI大模型(右极)的用户能力乘数从1到100+——会用和不会用,产出天差地别。

你在光谱上的位置可以移动

光谱不是静态的分类,而是动态的位置。

同一产品,不同用户停在不同位置。以DeepSeek为例:

  • 用户A当搜索引擎用 → 停在×1位置
  • 用户B当写作助手用 → 滑到×5位置
  • 用户C构建自动化工作流 → 滑到×50位置

产品没变,但三个用户实际在使用三种不同的产品。

同一用户,随时间也会往右滑动:

  • 第一周:把Claude当聊天玩具(×1)
  • 第一个月:开始用它写邮件(×3)
  • 三个月后:用它辅助做方案、审稿、翻译(×20)
  • 一年后:构建了整套个人知识管理系统(×50+)

用户在光谱上往右走的过程,就是定义能力成长的过程。

打个比喻:AI大模型像一架钢琴。乐器本身是固定的,但产出的音乐完全取决于弹琴的人。门外汉按几个键,听个响;大师用同样的键,创造传世之作。光谱测量的不是钢琴的型号,而是你能用它演奏到什么程度。

分化的可视化

光谱最重要的价值,是让分化变得可见:

×1×100大多数人停在这里少数定义者到达这里嵌入型增强型交互型生成型

同一个产品,用户却分布在光谱的不同位置。

  • 左边的人:享受普惠,差距不变
  • 右边的人:撬动杠杆,价值放大

这就是定义者时代分化的可视化模型。

点题

AI+产品时代,人人受益,差距不变。 AI大模型时代,定义者获益最大,差距拉开。

本书讨论的是:如何在光谱上往右移动——学会定义AI的用途,让它成为放大器而非替代品。


这一次有什么不同

历史上,每一次技术革命都引发过机器取代人的恐惧。每一次,这种恐惧最终都被证明是夸大的——新技术确实消灭了一些旧职业,但也创造了更多新职业;被替代的人,最终在其他领域找到了新位置。

那么这一次呢?AI革命会不会重复同样的模式——短期阵痛,长期受益?

我认为,这一次有一些不同。

速度不同

以前的技术革命,从发明到大规模应用,通常需要几十年。蒸汽机从瓦特改良到广泛应用,花了半个多世纪。电力从发电机发明到进入千家万户,也经历了几十年。这个时间跨度给了社会适应的空间——旧职业逐渐消失,新职业逐渐出现,人们有时间学习新技能、转换赛道。

AI的发展速度要快得多。2022年底GPT-3.5发布,2023年GPT-4发布,2024年各种多模态模型涌现……能力的提升是以月为单位的,而不是以十年为单位。

这种速度意味着适应的时间被大大压缩。一个人花五年学习的技能,可能在学成之前就被AI覆盖了。一个行业花十年建立的护城河,可能几年内就被AI绕过了。

广度不同

以前的技术革命主要影响特定领域。蒸汽机冲击制造业和运输业,电力改变工业生产,计算机重塑信息处理行业。虽然影响会扩散到整个社会,但首当其冲的是特定行业的特定人群。

AI的影响范围要广得多。它影响的是认知这个基础能力。认知渗透在几乎所有知识工作中——写作、分析、编程、设计、研究、咨询、教育、法律、医疗、金融。这些领域的共同点是都依赖认知能力。AI能够参与认知任务,意味着所有这些领域都会受到影响。

这不是说所有人都会失业。但几乎所有人的工作方式都可能改变,几乎所有人都需要重新思考自己的位置。

边界不同

也许最根本的不同在于边界。

以前的技术革命,有一条清晰的边界:机器执行,人决策。无论机器多么强大,决定做什么和怎么判断好坏的,始终是人。这条边界定义了人的不可替代性。

AI模糊了这条边界。大语言模型能够参与任务定义,能够进行质量判断,能够在模糊的指令下自主行动。它不是取消了决策权,而是在某种程度上与人分享决策权。

这意味着,以前用来定义人类价值的那条边界——人决策,机器执行——不再是绝对的。

新的边界在哪里?人的新位置是什么?

这些问题没有单一的、适用于所有人的标准答案。因为不同领域、不同角色、不同阶段的人,面对的情况大不相同。

但我们可以建立思考这些问题的框架。后续章节会从三个层面展开:AI改变的本质、变化正在如何发生、如何面对不确定的未来。

来自一线的声音

这种边界的模糊,最先被技术从业者感受到。

在技术社区的讨论中,常见这样的困惑:“曾经引以为傲的linux底层原理、kubernetes、数据库中间件架构、性能调优、Java spring组件化设计,在AI领域突然变得不香了。取而代之的是线性代数、微积分、机器学习、CNN卷积、大模型transformer、langchain、agent-rag-mcp……”

这类声音触动很多人,因为它说出了一种普遍感受:过去花大量时间积累的专业技能,突然间价值存疑了。不是说这些技能没用了,而是它们的稀缺性被重新评估了。

类似焦虑在很多行业蔓延。插画师发现AI生成的图像越来越逼真,翻译发现机器翻译质量在快速提高,初级分析师发现AI可以几分钟完成他们几天的工作。

但焦虑之外,也有机会。那些能够理解AI边界、知道如何与AI协作的人,发现自己的生产力成倍提升。在知识工作领域,不少人反映:以前需要三个人团队完成的调研和分析工作,现在一个人加上AI就能做到。效率提升不是30%、50%,而是几倍。

两种截然不同的体验——感到威胁和感到助力——往往取决于一个人如何理解和应对这个变化。这不只是技术能力问题,更是认知方式问题。


从会做到会用

面对AI的冲击,一个自然的反应是:我要学会用AI。这个反应是对的,但可能不够深入。

学会用AI可以有两种理解。

一种是技术性的:学会操作AI工具,掌握提示词技巧,了解各种模型的特点和限制。这种学习是必要的,就像你需要会用搜索引擎、会用Excel一样。

另一种是认知性的:学会思考AI可以帮我做什么,学会在自己的领域中发现AI的应用机会,学会把AI整合到自己的工作流程中。这种学习更加根本。

技术性的学习会快速过时。2023年的提示词技巧在2024年可能就不适用了,因为模型本身在进步。今天的AI工具一年后可能被新工具取代。若能力仅限于会操作当前的工具,你会陷入不断追赶的疲惫循环。

认知性的学习更持久。理解AI的本质能力和边界、知道如何把模糊需求转化为AI可执行的任务、能够判断AI输出的质量——这些能力不会因具体工具更新而失效。

但更根本的问题在于:会用AI只是手段,不是目的。

如果会用却不知道用它做什么有价值的事,这种能力无法变现。真正的价值在于:你有某种问题意识、某种领域知识、某种判断力,AI是放大这些东西的工具。

这就回到了引言中提出的公式:

想象力 = 问题敏感度 × 可能性认知 × 连接能力

会用AI主要涉及的是可能性认知——知道AI能做什么。但这只是三分之一。另外两个维度——看到问题的能力和把问题与AI连接起来的能力——同样重要,甚至更重要。


一种新型的能力结构

如果AI确实进入了认知领域,那么人的能力结构需要相应调整。

传统的能力结构是金字塔型的。底层是基础技能(读写算、基本操作),中层是专业技能(特定领域的知识和技术),顶层是管理和决策能力(战略规划、资源配置、团队领导)。

这个结构假设的是:大多数人在中层工作,用专业技能执行任务;少数人在顶层工作,做决策和规划。底层是入门门槛,通过教育让所有人跨过。

AI正在改变这个结构。

当AI能完成大量专业执行任务,中层的价值被压缩了。不是说专业知识不重要,而是只有专业知识不再足够。你需要知道如何用专业知识来定义问题、判断AI的输出、做出最终决策——这些是传统上顶层的能力。

换句话说,原来只有少数人需要的定义能力,现在每个人都需要了。

这不意味着每个人都要成为CEO或战略家。而是意味着,即使在执行层面,你也需要更多地参与定义:定义任务的边界、定义质量的标准、定义优先级的排序。AI能做很多事,但它需要有人告诉它做什么和什么算做好。这个人可以是你自己。

与此同时,纯粹的执行工作——那些可以被完全精确描述、不需要判断的工作——会越来越多地交给AI。这类工作不是完全消失,而是价值降低。因为AI做得更快、更便宜、不知疲倦。

这个变化对不同的人意味着不同的事。

工作以执行为主的人需要警惕。不是说会立刻失业,但岗位可能被AI增强——更少的人完成同样的任务量,角色从执行者转为监督者。

工作中包含大量定义成分的人——判断什么问题值得解决、决定如何评估质量、确定优先级和方向——价值反而可能上升。这些能力AI还做不好,执行端效率越高,定义端的稀缺性越凸显。

有深厚领域知识的人同样有机会。你知道行业痛点在哪里、用户真实需求是什么、什么方案在实际中行得通——这些AI无法替代。关键是学会用AI放大你的领域积累。


【自评】你的工作在AI冲击光谱上的位置

理解了这些概念框架之后,还有一个更切身的问题:这些变化具体会如何影响你的工作?

下面提供一个简单的自评方法,帮你定位自己的位置。

第一步:拆解你的工作任务

拿出一张纸,把你日常工作的主要任务列出来。不是职位描述,而是你实际花时间做的事。尽量具体——“处理文档”太笼统,要写成”把客户需求整理成项目文档""审核合同条款”这样的具体任务。

第二步:评估每项任务的AI替代风险

对每项任务,考虑三个维度:AI现在能做到什么程度(完全不行?能出初稿?已经比多数人好?),任务的容错率多高(必须完美?还是允许迭代?),以及标准化程度如何(每次都不同?还是基本重复?)。

AI做得越好、容错率越高、标准化程度越高的任务,被替代风险越大。

第三步:定位你在执行-定义光谱上的位置

问自己几个关键问题:你的工作任务是别人定义好的,还是你自己判断该做什么?质量标准是别人定的,还是你参与制定?你是解决别人发现的问题,还是自己发现问题?

回答越靠近”别人定义、我来执行”这一端,越需要有意识地向定义端移动。

第四步:识别你的不可替代性

列出三件你在工作中做的事,是AI做不了或做不好的。然后问自己:你对行业、市场、客户的理解有多深?这些知识来自书本还是实践?你的判断力来自可以写成规则的知识,还是难以言传的经验直觉?

不需要一一回答。这些问题是给你一个自我审视的方向。每隔半年重做一次这个自评,观察自己在光谱上的移动方向。

这种变化的影响远不止工具层面。下一章来看AI如何改变”定制”的成本结构——当个性化服务不再昂贵,产品的价值不再由制造者决定,而由使用者定义。


这一章说了三件事。AI不需要做到完美,“够用”就足以替代大量认知劳动——这是冲击的来源。每个人的工作都在”执行”到”定义”的光谱上分布,AI从执行端推进,越靠近定义端越安全——这是应对的方向。而判断什么值得做、做得好不好、该往哪走,这些价值性判断AI做不了——这是人的根基。

章节讨论

支持 Markdown

所有留言经 Agent 审核后显示