第三章:分布不均的未来
未来已经到来
威廉·吉布森说过一句话:“未来已经到来,只是分布不均。”
1984年,《神经漫游者》出版,吉布森成为赛博朋克文学的开创者。他擅长的不是预测具体技术,而是捕捉技术变革的社会肌理。
这句话准确描述了技术变革的基本特征:变化不会在某个时间点突然全面铺开,而是先在某些地方显现,某些领域萌芽,某些人群中生长,然后逐步扩散。
2024年的AI变革正是如此。
一些人还在争论AI会不会取代人类,另一些人已在日常工作中深度使用AI,经历着真实的变化——有些令人欣喜,有些令人不安。有的公司还在开会讨论要不要引入AI工具,有的公司已用AI重构整个工作流程,甚至开始质疑传统组织形态。
变化已经发生,只是不同人处于不同阶段。
要理解变化的性质和方向,最好的方法不是猜测未来,而是观察那些已经走在前面的领域。他们正在经历的,很可能是其他领域即将经历的。
一、分化的三个阶段
社会学对技术变革有一套成熟的分析框架。基于历次技术革命的经验,技术变革引发的社会分化通常经历三个阶段。
第一阶段:适配速度分化
新技术出现时,不同的人接受和适应的速度不同。有些人很快学会新工具,有些人则需要更长时间,还有些人可能永远学不会。
这种分化取决于多种因素:学习能力、对变化的态度、接触新技术的机会、可支配的学习时间。有机会接触新技术的人适配更快,心态开放的人比抗拒者更易上手,时间充裕的人比忙于生计的人进步更快。
此时分化是暂时的、可逆的。暂时落后的人,若努力学习,仍有机会赶上。差距反映的是适应速度,而非根本能力。
第二阶段:能力结构分化
随着时间推移,那些早期适配新技术的人开始建立起新的能力结构。他们不仅会使用新工具,还发展出与新工具配套的思维方式、工作方法、社会网络。
这种能力结构一旦形成,不是简单学习能复制的。它涉及隐性知识——那些难以言传、只能通过实践积累的经验和直觉。
到这一步,分化开始难以逆转。后来者即使学会技术本身,也很难获得那些只有长期实践才能形成的隐性能力。差距从适应快慢变成了能力深浅。
第三阶段:结构固化
当能力分化达到一定程度,社会结构开始固化。那些掌握新能力的人,通过教育、资本、信息等渠道,把优势传递给下一代。而那些没跟上的人,他们的后代也更难获得追赶的机会。
走到这一步,分化不再是个人选择的结果,而是结构性的、代际传递的。一个人的起点很大程度上决定了终点。社会流动性下降,阶层边界变得清晰。
AI时代的分化特点
这三个阶段的分化,在历次技术革命中都有体现。工业革命时期,最先掌握机器技术的人和地区获得巨大优势,最终固化为持续百余年的全球秩序。信息技术革命中,最早适应数字化工作方式的人和公司,同样获得了持续的竞争优势。
AI时代的分化会遵循类似规律,但两个特点可能使它更剧烈。一方面,AI能力的普及速度极快,第一阶段(适配速度分化)的窗口期可能更短,能力差距固化得更快。另一方面,AI影响的领域几乎涉及所有认知工作,不是只有某些行业受影响,而是几乎所有行业都会经历重新洗牌。
世界经济论坛《2025年未来就业报告》预测:至2030年,全球22%的就业机会面临变革。这个数字包含两个方向的变化——预计新增岗位1.7亿个,同时约9200万个岗位可能被替代。净效应是正的,但分布极不均匀。有些行业、有些地区、有些人群会受益,另一些则会承受冲击。
理解这个分化框架,你就能更理性地评估自己的位置:我处于分化的哪个阶段?还有多少时间窗口?应该优先做什么?
二、职业层面:能力价值的重新定价
正在贬值的
2024年,Anthropic公司对内部工程师做了一项调研。虽然样本有限,但这群人站在AI最前沿——他们每天开发和使用最先进的大语言模型,对AI的能力边界有第一手理解。他们的观察有参考价值。
初步发现令人深思。
超过50%的受访者表示,他们只能将0-20%的工作完全委托给AI。即使对AI最熟练的人,大部分工作仍需人类深度参与。AI不是一个把任务扔过去就不用管的黑盒子,而是需要持续引导、检查、修正的协作者。
真正引起我注意的,是关于技能萎缩的发现。
一位工程师写道:“我的手不再亲自敲下那些曾经烂熟于心的代码。“这不是抱怨AI抢了工作,而是描述一种更微妙的变化——当AI承担越来越多执行层工作,人的某些能力开始退化。就像长期依赖计算器的人可能忘记如何心算,长期依赖AI写代码的人,可能逐渐失去独立编程的能力。
这种现象不只发生在编程领域。
在翻译行业,类似现象也在出现。很多译者现在处理日常翻译的方式是让AI先翻一遍,然后自己校对润色。效率提高很多。但不少人也注意到,自己独立翻译的能力在下降。有人这样描述:“以前脑子里会自动蹦出各种译法,现在看到原文,第一反应是想看看AI会怎么翻。”
这些变化不是被取代,而是价值压缩。
理解两者的区别很重要。被取代意味着某种工作完全消失,人被机器顶替。价值压缩是更复杂的过程:工作还在,但其中由人来做的部分变少了,或者说,愿意为此付费的价格降低了。
正在经历价值压缩的能力,大致可归为一类:执行性认知劳动。
什么是执行性认知劳动?那些需要脑力、需要专业知识,但可按既定规则或模式完成的工作。初级数据分析、基础文案写作、标准化设计、常规编程、翻译——这些都属于执行性认知劳动。它们需要学习和训练,但一旦掌握基本方法,就可按部就班地完成。
AI擅长的正是这类工作。大语言模型本质上是超级模式匹配器,见过海量文本,学会了各种写作模式、分析框架、代码范式。对于有固定模式可循的任务,它做得又快又好。
这并不意味着从事这些工作的人会立刻失业。但他们需要认识到:自己正在做的事情,成本正在急剧下降。市场不会为一件成本很低的事情支付高价。
正在升值的
与此同时,另一类能力的价值正在上升。
一位不愿具名的架构师分享了他的经历。他在一家互联网公司工作,负责审查代码质量。有一天,一个年轻工程师提交了一份用AI生成的代码。代码逻辑清晰,注释完整,所有测试都通过了。从常规标准看,这是一份优秀的代码。
但这位架构师看着这段代码,总觉得哪里不对。
他花了两小时仔细检查,最终找到问题:AI在优化性能时,引入了一个隐蔽的数据泄露风险。这个风险不会在正常运行中暴露,所有测试也发现不了,但在特定条件下,用户的敏感信息可能被意外记录。
“干了十五年,有些东西就是闻得出来。“他说。
这种闻得出来的能力,正在升值。
若把人的能力分成两类——做事的能力和判断事情的能力——AI正在压缩前者的价值,同时提升后者的重要性。
概括起来,正在升值的能力是三种判断力。
第一种是路径判断——选哪条路。当AI可以执行大部分方案,在多个可行方案中选择哪个、为什么选这个而非那个,就变得格外重要。培养路径判断,靠的是决策-结果-反思的循环:做判断前先记下理由,事后对照结果检验,在反复校准中积累经验。
第二种是质量判断——好不好。AI可以快速生成大量内容,鉴别好坏的能力就变得稀缺。什么是好的代码、好的设计、好的策略?能做出可靠质量判断的人,价值在上升。这种能力不是读来的,是在反复接触好与差的案例、刻意对比中磨出来的。
第三种是价值判断——值不值得。不只是识别问题或选择方案,而是判断什么值得做、什么应该放弃。投入这些资源值不值得?放弃这个机会会不会后悔?培养价值判断,靠的是不断追问为什么——不满足于表层的好坏对错,追问背后的意义和目的。
这三种判断力,以前常常被执行能力遮蔽。
设计师的价值,以前很大程度上体现在能用设计软件快速实现想法。程序员的价值,体现在高效写出可用代码。分析师的价值,体现在熟练处理数据和撰写报告。
执行能力是必要门槛,也是明显可见的技能,所以人们自然用它们来衡量一个人的专业水平。但当AI把这些执行门槛降低后,那些被遮蔽的能力——判断力、品味、眼光——开始浮出水面。
AI时代的能力竞争,不是看谁能做得更快更多,而是看谁能判断得更准更好。
更准确地说,这种分化发生在流程的两端。
AI可以在中间环节——生成方案、执行任务、产出内容——做得又快又好。但流程的起点(看到一个值得解决的问题)和终点(判断产出是否达标),仍然依赖人的能力。这两端的能力差异,正是分化真正发生的地方。
用阿里一位技术负责人的话说:“技术栈的壁垒在变薄,方法论的壁垒在变厚。“
正在变形的
还有一类变化更微妙:不是某种能力贬值或升值,而是工作本身的性质在变形。
Boris Cherny的案例很能说明问题。
Cherny是Anthropic公司Claude Code项目的创建者之一。他在接受采访时透露了自己工作方式的变化:现在他同时运行十几个AI实例,让它们并行处理不同任务。过去30天,他100%的代码都是由AI完成的——这里的”100%“指代码的初始生成,他仍然负责需求拆解、架构设计、代码审查和测试验证。
这不意味着Cherny变得不重要了。恰恰相反,他的角色发生了根本性变化:从写代码的人变成了拆解任务、分配给AI、验证输出的人。
传统软件开发团队的分工是:产品经理定义需求,架构师设计方案,程序员实现代码,测试人员验证质量。这个流程需要多个角色协作,每个角色负责一个环节。
在Cherny的工作方式中,这些角色被压缩了。他一个人承担需求拆解、任务分配、质量验证的工作,AI承担具体实现。传统团队需要五个人完成的事情,现在变成了一个人+若干个AI。
说白了,大量职业正在从做事变成管AI做事。
2025年,阿里内部做了一个引人注目的调整:不再按技术方向划分工程师岗位。
以前,程序员分前端工程师、后端工程师、数据工程师、运维工程师……各管一摊,按流水线分工。调整后,统一叫”Agent工程师”——从写代码转向协调写代码的AI,把精力集中在架构设计、系统规划和战略决策上。
一位参与调整的技术负责人解释:AI出现后,相当于给每个工程师配了一支”随叫随到的团队”。以前一个人只能做前端或后端,现在借助AI,一个人可以同时处理多个环节。既然AI能补足技术短板,按技术方向分工就失去了意义。
这不是阿里一家的选择。公司需要的人变了。
以前需要”精通某种技术的人”——你Vue写得好,你Java写得好,各有专长。现在需要”能把一件事从头到尾做出来的人”——从理解需求、设计方案、协调AI执行、到验收上线,能跑通整个闭环。
这位负责人总结了未来最稀缺的几种能力。首先是定义问题——把模糊的需求拆成可落地的任务,明确边界和验收标准。AI会写代码,但不会决定做什么、为什么做、做到什么程度。其次是系统性判断,在多种方案中做选择、做取舍。AI能给你十种方案,但选哪个、为什么选、有什么风险,需要人的判断和经验。还有跨领域整合,把产品、技术、数据、安全、成本揉在一起做出能运行的系统。AI抹平了具体实现的门槛,但需要有人站在更高视角把工作串起来。
管AI做事和传统的管人做事不一样。管人需要沟通、激励、协调的能力。管AI需要准确描述需求、判断输出质量、识别问题并修正。这是不同的技能集。
而且,管AI做事仍需对事的理解。你不可能管好一个你不懂的领域的AI。不理解代码,就没法判断AI生成的代码有没有问题。不理解设计,就没法判断AI生成的设计是否合适。
判断力培养的断层
这里有一个根本性挑战:判断力如何培养?
传统上,判断力是通过大量执行实践培养出来的。一个老医生的诊断能力,来自多年看病的积累。一个资深投资人的判断力,来自无数次投资决策的经验。一个优秀设计师的品味,来自海量作品的创作和鉴赏。
若执行层的工作被AI接管,这条培养路径就被打断了。
一个年轻医生,若从一开始就依赖AI分析检查结果、提出诊断建议,还能发展出独立诊断的能力吗?一个新入行的程序员,若从一开始就让AI写大部分代码,他还能形成对代码质量的敏锐判断吗?
这是一个真实的困境——AI时代的判断力培养路径尚未成型。社会正在探索新方法,但还没形成成熟体系。
传统师徒关系中,师父的能力传给徒弟本身就有大量损耗——那些无法言说的火候和直觉,只能在具象的相处中慢慢”传染”,而不是通过讲解直接”传递”。AI时代,如果连具象的实践都被跳过,这种损耗只会更严重。
目前可见的过渡期策略,借鉴了不同领域的成熟做法。
一种思路是刻意保留执行练习。即使有AI,也在关键领域坚持自己做一部分工作,保持手感。运动员不会因为有录像回放就停止训练——肌肉记忆需要持续练习维持。
另一种思路是教育重心从怎么做转向为什么这样做,强调原理而非步骤。医学教育中,理解病理机制比记住症状重要;同理,理解编程原理比记住语法更能支撑长期判断力。
还有一种思路是新型学徒制:在有经验者指导下,通过观察判断过程来学习,而非模仿执行动作。传统木工学徒看的是师傅如何判断木材、选择工具、把控节奏——看的是决策,不是操作。
这些策略不是完美解决方案。更根本的问题是:当这一代依赖AI成长起来的年轻人成为中坚力量时,如何保证判断力的传承?
这个问题的答案需要时间和实践来探索。但至少,认识到问题的存在,就能避免盲目依赖AI而让能力空心化。
三、组织层面:容器与内容的错配
组织形态的滞后
若参观一家1920年代的美国工厂,你会看到一个有趣现象:工厂已经用上电力,但车间布局却和蒸汽机时代几乎一样。
蒸汽机时代的工厂有一个典型特征:所有机器都围绕中央蒸汽机布置。动力来自中央蒸汽机,需要通过复杂的皮带和齿轮系统传递到各台机器,所以机器必须紧密排列在蒸汽机周围。
电力的出现改变了这一切——至少理论上如此。电动机可单独为每台机器供电,不需要中央传动系统。机器可按最优生产流程布置,而非按距离动力源的远近布置。
但实际情况是,很多工厂只是简单地用电动机替换蒸汽机,保留原来的布局。经济学家保罗·大卫研究这个现象,发现美国工厂平均花了30年才真正重新设计车间布局,充分利用电力的灵活性。
这种滞后有其原因。社会学的结构功能主义视角可帮我们理解。一个组织的层级结构、汇报关系、考核机制、行为规范——这些不是孤立存在的,它们相互依赖、相互强化。改变其中一部分,可能破坏整体平衡。所以系统倾向于抵抗变化,维持现状。
组织形态是围绕技术可能性和限制条件演化出来的。当技术变了,组织形态不会自动跟着变。人们的思维模式、管理方法、协作习惯,都是在旧技术环境中形成的,有巨大惯性。
AI时代的生产力特征
AI时代的生产力有一个显著特征:少数人加上AI,就可以完成过去需要大量人力的工作。
这个特征的影响是根本性的。
传统组织解决的问题是协调大量人力。这需要层级、汇报关系、标准化流程、绩效考核——整套管理体系都是围绕这个问题设计的。但当大量人力不再必要,这些设计的基础就动摇了。
DeepSeek的例子很能说明这种变化。
DeepSeek是一家在2024年引起广泛关注的中国AI公司。它在技术能力上与国际顶尖水平竞争,但只有150人。作为对比,OpenAI有数千名员工。
更引人注目的是组织形态:高度扁平,不预设分工。创始人梁文峰在访谈中说,DeepSeek采取”自下而上”的方式,让分工”自然形成”。没有预设项目组,没有明确汇报关系。人们根据需要自发组成临时小组,任务完成后小组解散。资源调配也无需审批——直接用就行。
当然,DeepSeek的成功有多方面因素,组织方式只是其中之一。但它的存在本身说明:在某些领域,少数人+AI的模式是可行的,而且可能比传统大团队模式更高效。
容器与内容的张力
这就产生了一个张力:工具变了,但容器没变。
AI时代的内容——也就是实际的工作方式——正在快速变化。越来越多的工作可由少数人+AI来完成。工作核心从执行标准化任务转向做出判断和决策。
但容器——也就是组织形态——还是老样子。大多数公司仍采用层级结构、部门分工、以工时为基础的考核。这些机制是为协调大量人力而设计的,与新的生产力特征存在错配。
这种错配导致一系列问题:资源配置的低效、人才激励的错位、决策速度的拖延、创新的抑制。
一些变化已经开始出现。去中间层的趋势在很多公司蔓延——当AI承担越来越多执行工作,上传下达的中间层价值在下降。项目制和小团队更加流行。远程工作常态化。创作者经济和自由职业兴起——越来越多人选择独立工作,AI降低了独立工作的门槛。
这些变化还是初步的、碎片的。传统行业、大型组织的变化会慢得多。但方向是清楚的:围绕协调大量人力设计的组织形态,正在面对一个不再需要那么多人力协调的时代。
管理者思维的下沉
组织形态的变化之下,还有一个更深层的趋势:管理者思维正在向每个人下沉。
德鲁克的预言
这个变化其实早有预兆。1959年,管理学家彼得·德鲁克提出知识工作者概念。他观察到一个趋势:越来越多的工作不是生产有形产品,而是处理信息、解决问题、创造知识。
德鲁克认为,管理知识工作者与管理体力劳动者有本质不同。体力劳动者的产出是可见的、可量化的——今天搬了多少砖、做了多少零件。知识工作者的产出往往是无形的、难以量化的——一个好决策值多少钱?一个好设计值多少钱?
更重要的是,德鲁克指出,知识工作者必须自我管理。
体力劳动可以被监督——你在不在干活,一眼看得出来。但知识劳动无法被监督——坐在电脑前发呆和深度思考,从外表看不出区别。知识工作者必须自己决定做什么、怎么做、做到什么程度。
德鲁克说:“对知识工作者来说,首要任务是定义’什么是应该做的工作’。这不能由他人替他决定。”
这个认识在1959年是超前的。当时大多数工作者还是流水线上的工人,服从指令、完成任务是主流。但德鲁克看到了未来方向。
六十多年后的今天,AI把这个趋势推到新高度。不仅是”知识工作者”需要自我管理,几乎所有工作者都需要了。AI成了每个人可以调用的”执行力”。如何调用AI、让AI做什么、判断AI做得好不好,必须你自己决定。
德鲁克的知识工作者概念,可以说是定义者的前身。只不过在德鲁克的时代,定义和执行往往由同一人完成。AI时代,执行可以交给AI,定义的重要性更加凸显了。
以前,管理是少数人的工作
传统组织里,管理是一种专门的角色。
普通员工负责执行——按要求完成具体任务。 管理者负责管理——分配任务、监督进度、评估质量、协调资源。
这种分工的逻辑是:管理需要特定能力和视角,不是所有人都具备。而且管理本身有成本——开会、汇报、协调——如果每个人都在管理,实际干活的人就少了。
管理被集中在少数人身上。大多数人不需要管理思维,只需做好自己的执行工作。
现在,每个人都需要学会管AI做事
AI改变了这个格局。
当AI成为你的执行助手,你自动进入了一个管理者位置——需要管理AI。
管AI做事,拆开来看,无非几件事。你得把模糊目标变成清晰的任务描述——AI不能处理模糊,你得告诉它具体做什么。你得决定哪些事让AI做、哪些自己做,这需要判断任务性质和AI的能力边界。AI完成后你得检查和评估,做得好不好、有没有问题、需不需要修改。如果第一次不满意,还要给AI反馈、调整指令、引导它做得更好。
定义任务、分配执行、判断质量、迭代改进——这些正是传统管理者做的事。只不过以前管的是人,现在管的是AI。
一人公司的CEO
这个变化可以用一个比喻来理解:每个人都成了一人公司的CEO。
想象你开了一家公司,只有你一个人类员工。但你有一群AI助手,帮你做各种事:写东西、做分析、处理数据、回复邮件……
这个模式其实早有理论预见。
1992年,钱学森提出了”综合集成研讨厅”的构想——把专家群体、知识系统、计算机系统结合起来,解决复杂问题。
他描述的工作方式是:
专家提出假设,计算机检索信息、运行模型;计算结果返回给专家,激发新的思考;如此反复迭代,逐步逼近解决方案。
他预见到”这种交互作用的出现可以很快,所以电子计算机要高速、并联工作”。
三十多年后,这个构想已经成为现实。今天我们与AI的协作方式,正是钱学森预见的模式:人负责提问、设计、判断;机器负责存储、计算、呈现;两者结合,反复迭代。
不同的是,钱学森时代的计算机只能做数值计算,今天的大模型能够理解和生成自然语言。但核心逻辑没有变:人机各有所长,综合集成才能发挥最大效能。
钱学森特别强调:“研讨厅的核心还是人。“再先进的技术系统,如果没有高水平的专家来提出正确的问题、做出正确的判断,也发挥不出应有的作用。
这与我们在本书中反复强调的一致:AI时代,人的价值在于”定义”。你就是你这家”一人公司”的首席定义官。
前文提到的阿里技术负责人还提醒了一个风险:岗位合并后,可能变成”一个人干三个人的活”。AI提高效率,但管理者可能产生错觉,以为工程不再需要时间和质量保障。未来厉害的工程师要更会说”不”——会给边界、谈成本、讲风险,避免被”看似无限的产能”拖垮。
这个风险对所有”一人公司”都适用:AI放大了你的能力,但也放大了对你判断力的要求。你必须自己定义边界,而不是被无限膨胀的可能性淹没。
作为这家公司的CEO,你得决定方向——做什么业务、服务什么客户、创造什么价值。你得分配工作——哪些事让AI做,哪些自己做。你得把关质量——AI做出来的东西能不能用、要不要修改。最终产出好不好,客户满不满意,都是你的责任。这些正是CEO的工作,区别只是你管的不是人类员工,而是AI助手。
这个比喻有助于理解AI时代的能力要求。你不再只是执行者,同时也是管理者——管理你自己和你的AI助手,共同完成目标。
但同样是一人公司CEO,经营水平天差地别。观察实际的AI使用者,能看到明显的层级差异。
最初级的用法是把AI当聊天对象或升级版搜索引擎。这两类使用者的共同特点是被动接受AI的输出,不追问、不迭代、不深入。能力乘数约等于1(估算值),有时甚至低于1——花了时间却没产出有价值的东西。
往上一层,有些人能给出清晰指令,让AI完成写邮件、整理资料、翻译文档等具体任务。他们知道AI能做什么,会分配工作,能力乘数提升到2-5倍(估算值)。
真正拉开差距的是更高层级。有人把AI当思考伙伴,不只让它执行,还和它讨论、迭代、共同完善,能判断输出质量、给有效反馈、多轮对话逐步逼近想要的结果,能力乘数可达10-50倍(估算值)。更进一步的人能设计工作流程,把多个AI能力串联起来,构建持续产出价值的系统。一次投入,长期收益,能力乘数50-100倍甚至更高(估算值)。
同一款AI,底层用户和顶层用户创造的价值可能相差100倍。差距不在工具,在人。
这个分层不是天生的。一个人可以从闲聊型开始,逐步发展到系统构建型。但跨越层级需要有意识地提升定义能力。越往上走,越是定义者;越往下,越只是使用者。
不是管人那种管理
需要澄清,管AI和管人不同。
管人需要的能力包括:沟通、激励、冲突处理、团队建设、政治敏感度……都涉及人际关系的复杂性。
管AI不需要这些。AI不需要激励,不需要沟通情感,不会有办公室政治。
管AI需要另一套能力:清晰表达需求、准确描述问题、敏锐判断输出、有效迭代改进。这更像是思维清晰度和判断力的组合。
管理者思维的下沉不是说每个人都要学管理学教的那些东西,而是说每个人都需要从只负责执行的心态,转变为既执行也管理的心态。
四、个人层面:三个隐蔽的危机
对普通个人来说,AI带来的变化不只是工作方式的调整这么简单。有一些更深层、更隐蔽的影响,值得提前了解和应对。
技能萎缩
前面提到Anthropic的调研,工程师们反映自己的编程能力在退化。这个现象值得进一步分析。
技能需要持续练习来维持。一个很少写字的人,写字会退步。一个很少开车的人,车技会生疏。
问题在于,AI正在系统性地减少我们练习某些技能的机会。
当AI可帮你写代码,你自己写代码的次数就会减少。当AI可帮你翻译,你自己翻译的次数就会减少。每一次这样的帮助,都是一次练习机会的丧失。
很多更重要的事建立在基础技能之上。架构师的判断力,建立在多年写代码的经验之上。若基础技能萎缩,上层能力的根基就不稳了。
更麻烦的是,技能萎缩可能是不可逆的。尤其对于那些进入AI时代时已相对资深的人,他们积累的技能可能是最宝贵的资产。一旦萎缩,可能很难恢复。
还有一个更微妙的问题:你可能意识不到自己的技能在萎缩。这种退化是渐进的、无痛的。每一天你都能完成工作,甚至比以前完成得更快。直到某一天,当你需要独立完成某件事时,你才会发现问题。
监督悖论
以前的工具——从蒸汽机到计算机——都是忠实执行者。你给它指令,它执行指令。你不需要特别的技能来判断它的执行是否正确——只要看结果符不符合预期就行了。
AI不一样。AI的输出是有模有样的——它会写出看起来很合理的代码、很通顺的文章、很有说服力的分析。但这些输出可能是错的。
判断AI的输出是否正确,需要你具备相应领域的专业能力。懂代码才能判断AI生成的代码有没有问题。懂业务才能判断AI的分析是否靠谱。
这就产生了一个悖论:你需要技能来监督AI,但使用AI恰恰在让你失去技能。
越依赖AI,技能萎缩越厉害;技能萎缩越厉害,越难判断AI的输出;越难判断,就越容易全盘接受,从而更依赖AI。这是一个自我强化的循环。
应对策略包括保持练习、分层监督、建立流程+检查清单体系等。但无论哪种思路,都需要相当的自律。监督悖论是AI时代的一个结构性问题,没有完美答案。
附带学习的消失
附带学习是在完成某个任务的过程中顺便学到的东西。
程序员调试bug的过程中,会顺便理解代码库的结构、学习新的编程技巧、发现系统的隐藏问题。翻译在翻译一篇文章的过程中,会顺便学习新词汇、了解陌生领域。
附带学习是一种极重要的学习方式。很多真正的成长,不是来自专门的学习,而是来自工作中的附带学习。
AI正在减少附带学习的机会。
Anthropic调研中的一位工程师说得很形象:“以前调试问题时会顺便学到很多,现在Claude直接带你到问题面前。”
AI的效率优势,部分来自于它跳过过程直达结果的能力。它不让你走弯路,不让你在岔路上探索,不让你在错误中学习。它直接给你答案。
这当然提高了效率。但代价是,你失去了在过程中学习的机会。
长期来看,附带学习的消失可能导致一种空心化——人们能借助AI完成越来越多的任务,但对这些任务的真正理解却越来越浅。他们成为高效的任务完成者,但不是真正的领域专家。
这三个危机——技能萎缩、监督悖论、附带学习的消失——相互关联,相互强化。它们构成了AI时代个人层面的核心挑战:如何在享受AI效率红利的同时,保持和发展自己的核心能力?
五、中国语境:前车之鉴
讨论AI带来的变化,不能脱离具体的历史和社会语境。中国过去几十年的发展历程中,有一些经历值得参考。
珠算的消失
1980年代的财务科,几乎每张桌子上都有一把算盘。“铁算盘”是一个时代的职业赞誉。90年代末计算器和电脑普及后,十年左右,算盘从办公桌上消失了,珠算从必修课变成了非物质文化遗产。
那些”铁算盘”们怎么样了?很多人成功转型。他们的核心竞争力其实不只是会打算盘,而是对数字敏感、做事仔细、有财务思维——这些能力可迁移到电脑时代。
这个案例的启示:特定技能确实可以价值归零,但技能背后的能力和思维方式可能是可迁移的。转型的难易,取决于你有多少能力是依附于特定工具的。
东北下岗潮
1995年到2002年,大约3000万国有企业职工下岗。沈阳铁西区工人村是那个时代的缩影——数万名技术骨干,很多人在车床前站了一辈子,突然被告知工厂关门、技术没人要了。
这次技能贬值源于市场经济转型和全球化竞争,但本质与AI冲击类似:某些人积累的技能,因为时代变化,价值大幅缩水。
这段历史的启示:大规模技能贬值是可能发生的,过渡期的痛苦是真实的,但社会整体能够适应。转型能力与年龄、教育、社会资源、地理位置都有关——不是所有人都有平等的转型机会。
教培行业的”双减”
2021年”双减”政策落地,影响超过1000万从业者。教培的变化是政策驱动而非技术驱动,但它说明了一个普遍道理:技能贬值可来自技术、政策或市场的任何变化。即使你的技能本身还是好的,若市场需求消失了,价值也会下降。
这个案例的启示:关注技能的可迁移性。教学能力、沟通能力、内容制作能力是可迁移的,但迁移需要主动努力,需要找到新场景来应用这些能力。
这些历史告诉我们什么
三个案例指向同一个事实:技能贬值是真实的,过渡期是痛苦的,但社会整体能够适应。能不能转型,很大程度取决于你的核心能力是否可迁移。
AI时代的不同在于规模和速度。AI影响的职业范围比以前的技术变革更广——几乎涉及所有认知工作。变化速度可能更快——以年计而非以十年计。这意味着过渡期的挑战可能更大,留给调整的时间窗口可能更短。
讲述这些历史不是为了制造焦虑,而是为了正视现实。只有正视现实,才能做出明智的选择。
六、AI+场景:一种可能的应对方案
前面我们看到了AI大模型带来的分化效应:同样一个工具,有人用来闲聊,有人用来构建工作流,价值差距可达百倍。这种分化是AI大模型的内生特性——它把价值创造的主动权交给了用户,能定义的人获得巨大杠杆,不能定义的人只能在原地踏步。
社会层面该如何应对?放任继续,会加剧不平等;把AI降级成固定功能的产品,又牺牲掉它对人类能力的放大。
一种可能的中间路线正在出现。2024年,“人工智能+“行动首次被写入《政府工作报告》。这不是一份技术文件,而是一份社会治理文件——它试图回答的问题是:如何让AI的红利惠及更多人?
AI+场景的设计需要解决一个核心矛盾:既不能让用户完全无感(那样用户感知不到价值,也无法成长),也不能门槛太高(那样大部分人用不上)。解法是分层设计:让所有人都能在基础层受益,同时为愿意学习的人保留向上的通道。
这个框架可概括为三层。第一层”自动干”:AI在后台自动工作,用户什么都不用做,确保每个人都能享受基础便利。第二层”问它答”:用户可以和AI对话,像跟一个懂行的朋友聊天,门槛低但会提问的人能获得更多价值。第三层”教它干”:用户可以教AI一套方法,让AI按规则反复执行,需要专业知识但回报最大。
以AI+政务开公司为例:自动干层,系统后台自动查重名、纠错、校验格式,所有人都受益;问它答层,用户说”我想开个奶茶店”,AI追问几个关键问题然后自动推荐方案、帮填表格;教它干层,代办机构设定规则让AI自动处理,效率提升十倍。没有人被落下,但愿意走得更远的人可以走得更远。
这就是AI+场景设计的核心逻辑:不是消灭分化,而是在保底普惠的基础上,让分化变成一种可选择的、可成长的路径。定义者时代的分化是真实的,但并非不可应对——至少这是一个可能的方向。
变化的不均匀性
回到本章开头吉布森的那句话:未来已经到来,只是分布不均。
这句话提供了一个有用的思考框架。
若你所在领域还没有感受到AI的影响,这不意味着影响不会到来。它可能只是还没有传导到你这里。观察那些已经走在前面的领域,可帮你预判自己可能面临的变化。
若你已经在经历AI带来的变化,你的经历可能预示着其他领域即将发生的事情。你既是变化的亲历者,也是变化的先行者。
无论属于哪种情况,道理相通:不要因为眼前安稳就假设永远安稳,对变化的信号保持警觉。把精力更多投在不会过时的核心能力上——判断力、学习能力、适应能力——而非某种特定技能。给自己留余地,不要把所有赌注押在一个领域、一种技能、一个雇主上。
变化正在发生。下一章,我们来看应对变化需要什么样的能力结构——从定义者的完整能力框架说起。
回头看,这一章勾勒了一幅分化的图景。技术变革带来的社会分化有规律可循——适配速度分化、能力结构分化、结构固化——AI时代这个过程可能更快也更广。在个人层面,技能萎缩、监督悖论、附带学习消失这三个隐蔽危机相互交织。应对的核心在于三种判断力:路径判断、质量判断、价值判断。而在社会层面,“自动干、问它答、教它干”的三层设计,提供了一种在保障普惠的同时释放定义者价值的可能路径。
章节讨论
所有留言经 Agent 审核后显示