第三章:分布不均的未来
未来已经到来
威廉·吉布森说过一句话:“未来已经到来,只是分布不均。”
这句话准确描述了技术变革的基本特征:变化不会在某个时间点突然全面铺开,而是先在某些地方显现,某些领域萌芽,某些人群中生长,然后逐步扩散。
2024年的AI变革正是如此。一些人还在争论AI会不会取代人类,另一些人已在日常工作中深度使用AI。有的公司还在开会讨论要不要引入AI工具,有的公司已用AI重构整个工作流程。变化已经发生,只是不同人处于不同阶段。
要理解变化的性质和方向,最好的方法不是猜测未来,而是观察那些已经走在前面的领域。
分化的三个阶段
技术变革引发的社会分化通常经历三个阶段。
第一阶段是适配速度分化。新技术出现时,不同的人接受和适应的速度不同。此时分化是暂时的、可逆的——暂时落后的人若努力学习,仍有机会赶上。
第二阶段是能力结构分化。早期适配者不仅会使用新工具,还发展出配套的思维方式、工作方法和隐性知识。到这一步,分化开始难以逆转。后来者即使学会技术本身,也很难获得只有长期实践才能形成的隐性能力。
第三阶段是结构固化。掌握新能力的人通过教育、资本、信息等渠道把优势传递给下一代。社会流动性下降,阶层边界变得清晰。
AI时代这个过程可能更剧烈——能力普及速度极快,第一阶段窗口期更短;影响范围几乎涉及所有认知工作,不是只有某些行业受冲击。世界经济论坛《2025年未来就业报告》预测:至2030年,全球22%的就业机会面临变革——预计新增1.7亿个岗位,同时约9200万个可能被替代。净效应是正的,但分布极不均匀。
职业层面:能力价值的重新定价
正在贬值的
2024年,Anthropic公司对内部工程师做了一项调研。超过50%的受访者表示,他们只能将0-20%的工作完全委托给AI。即使对AI最熟练的人,大部分工作仍需人类深度参与。
真正引起我注意的,是关于技能萎缩的发现。一位工程师写道:“我的手不再亲自敲下那些曾经烂熟于心的代码。“这不是抱怨AI抢了工作,而是描述一种更微妙的变化——当AI承担越来越多执行层工作,人的某些能力开始退化。
这些变化不是被取代,而是价值压缩。被取代意味着工作完全消失。价值压缩更复杂:工作还在,但其中由人来做的部分变少了,愿意为此付费的价格降低了。
正在经历价值压缩的,大致是一类:执行性认知劳动——需要脑力和专业知识,但可按既定规则或模式完成的工作。初级数据分析、基础文案、标准化设计、常规编程、翻译——它们需要学习和训练,但有固定模式可循。AI擅长的正是这类工作。
正在升值的
一位架构师分享了他的经历。他负责审查代码质量。有一天,一个年轻工程师提交了AI生成的代码——逻辑清晰,注释完整,所有测试通过。从常规标准看,这是优秀的代码。
但他看着这段代码,总觉得哪里不对。
花了两小时仔细检查,他找到问题:AI在优化性能时引入了一个隐蔽的数据泄露风险。正常运行不会暴露,所有测试也发现不了,但在特定条件下,用户敏感信息可能被意外记录。
“干了十五年,有些东西就是闻得出来。“他说。
这种”闻得出来”的能力,正在升值。若把人的能力分成做事的能力和判断事情的能力,AI正在压缩前者的价值,同时提升后者的重要性。
概括起来,正在升值的是三种判断力。路径判断——在多个可行方案中选择哪个、为什么选这个而非那个。培养靠决策-结果-反思的循环。质量判断——AI可以快速生成大量内容,鉴别好坏的能力变得稀缺。这种能力在反复接触好与差的案例、刻意对比中磨出来。价值判断——判断什么值得做、什么应该放弃。培养靠不断追问为什么——不满足于表层的好坏对错,追问背后的意义和目的。
这三种判断力,以前常被执行能力遮蔽。设计师的价值以前体现在能快速实现想法,程序员的价值体现在高效写代码。执行能力是明显可见的技能,人们自然用它来衡量专业水平。但当AI把执行门槛降低,那些被遮蔽的能力——判断力、品味、眼光——开始浮出水面。
用阿里一位技术负责人的话说:“技术栈的壁垒在变薄,方法论的壁垒在变厚。“
正在变形的
还有一类变化更微妙:不是某种能力贬值或升值,而是工作本身的性质在变形。
Boris Cherny是Anthropic公司Claude Code项目的创建者之一。他现在同时运行十几个AI实例并行处理不同任务。过去30天,他100%的代码都是AI完成的——这里的”100%“指初始生成,他仍然负责需求拆解、架构设计、代码审查和测试验证。他的角色从写代码的人变成了定义任务、分配给AI、验证输出的人。
2025年,阿里做了一个引人注目的调整:不再按技术方向划分工程师岗位。以前分前端、后端、数据、运维,各管一摊。调整后统一叫”Agent工程师”——从写代码转向协调写代码的AI。一位技术负责人解释:AI相当于给每个工程师配了一支”随叫随到的团队”,按技术方向分工就失去了意义。公司需要的不再是”精通某种技术的人”,而是”能把一件事从头到尾做出来的人”。
说白了,大量职业正在从”做事”变成”管AI做事”。管AI和管人不同——不需要沟通情感、处理冲突、团队建设,但需要清晰表达需求、准确描述问题、敏锐判断输出、有效迭代改进。而且管AI做事仍需对事的理解——不懂代码就没法判断AI生成的代码有没有问题。
组织层面:容器与内容的错配
参观一家1920年代的美国工厂,你会看到一个有趣现象:工厂已经用上电力,但车间布局和蒸汽机时代几乎一样。电动机可以单独供电,工厂完全可以按最优流程布置,但很多工厂只是简单地用电动机替换蒸汽机,保留原来布局。经济学家保罗·大卫发现,美国工厂平均花了30年才真正重新设计布局。
AI时代面临同样的滞后。少数人加上AI,就可以完成过去需要大量人力的工作——DeepSeek只有150人,技术能力与OpenAI数千名员工竞争。但大多数组织仍采用层级结构、部门分工、以工时为基础的考核。这些机制是为协调大量人力设计的,与新的生产力特征存在错配。
变化已经开始出现:去中间层、项目制、小团队、远程工作、创作者经济兴起。方向是清楚的:围绕协调大量人力设计的组织形态,正在面对一个不再需要那么多人力协调的时代。
这背后有一个更深的趋势。1959年德鲁克提出知识工作者概念时就指出:“对知识工作者来说,首要任务是定义’什么是应该做的工作’。这不能由他人替他决定。“六十多年后,AI把这个趋势推到新高度。AI成了每个人可以调用的”执行力”,如何调用、让它做什么、判断做得好不好,必须你自己决定。每个人都成了一人公司的CEO。
钱学森在1992年提出”综合集成研讨厅”时就预见了这种工作模式:专家提出假设,计算机检索信息、运行模型;结果返回给专家,激发新思考;如此反复迭代,逐步逼近解决方案。他特别强调”研讨厅的核心还是人”。今天我们与AI的协作方式,正是他预见的模式。
但阿里那位技术负责人提醒了一个风险:AI提高效率后,管理者可能产生错觉,以为工程不再需要时间和质量保障。未来厉害的人要更会说”不”——给边界、谈成本、讲风险,避免被”看似无限的产能”拖垮。
三个隐蔽的危机
对个人来说,AI带来的变化不只是工作方式的调整。有一些更深层的影响,值得提前了解。
第一个危机是技能萎缩与培养断层。技能需要持续练习来维持。当AI帮你写代码,你自己写代码的次数就减少;帮你翻译,你自己翻译的次数就减少。每一次帮助,都是一次练习机会的丧失。更麻烦的是,这种退化是渐进的、无痛的——每天你都能完成工作,甚至比以前更快,直到某天需要独立完成某件事时才发现问题。
更深层的问题是培养路径被打断。传统上,判断力通过大量执行实践培养——老医生的诊断能力来自多年看病积累,资深投资人的判断来自无数次决策经验。若执行层工作被AI接管,新人如何培养判断力?目前可见的过渡策略包括:刻意保留执行练习(运动员不会因为有录像回放就停止训练),教育重心从”怎么做”转向”为什么这样做”,以及新型学徒制——在有经验者指导下观察判断过程而非模仿执行动作。
第二个危机是监督悖论。以前的工具是忠实执行者,看结果符不符合预期就行。AI不一样——它的输出有模有样,看起来很合理的代码、很通顺的文章可能是错的。判断对不对,需要你具备相应的专业能力。悖论在于:你需要技能来监督AI,但使用AI恰恰在让你失去技能。越依赖,技能萎缩越厉害;越萎缩,越难判断;越难判断,越容易全盘接受。这是一个自我强化的循环。
第三个危机是附带学习的消失。附带学习是完成任务过程中顺便学到的东西——程序员调试bug时顺便理解代码库结构,翻译在译文中顺便学习新词汇。Anthropic调研中一位工程师说得形象:“以前调试问题时会顺便学到很多,现在Claude直接带你到问题面前。“AI跳过过程直达结果,效率提高了,但你失去了在过程中学习的机会。长期来看可能导致空心化——人们能借助AI完成越来越多任务,但对这些任务的真正理解越来越浅。
这三个危机相互关联、相互强化。应对的核心在于自觉:在享受AI效率红利的同时,有意识地保持和发展核心能力。
中国语境:前车之鉴
中国过去几十年的发展历程中,有几段经历值得参考。
1980年代的财务科,几乎每张桌子上都有一把算盘。“铁算盘”是一个时代的职业赞誉。计算器和电脑普及后,十年左右,珠算从必修课变成了非物质文化遗产。但很多”铁算盘”成功转型——他们的核心竞争力不只是打算盘,而是对数字敏感、做事仔细、有财务思维。启示:特定技能可以价值归零,但技能背后的能力和思维方式可能是可迁移的。
1995年到2002年,大约3000万国有企业职工下岗。沈阳铁西区工人村是那个时代的缩影——数万名技术骨干突然被告知工厂关门。启示:大规模技能贬值是可能发生的,过渡期的痛苦是真实的,但社会整体能够适应。转型能力与年龄、教育、社会资源、地理位置都有关——不是所有人都有平等的转型机会。
2021年”双减”政策影响超过1000万从业者。教培的变化是政策驱动而非技术驱动,但它说明:即使技能本身还好,若市场需求消失了,价值也会下降。启示:关注技能的可迁移性。
三个案例指向同一个事实:技能贬值是真实的,但能不能转型,很大程度取决于核心能力是否可迁移。
AI+场景:一种可能的应对
社会层面该如何应对分化?放任继续会加剧不平等;把AI降级成固定功能的产品,又牺牲掉它对人类能力的放大。
一种中间路线正在出现。2024年,“人工智能+“行动首次被写入《政府工作报告》。核心框架可概括为三层:“自动干”——AI在后台自动工作,确保每个人都享受基础便利;“问它答”——用户可以和AI对话,门槛低但会提问的人获得更多价值;“教它干”——用户教AI一套方法让它反复执行,需要专业知识但回报最大。
以AI+政务为例:自动干层,系统后台自动查重名、纠错、校验格式,所有人受益;问它答层,用户说”我想开个奶茶店”,AI追问关键问题后推荐方案、帮填表格;教它干层,代办机构设定规则让AI自动处理,效率提升十倍。没有人被落下,但愿意走得更远的人可以走得更远。
不是消灭分化,而是在保底普惠的基础上,让分化变成可选择的、可成长的路径。
变化已经发生,分布不均,方向清楚。真正的问题不是”AI会不会影响我”,而是”我处在分化的哪个阶段,下一步该怎么走”。后面几章讨论的能力框架,就是为了回答这个问题。
章节讨论
所有留言经 Agent 审核后显示