← 目录
第三部分:突破限制 第8章

第八章:可能性认知

一个移动的目标

ChatGPT刚发布时,很多人试用后的判断是:“有意思,但不太靠谱,用处有限。”

这个判断在当时合理。早期大模型确实问题不少:会一本正经地胡说八道,知识有截止日期,推理能力有限。

但很多人的认知停在了这个判断上。

AI的能力每隔几个月就会跃升一次——感知维度在增加(从文字到图像、语音、视频),推理深度在提升(从简单问答到复杂分析),行动能力在增强(从输出文本到调用工具、执行多步骤任务)。而且跃升往往是突然的:某个版本更新后,之前做不到的事忽然可以做了。如果你一年前试过某个任务觉得AI不行,今天再试结果可能完全不同。

这指向一个关键事实:AI的能力边界是移动的

今年AI做不到的事,明年可能做得到了。今天看起来”不靠谱”的能力,半年后可能变得”相当靠谱”。

认知不跟着移动,你就会错过大量的可能性。

可能性认知的核心正在于此——知道AI能做什么,而且持续更新这个认知。

关于时效性的提醒

需要提醒:AI的能力边界在快速变化。

你现在读到的关于AI能做什么的描述,可能在你读到时已经过时。去年做不了的事,今年也许能做了。今年的水平,明年可能大幅提升。

所以,这一章的重点不是告诉你AI现在能做A、B、C——这些信息很快会过时。重点是帮你建立持续更新认知的方法。把可能性认知当作一个需要持续维护的资产,而非一次性获取的知识。具体怎么做,后面会展开。

需要说明的是,这种持续更新认知的需求,主要针对AI大模型——DeepSeek、豆包、Kimi、ChatGPT、Claude——这类需要你主动驾驭的产品。

相比之下,AI+产品——第一章光谱左边的三类——不需要你持续更新认知。嵌入型和增强型(AI电视、AI空调)在后台自动工作;交互型(智能音箱)虽然需要你发指令,但交互模式相对固定。智能音箱比去年更聪明了?不重要,你还是那样用它——因为产品设计者已经替你定义好了用法。

但AI大模型不同。它的能力边界直接决定你能用它做什么——边界移动了,用法也得跟着变。

2024年底,ChatGPT发布用户年度报告,社交媒体上出现了一波有趣的反馈。一位用户感叹:“我,被AI看到了。而且看得那么透彻。“另一位用户更直接:“GPT是今年最懂我的人。”

这些反应有点夸张,但揭示了一个真实的趋势:很多人在与AI的长期互动中发现,它能做的事情远超最初预期。不只是回答问题、写东西,而是在某种程度上理解你的思维方式,记住你的偏好,给出符合你需求的建议。

这种发现只会发生在持续使用的人身上。停留在它只是个聊天机器人的认知里,永远不会体验到这种可能性。

为什么持续更新认知如此重要?控制论有一个基本原理可以解释:没有信息,就没有控制

你想控制一个系统,首先得知道它的状态——能做什么、不能做什么、当前在什么位置。恒温器需要温度传感器,导航需要GPS,投资需要市场信息。信息缺失或过时,控制就会失效。

对AI的使用也是如此。你对AI能力的了解,就是你控制它的信息基础。知道它能做什么,你才能给它合适的任务;知道它不能做什么,你才不会徒劳地尝试;知道它的能力在变化,你才能及时调整使用方式。

可能性认知本质上就是这样一种信息更新机制。它让你对AI能力的了解保持准确,而非停留在过去某个时点。信息准确,使用才有效。


一、边界在移动

能力边界在哪里移动

前面提到了AI能力扩展的三个方向。但知道规律是一回事,亲身体验是另一回事。很多人看过关于AI进步的文章,知道它越来越强——别人说AI能做某件事,跟你自己动手试过,认知深度差了一个量级。

跟踪能力边界的移动,不需要变成AI研究员。最直接的办法是定期实测:拿之前做不到的任务再试试,看看现在能不能做。偶尔翻翻主流AI工具的更新日志。留意你所在领域的人在用AI做什么新事——同行的实践往往比官方文档更实用。

不需要了解每个版本的所有细节,但需要保持一个习惯:每隔几个月,重新测试一次AI的能力边界。

过时认知的代价

若你的认知停留在某个历史时点,会怎样?

假设你的认知停在大模型刚出现的时期。AI在你眼里就是一个有趣但不靠谱的聊天机器人,不会想到用它来工作,也不会想到它可以处理复杂任务。后来出现的多模态、联网搜索、代码执行、Agent模式——这些可能性对你全部不存在。而每一次能力跃升之间,只隔了几个月。认知停留的时间越长,你错过的可能性空间就越大。

过时的认知让你错过机会。面对一个问题,你想AI做不了这个,但实际上AI已经能做了。因为错误的认知,没有尝试,没有利用,白白错过。

这种错过是静默的。你甚至不知道自己错过了什么。在旧的认知里安稳地待着,不知道外面的世界已经变了。

更新太慢是普遍现象

遗憾的是,大多数人的认知更新速度远远慢于AI能力的进步速度。

这有几个原因。

一是信息过载。关于AI的信息太多了,每天都有新发布、新工具、新进展。普通人没有时间和精力跟踪所有这些,很多人选择不看,停留在某个过去的认知里。

二是实际体验有限。不少人知道AI在进步,但没亲手用过最新工具。看过一些新闻、听过一些讨论,认知停留在抽象层面,很难转化为知道能做什么的具体理解。

三是认知惯性。人们倾向于维持已有印象。一旦形成”AI就是这样”的判断,改变它需要克服心理阻力。新信息往往被忽略或纳入旧框架,而非更新框架本身。

四是负面经验的放大。有些人早期试用AI时体验不好——AI给了错误答案,没完成任务,令人失望。这种负面经验会固化成”AI不行”的印象,阻碍后续尝试和认知更新。

虽然AI能力在飞速进步,大多数人的认知却在缓慢地移动。这个差距意味着:大多数人低估了AI当前的能力


二、如何保持更新

边界在移动,认知也需要跟上。

关注进展

第一步是关注AI领域的进展

不是说要读学术论文、追踪每个技术细节。那是专业人士的工作。

你需要的是概览级别的了解:又出了什么新东西、AI又能做什么了、有什么重要突破。

怎么获取这种概览?

选择几个可靠的信息源。可以是科技媒体、专注AI的公众号或播客、某些KOL的更新。不需要太多,两三个就够了。关键是及时、准确、有筛选地报道重要进展。

定期而非实时。不需要每天追新闻。每周花一两个小时浏览最近的进展,就足以保持大致了解。实时追踪会消耗太多时间,而且大部分信息是噪音。

关注能做什么而非怎么做。不需要理解GPT-5的技术架构,只需要知道它比GPT-4多了什么能力。关注能力变化,不是技术细节。

动手尝试

关注进展是必要的,但不够。真正的理解来自动手尝试

看十篇关于AI的文章,不如自己试一次。

因为知道AI能做什么和理解AI能怎么帮我是两回事。前者是抽象知识,后者是具体体验。从前者到后者,需要实际操作。

怎么动手尝试?

定期探索。给自己设个习惯,比如每周花半小时探索AI的新功能。不是为完成什么任务,纯粹是探索——试试新功能、问问新问题、看看它能做什么。

带着任务尝试。拿一个你工作中的实际任务,试试让AI帮你做。不管成功还是失败,你都会学到东西。成功了,你知道它能做这个;失败了,你知道它的局限。

推边界。不要只做你知道AI能做的事,也要尝试你不确定它能不能做的事。问一个你觉得可能太难的问题,让它做一个你觉得可能做不到的任务。你可能会惊喜,也可能会确认局限。无论哪种,都是有价值的信息。

记录边界

一个特别有价值的习惯是记录AI的边界

边界是什么?就是AI在哪里成功、在哪里失败的分界线。

大多数人只关注AI的成功。看,它能做这个!但失败同样重要,甚至更重要。失败告诉你边界在哪里,成功只是确认你已经知道的。

怎么记录边界?

当AI做得很好,记下来:它做了什么任务?给了什么提示?为什么做得好?

当AI失败,也记下来:它在什么任务上失败了?是什么样的失败——完全做不了,还是做得不够好?失败的原因是什么——是任务太难,还是提示不清楚,还是根本超出能力范围?

积累一段时间后,你会建立起一个能做与不能做的地图。这个地图比任何文章告诉你的都更准确,因为它是你自己的、具体的、基于实际体验的。

而且,这个地图会随时间更新。以前AI做不了的事,现在可能能做了。你会注意到边界在移动,认知保持新鲜。


三、工具组合的艺术

可能性认知不只是知道一个AI能做什么,还包括知道多个工具组合能做什么。

每种工具的长短处

每一个AI工具都有其擅长和不擅长的。

以几个代表性工具为例。ChatGPT/GPT-4是通才型选手,对话、写作、创意、代码、分析都能做,但实时信息和精确计算是弱项。Claude处理长文本、跟随复杂指令表现突出,却无法生成图像。Midjourney专攻视觉创作,艺术风格惊艳,但别指望它精确控制画面细节或生成文字。专用工具如Cursor(编程)、Descript(音视频)在各自领域极强,代价是只能做那一件事。

没有工具是万能的。每个都有其能力边界,有其最擅长的场景。

组合的威力

工具组合的艺术在于:让A的长处弥补B的短处

举个例子。你想做一个演示文稿。

用ChatGPT写大纲和内容——它擅长生成文字和组织结构。 用Midjourney生成配图——视觉创作是它的强项。 用Gamma或其他演示工具整合——排版和设计交给它。

单独用任何一个工具,你可能做不出好演示文稿。但组合起来,几小时内可以做出以前需要几天的东西。

再举个例子。你想分析一份复杂的市场报告。

用Claude处理长文本——它可以分析长达几万字的报告,总结要点。 用GPT-4的代码能力处理数据——若报告有数据,让它帮你做图表。 用联网功能查询相关信息——补充报告中没有的背景资料。

每个步骤用最合适的工具,整体效果远好于只用一个工具。

1+1>2的涌现

有时候,工具组合会产生涌现效应——组合的效果大于各部分之和。

这种涌现来自于:各个工具的能力在某个组合点上相互放大。

一个更具体的例子:内容创作者的AI工作流。

第一步用AI做用户调研——让ChatGPT分析你过去100篇文章的评论,提取高频问题和痛点。单独看,这只是数据整理。

第二步用AI做选题策划——把提取的痛点输入Claude,让它生成20个选题方向并评估每个方向的价值。单独看,这是方案生成。

第三步用AI做内容框架——选定选题后,让AI根据目标读者和痛点设计文章结构。单独看,这是大纲撰写。

第四步用AI生成初稿——把框架展开成完整文章。单独看,这是文本生成。

第五步用AI做内容优化——让另一个AI从读者视角审稿,指出晦涩、跳跃、不够有说服力的地方。单独看,这是文本审查。

单独看,每一步都只是”让AI做一件事”。但把这五步串起来,你得到的是一个从用户需求到成品内容的完整闭环。关键在于:每一步的输出成为下一步的输入,前面的准确性放大后面的效果

用户调研越准确,选题越贴近真实需求;选题越精准,框架越有针对性;框架越清晰,初稿越不跑偏;初稿质量越高,优化的起点越好。环环相扣,最终产出的内容质量远超单独使用任何一个AI工具。

再举一个跨工具类型的例子:数据分析师的混合工作流。

用Python脚本(AI辅助编写)从多个数据源抓取数据,用ChatGPT清洗和标准化这些数据,用Claude分析数据背后的模式并生成洞察,用GPT-4把洞察转化成管理层能理解的叙事,最后用AI生成的可视化图表支撑叙事。

这个流程中,编程工具、文本分析、叙事生成、视觉呈现四种不同类型的AI能力协同工作。每一种都发挥其所长,弥补其他的短处。数据抓取需要精确的代码,AI写;洞察提取需要理解上下文,Claude擅长;管理层沟通需要清晰叙事,GPT-4来做。

识别和创造这种涌现效应,是工具组合的高级形式。它需要你对各个工具的能力有清楚的理解,能够看到它们之间潜在的协同关系。更重要的是,你要能设计出让各环节相互放大的流程——而不只是简单的任务堆叠。


四、两种陷阱

建立可能性认知的过程中,有两个相反的陷阱需要避免。

低估陷阱

低估陷阱是:认为AI做不了某件事,实际上它能做。

这种陷阱在日常中很常见:你觉得内容太复杂AI理解不了,觉得创意工作AI肯定做不好,觉得专业领域AI插不上手——但多数时候,这些判断来自过时的认知或有限的尝试,而不是实际测试。

低估陷阱的根源通常有三个:判断基于一年前的AI而非当前版本;试过一两次没成功就下结论,但可能只是方式不对;对AI能力的理解停在抽象层面,没有具体体验支撑。

代价是错过机会。本来可以用AI解决的问题,你用老方法费力地解决,或者干脆放弃。

避免的办法说来简单:不确定AI能不能做,就试一下。尝试的成本很低——几分钟的事——但机会成本可能很高。一次失败也不等于做不到,换个提示方式、换个工具、换个分解方法,再试一次,结果可能完全不同。

怎么知道自己是否在低估?一个简单的检验:如果你经常说”AI做不到这个""AI肯定不行”,或者很少用AI尝试新任务,很可能陷入了低估。问自己两个问题:我上次测试AI的能力边界是什么时候?我说”做不到”,是基于实际测试还是基于假设?

高估陷阱

高估陷阱是相反的方向:认为AI什么都能做,实际上它有明确的局限。

高估的表现和低估不同——它不是拒绝尝试,而是盲目信任。把重要任务全权交给AI不做检查,对AI输出的事实不加验证,认为AI可以替代专业人士的判断。这种心态往往来自两个方向的推波助澜:AI公司的宣传倾向于强调能力、淡化局限;你用AI做过几件简单任务效果不错,便以为它什么都行。

高估陷阱的后果比低估更直接。你把重要任务交给AI,结果出错,带来时间损失、质量问题,甚至更严重的后果。更隐蔽的代价是信任的崩塌——一旦发现AI表现不如预期,有些人会从”什么都能做”一步跳到”什么都不可靠”,从高估滑入低估。

避免高估,核心是理解AI的根本局限。它会产生幻觉,编造看似合理但错误的信息;它的知识有截止日期;它做的是模式匹配,不是真正的理解;它不能承担责任。知道这些之后,保持验证就成了自然的习惯——重要内容要核实,敏感决策要自己拿主意,把AI当助手而非权威。还有一个容易混淆的地方:AI做很多事情可以”够用”,但”够用”和”优秀”是两回事,别把前者误认为后者。

高估的自我检验也类似:你是否不加验证就相信AI的输出?是否把重要决策完全交给它?当AI出错时,你感到意外吗?如果答案是”是”,说明你对AI的期望偏高了。一个有用的追问:你记得上次AI出错是什么时候?你清楚它在你的领域有哪些具体局限?

期望的周期

技术咨询公司Gartner总结过一个规律,叫技术成熟度曲线(Hype Cycle)。几乎每一种重要的新技术都会经历类似的四个阶段。

第一阶段是期望膨胀期——新技术出现,媒体热炒,预言家说它将改变一切。期望值飙升,远超实际能力。

第二阶段是幻灭期——期望太高,现实追不上。人们开始发现局限和失败案例,“原来没那么神”的声音涌现。期望值暴跌,很多人完全放弃了这项技术。

第三阶段是复苏期——坚持使用的人开始找到正确用法。不是万能的,但确实有用。期望值回到合理水平。

第四阶段是生产力高原——技术进入主流应用,人们既不神化也不低估,只是把它当日常工具使用。

AI正在经历这个周期。2023年初是典型的期望膨胀期——“AGI要来了""程序员要失业了""AI将取代一切”。2024年出现了一些幻灭的声音——“其实它经常出错""没有想象的那么厉害""泡沫要破了”。

理解这个周期的价值在于:不要被周期的波动左右判断。期望膨胀期不要跟风高估,幻灭期不要盲目低估。技术的真实能力在曲线的中间某处,既不像最高点那么神,也不像最低点那么没用。

平衡点

正确的可能性认知在低估和高估之间找到平衡。它要求你准确且及时地知道AI能做什么,基于实际体验而非想象或过时印象;同时清楚它的局限,知道哪里需要人的监督和判断。更细致的一层是区分”能做”和”做得好”——AI能完成的任务里,有些它做得出色,有些只是勉强交差,能分辨这二者,使用才会精准。

可能性认知与用户能力

第三章划分的五个用户层级,核心差异之一就是可能性认知的准确程度。可能性认知越准确,用户能力乘数越高——低估让你错过机会,高估让你浪费时间。

【实操】如何校准你的可能性认知

知道要避免低估和高估是一回事,实际做到是另一回事。这里提供一套具体的认知校准方法,帮你建立准确的可能性认知。

第一步:预测-测试-对比

这是最基础的校准方法。对于你不确定AI能不能做的任务:

  1. 先做预测:尝试之前,问自己AI能完成这个任务吗?给出一个判断(能/不能/不确定),以及信心程度(1-10分)。

  2. 测试:实际让AI做这个任务。认真观察结果。

  3. 对比:对比预测和结果。你预测对了吗?信心程度合理吗?

若你经常预测不能但实际能——你倾向于低估,需要调整。 若你经常预测能但实际不能或质量差——你倾向于高估,需要调整。 若你信心总是很高但经常预测错——你需要更多谦逊。

长期做这个练习,你会发现自己的偏差模式,然后有意识地校正。

第二步:边界测试法

不要只测试你觉得AI肯定能做或肯定做不了的任务,要有意识地测试边界地带。

找那些你觉得可能能做但不确定的任务来测试。这些边界地带的测试最有信息量,因为它们会帮你精确定位AI的能力边界。

例子:

  • 你知道AI能写简单的邮件,但能写需要委婉措辞的敏感邮件吗?测试一下。
  • 你知道AI能做数据分析,但能处理你行业特有的复杂数据吗?测试一下。
  • 你知道AI能生成代码,但能在你的项目架构中写出符合规范的代码吗?测试一下。

每次边界测试,都让你的能力地图更精确。

第三步:建立个人能力清单

花一些时间,建立一个你自己的AI能力清单:

【AI在我的工作领域能做什么】

✓ 肯定能做好的:
- (列出具体任务)

? 能做但需要修改/监督的:
- (列出具体任务)

✗ 目前做不好的:
- (列出具体任务)

⏳ 上次更新时间:____

每隔一两个月,回顾这个清单。把做不好的任务再测试一遍——AI可能已经进步了。这个清单是你个人的、持续更新的可能性地图。

第四步:同行对比法

找一两个也在使用AI的同行,交流彼此的发现:

  • “你用AI做过____吗?效果怎么样?”
  • “我发现AI在____方面特别强/特别弱,你有同样的感觉吗?”
  • “你有什么我可能不知道的用法?”

别人的经验可以快速扩展你的认知边界。你可能发现:有些你没尝试过的用法,别人已经证明可行;有些你以为可行的用法,别人踩过坑。

第五步:定期刷新认知

给自己设一个提醒,每隔1-2个月做一次认知刷新:

  1. 回顾最近AI领域有什么重大进展
  2. 把你清单中做不好的任务重新测试一遍
  3. 尝试1-2个你从来没尝试过的新用法
  4. 更新你的能力清单

这个习惯确保你的认知不会停滞,始终跟上AI的进步。


五、正确的态度

保持好奇,也保持务实

面对AI,一个健康的态度是:好奇但务实。

好奇意味着愿意探索、尝试、更新认知。不因过去的经验停止学习,不因一次失败放弃尝试。对AI进展保持关注,对新的可能性保持开放。

务实意味着不盲目、不狂热、不抱不切实际的期望。清楚AI的局限,保持判断和验证的习惯。把AI当作工具,而非魔法。

好奇让你不会低估,务实让你不会高估。两者结合,是正确的态度。

一个有用的比喻

一个有用的比喻是:把AI当作有能力但需要监督的下属。

这个比喻包含几层意思。

AI有能力——它确实能做很多事情,别小看它。就像能干的下属,可以承担大量工作,你应该充分利用。

AI需要监督——它会出错,需要你检查把关。再能干的下属,也需要管理者审核重要工作。不能完全放手,得保持关注。

AI是下属而非上司——它为你工作,不是你为它工作。你来定义任务、判断结果、做最终决策。AI执行你的意图,不是你执行它的建议。

AI也不是神——它并非无所不能的超级智能,有明确的局限,有做不到的事。不必把它当神来崇拜或恐惧。

这个比喻帮助你建立健康的关系模式:利用AI的能力,但保持自己的主导地位;信任AI做事,但保持监督和判断。

持续学习的心态

可能性认知不是一次性建立的,而是持续更新的。

AI的能力在变,你的认知要跟着变。今天你知道的,明天可能就过时了。

这意味着你需要一种持续学习的心态。最重要的一条是接受自己不知道的事很多,而且会越来越多——这不是焦虑的理由,而是学习的前提。一旦接受了这一点,把学习当作日常习惯而非偶尔的突击就顺理成章了。你面对的环境在持续变化,静止的认知会让你落后。


保持在移动边界上

可能性认知和问题敏感度不同。问题敏感度指向内——你对世界的观察和理解,这种东西变化缓慢,沉淀越久越深厚。可能性认知指向外——AI能做什么、不能做什么,这条边界每隔几个月就会移动一次。

所以可能性认知需要持续更新。不是焦虑地追逐每一个新工具,而是保持一种探索的习惯:偶尔关注AI领域的进展,遇到新任务时想想能不能用AI试试,把成功和失败的经验都记住。时间长了,你对AI能力边界的感知会越来越准。

最容易掉进的坑,一个是低估,一个是高估。低估让你错过机会,高估让你承受损失。好在两者都有简单的解药:动手试。试了才知道行不行,比任何人的说法都可靠。

好奇但务实,信任但验证——大概是和AI相处最健康的姿态。

下一章讨论想象力公式的第三项:连接能力。知道了问题在哪里、知道了AI能做什么,接下来的关键是把两者对接起来。

章节讨论

支持 Markdown

所有留言经 Agent 审核后显示