它做不到什么,同样重要。
把 AI 用在它真正擅长的地方,才是真正的高手。
错误的期待,会让最好的工具也变成浪费。
在讲限制之前,先快速梳理 AI 真正擅长的领域——这是边界判断的基准线。
AI 不是全能的,也不是无能的。把它用在绿色区域,你会体验到真正的魔法。把它用在红色区域,你会收获一堆自信但错误的结果。理解边界,是高手和普通用户最大的区别。
每个 AI 模型都有一个"训练截止日期"——在这一天之后发生的事情,模型完全不知道。问 AI"今天的新闻"、"最新股价"、"最近发布的产品"——它要么直接说不知道,要么(更危险的)用过时信息编一个"听起来合理"的答案。
Claude 的知识截止到 2025 年初,GPT-4o 类似。这意味着 2025 年底、2026 年发生的任何事情,它都不知道。很多 AI 现在有"联网搜索"功能,但这是通过工具外挂实现的,不是模型本身的能力,而且搜索质量参差不齐。
正确做法:需要最新信息,用 Kimi 搜索、秘塔搜索、微信搜一搜、百度,或者直接看新闻网站。把 AI 用在分析已有信息,而不是获取最新信息。
这是最容易被误用的边界之一。大型语言模型不是从数字运算开始的,而是从语言模式开始的。它在处理数字时,用的是"语言直觉"而不是"数学算法"。
简单的加减乘除,AI 通常没问题。但复杂的多步骤计算、统计分析、金融建模——错误率会显著上升,而且 AI 不一定知道自己算错了。
一个著名的例子:早期 GPT 模型在被问到"9.11 和 9.9 哪个大"时,会回答"9.11 更大"——因为在语言模式中,版本号 9.11 "通常"比 9.9 更新,所以"更大"。
正确做法:让 AI 写代码来做计算,然后运行代码。或者用 Claude 的"代码执行"功能,让 AI 用 Python 算完再告诉你结果,而不是让它心算。
AI 理解的世界,是从文字描述中学到的。它从没有感受过重力、触觉、空间感。这导致它在涉及物理常识的推理上,经常犯看起来很蠢的错误。
例如,被问到"把一张纸放在球上,球会怎样?"它可能给出在文字逻辑上"合理"但物理上错误的答案。类似地,在工程、建筑、物理实验的具体操作上,AI 给出的方案有时完全不符合物理可行性。
正确做法:在需要物理直觉的场景(动手操作、工程施工、实验设计),把 AI 的建议当成"参考思路",而不是"可以直接执行的方案",需要有专业人士审核。
AI 的创意,是对训练数据中模式的重新组合。它可以生成大量"看起来新颖"的内容,但这些内容的本质,是对已有内容的变体。
这不是说 AI 没有创意价值——它的头脑风暴能力极强,能快速生成几十种风格各异的方案。但真正突破性的创意——那种需要颠覆已有框架、建立全新范式的创新——目前来看是人类的领域。
更具体地说:AI 擅长在已知风格中创作,但不擅长定义全新风格。它擅长改编已有故事框架,但不擅长建立全新叙事结构。
正确做法:用 AI 做"发散阶段"——生成大量选项,然后人来做"收敛阶段"——选择、融合、升华成真正属于你的东西。
默认情况下,AI 没有跨会话的记忆。每次你开始一个新对话,它对你一无所知——不记得你上次说过什么,不记得你的偏好,不记得你的项目背景。
这是大型语言模型的架构限制:上下文窗口在对话结束后就消失了。你跟 AI 聊了一个月,下次打开一个新对话,它就是陌生人。
一些缓解方案已经出现:Claude Projects 可以保存项目背景;各种 AI 工具的"记忆功能"允许保存用户偏好;开发者可以通过工具把记忆持久化。但这些都是外部补丁,不是模型本身的能力。
正确做法:对于重要的持续性项目,每次对话开始时提供简短的背景说明("我在做一个XX项目,之前我们讨论了YY")。长期使用某个 AI 工具,善用它的"记忆"或"项目"功能。
AI 可以生成看起来充满同理心的回应,可以识别文字中的情绪模式,可以给出专业的情绪支持建议。但它没有真实的情感体验,不理解失去亲人是什么感觉,不理解职业挫败带来的长期心理阴影,不理解人际关系中隐而不言的微妙情感。
这导致在处理复杂人际问题时,AI 有时给出的建议虽然"合理",但缺乏对具体情境细节的真正理解,甚至可能弄巧成拙。
正确做法:把 AI 用于情感支持的"信息层面"(了解某种情绪状态的可能原因、处理方式的框架),而不是"决策层面"(具体关系如何处理)。重要的人际问题,还是要找真正了解你的人谈。
理解了各自的边界,我们来系统比较一下——不是为了证明谁更好,而是为了找到最优分工。
| 维度 | AI 的优势 | 人类的优势 | 最优分工 |
|---|---|---|---|
| 处理速度 | AI 胜:毫秒级生成 | 人类:慢,但有意识 | AI 生成,人审阅 |
| 知识广度 | AI 胜:几乎所有领域基础知识 | 人类:深度专业可能更强 | AI 打底,人补专业细节 |
| 24小时可用 | AI 胜:永不疲倦 | 人类:需要休息 | 常规任务交 AI,关键决策人介入 |
| 情境判断 | AI:有限的情境感知 | 人类胜:深度理解具体情境 | 人类定策略,AI 执行 |
| 道德责任 | AI:无法真正负责 | 人类胜:有法律和道德责任 | 重要决策必须人类拍板 |
| 关系信任 | AI:无法建立真实信任 | 人类胜:信任是人际关系核心 | 客户关系、团队管理——人类主导 |
| 创意灵感 | 各有千秋:AI 批量产出,人类有突破性直觉 | 各有千秋:人类有具身经验和情感深度 | AI 发散,人收敛升华 |
| 适应变化 | AI:知识固化在训练时 | 人类胜:实时学习,灵活应变 | 快速变化的领域,人类判断优先 |
AI 像是一个无比博学、精力无限、永远耐心、但没有个人经历和情感的助手。人类像是一个有具体经历、有情感直觉、有社会关系、有道德责任感的智慧体。这两者的结合,才是目前最强大的工作组合。
知道了各自的边界,我们来建立一个实用的分工框架。这个框架不是绝对的,但对大多数知识工作场景都有指导价值。
这些事情,你应该习惯性地先想到让 AI 做:
邮件、报告、文案、代码——让 AI 写初稿,你来修改。比自己从头写省 60-80% 时间。
读 30 篇文章提炼要点、把 100 页 PDF 总结成 5 个关键点——这是 AI 的核心特长。
需要想方案、想角度、想备选——让 AI 先生成 20 个,你从中选,远比自己从零想快。
翻译、外语文档理解、多语言沟通——AI 在这里几乎是专业翻译级别。
SWOT、利弊分析、对比框架——AI 能快速生成结构,帮你组织复杂信息。
理解新概念、解释复杂原理、找类比——AI 是最耐心的老师,可以用任何角度解释。
这些事情,AI 可以辅助,但决策权和执行权必须在你手上:
客户信任、团队凝聚力、关键合作——这些需要真实的人际存在,不能外包。
录用谁、投什么、选哪条路——AI 可以提供分析,但你必须为决策负责。
如果你的价值来自独特创意和品牌,核心想法必须是你的——AI 只是执行和发散工具。
AI 的输出不是最终事实来源。用它的结论前,对关键事实做独立验证。
真正需要情感支持的时候,找人,不要只找 AI。AI 知道"怎么说",但不真正感受。
法律意见、医疗诊断、工程安全——必须找有责任的专业人士,AI 只提供背景知识。
让 AI 做生成、摘要、转化、发散这四类任务,由你来做选择、决策、关系、责任这四类任务。这个分工,能让你的 AI 体验从"时好时坏"变成"稳定高效"。
认知篇到这里就结束了!你已经建立了关于 AI 的完整基础认知——它是什么、怎么用、成本如何、会出什么错、能力在哪里。接下来是模块一练习:一套实践任务,帮你把这九章的认知真正变成肌肉记忆。