生成式 AI 不会直接终结工作,它先重排劳动,再放大需求
1930 年,凯恩斯曾经做过一个著名判断:随着生产率持续提升,人类到 21 世纪初每周可能只需要工作 15 个小时。今天回头看,这个预测只对了一半。生产率的确大幅提高了,但劳动并没有按比例消失。我们没有把技术释放出来的能力主要兑换成闲暇,而是把它重新投入到了更多消费、更高质量、更快响应和更复杂的服务之中。
这也是我理解今天生成式 AI 的一个起点。它当然会冲击岗位、压缩旧任务,甚至会让一些工种的边界变得模糊,但我并不认为它会直接摧毁整个社会结构。AI 更像是在重排劳动,而不是终结劳动;它更可能放大需求,而不是让需求停止。
凯恩斯为什么只说对了一半
凯恩斯真正低估的,不是技术进步本身,而是人类欲望的弹性,以及社会分工的自我扩张能力。一个社会的生产率提高之后,并不会自然滑向大家都开始少工作的稳态。更常见的结果是:原本昂贵的东西变便宜,原本稀缺的服务变普遍,于是人们开始要求更高的标准,并且把新的标准迅速视为理所当然。
空调、汽车、智能手机、外卖、即时通信都经历过类似过程。它们在最初不是生存必需品,而是在成本下降和基础设施完善之后,被社会慢慢吸收进日常生活。技术没有让欲望收缩,反而不断抬高了生活的默认配置。于是劳动并未被简单替代,而是被重新组织到新的行业、新的服务链条和新的比较体系里。
为什么效率提高常常不减少总工作量
这里面有几个很经典的解释,但其实都能压缩成一句话:当效率提升降低了供给成本,社会往往不会满足于“做得更少”,而会转向“要得更多”。
经济学里有Jevons Paradox (杰文斯悖论),讲的是效率上升反而可能带来总需求扩张;心理学里有享乐适应,讲的是人会很快适应新的便利,并把它当成新的基线;而在现代消费社会里,质量、速度、个性化和持续响应本身也会被重新定义成新的刚需。于是技术进步释放出来的生产力,不会自动变成休息时间,而是会继续被社会吸收。
这也是为什么自动化并没有让现代组织彻底轻松下来。流水线提高了制造效率,但没有终结管理、协调、设计、营销和售后;互联网降低了信息传递成本,但没有减少信息工作,反而让内容生产、平台运营、搜索筛选和注意力竞争变得更密集。效率提升真正做的,常常不是把人从系统里移除,而是把系统推向更高复杂度。
生成式 AI 也是同一条逻辑的延续
把这条线放到生成式 AI 上,问题就会变得清楚很多。生成式 AI 降低的,主要是部分认知劳动、表达劳动和内容生产的边际成本。它让写作、翻译、检索、设计、编程、客服、分析这些任务中的一部分环节变得更便宜、更快、更标准化。但这不等于人类对内容、服务和判断的需求会同步下降。
恰恰相反,一旦生成更便宜,社会大概率会要求更多生成。过去一份报告写三天,现在也许半天就能出初稿,但接下来的变化未必是企业让员工空出两天半去休息,而更可能是要求更快迭代、更多版本、更细分受众、更及时反馈,以及更强的验证与交付。Coding Agent 可以放大10倍的开发效率,那么软件工程可能就可以为每个人定制属于自己的软件,这需要更多的工程师以及大量的token,开发这个行为将从企业一侧向用户测转移。内容会变多,交互会变多,信息流速会更快,个性化服务会更细,最后连判断什么是真的、什么值得信的工作都会变得更重要。
历史上几次大的技术跃迁也都是类似轨迹。工业革命没有终结劳动,而是重组了工种;自动化没有消灭组织协作,反而催生出新的管理与接口岗位;互联网没有减少信息工作,反而放大了信息生产、分发和筛选的需求。生成式 AI 更像是把这种逻辑推进到认知劳动层:它会压缩一批旧任务(我们曾以为只有人类的智慧能完成这些任务),也会打开一批此前成本过高、如今开始变得可行的新服务。
AI Coding 已经强到足以重排分工,但还没有强到能替代资深工程师
软件工程之所以是一个很适合观察这场变化的样本,还因为它同时包含了可被压缩的重复性任务、难以替代的系统判断,以及清晰可见的能力分层。如果把视角进一步缩小到程序员身上,这种“先重排劳动、再重估价值”的逻辑会显得更具体。今天的 AI Coding 早就不是只能写几个 demo 的玩具了,它已经能在相当长的上下文里读代码、做迁移、铺全局替换、批量修补接口,甚至产出一套可以运行的复杂系统。问题不在于它有没有能力做事,而在于它做出来的东西,距离成熟工程往往仍有一段不短的距离。
这一点在 Chips and Cheese 对 Claude 全自动生成 C 编译器的测试 里被写得很直白。那篇文章带着明显的反讽口吻,但技术判断非常明确:纯粹由 agent team 驱动写出来的编译器,已经能生成一个能跑、能编译、能产出结果的真实产物;但和 GCC 这种经过几十年打磨的人类工程相比,它在性能、优化成熟度、代码生成质量上仍有显著差距。换句话说,全自动 coding 已经强到足以进入真实工程的比较范围,却还没有强到让资深工程师退出舞台。它更像是在压缩程序员内部一部分任务,而不是已经整体改写了软件工程这门工作。
另一边,文章 又展示了更乐观、也更现实的一面:当 AI 不是被要求从零独立发明系统,而是进入一个已经被资深工程师理解透彻、边界清晰、验证标准明确的复杂系统时,它对生产率的放大作用会非常惊人。大规模接口迁移、跨语言映射、规则驱动的全局改写、对外部 best practice 的快速吸收,这些过去会消耗大量高水平人力的工作,现在都可以被 agent 大幅接管。
但这里真正稀缺的部分并没有消失,只是更清楚地暴露出来了。AI 最擅长的,是在规则已经定义好之后做大规模语义匹配和实现铺开;而真正仍然稀缺的,是 specification、边界判断、验证标准设计,以及复杂系统里最后的正确性责任。也就是说,AI Coding 首先改变的不是程序员还要不要存在,而是程序员内部哪些任务由谁来做。在这个意义上,它更像是在重排软件工程的分工结构,而不是替代整个职业。
被放大的不只是产出,还有资深工程师与初级工程师之间的断层
也正因为如此,AI 对程序员劳动市场的冲击,很可能首先不是落在资深工程师要不要失业上,而是落在初级工程师还怎么成长上。过去很多工程师并不是一上来就能做架构判断、定义 specification、设计 validation 的;他们往往是在一个真实系统里,从修小 bug、补测试、做迁移、接边角需求、铺开重复性改动开始,逐渐理解这个系统为什么这样设计、哪里可以动、哪里绝对不能乱动。那些看起来最琐碎、最重复的工作,其实常常也是最重要的训练场。
问题在于,这些任务恰恰正是 coding agent 最适合先接手的部分。对模型来说,规则明确、模式重复、改动面广、需要耐心和一致性的工作,往往比对人类新人更友好;而对组织来说,一个资深工程师加一个 agent在短期内也可能比一个资深工程师带几个初级工程师更划算。前者几乎可以立刻开始工作,不需要长期训练,不会中途离开,还能在很多全局改写型任务上比新人更稳定。于是 AI 替代掉的就不只是低价值重复劳动,还可能连带替代掉一部分低门槛但高训练价值的成长路径。
这才是我认为更深的风险。初级工程师真正缺的,未必只是写代码的能力,而是判断代码是否正确、理解系统为何如此设计、知道该测什么与不该改什么的能力。而这些能力,恰恰往往是通过长期参与真实项目、反复做实现、反复踩坑、再在资深工程师反馈里修正出来的。AI 让实现本身变得更廉价,却没有自动把这种判断力一起交给新人。如果高质量真实项目的入口持续减少,组织持续把 agent 当成 apprentice 的替代品,那么被压缩的就不只是岗位数量,而是人成长为高级劳动者的路径本身。
所以从程序员这个样本看,生成式 AI 的冲击并不只“它能不能写代码。更关键的问题是:当资深工程师被显著放大,而初级工程师的训练路径开始收缩时,整个行业未来几年还会从哪里长出下一代真正理解复杂系统的人。这不是一个情绪化的问题,而是一个非常现实的供给问题。AI 不只是重排任务,也在重排人成长为高级劳动者的路径。
真正该警惕的不是社会崩塌,而是转型错配
这并不意味着可以轻描淡写地说 AI 会自动创造更多就业或者直接导致全面的失业,那样太简单了,没有一个社会能被如此简单的一句话概括,更何况是一个 80 亿人互联的复杂系统。局部岗位收缩是真实的,技能折旧是真实的,过渡期中的收入冲击和职业焦虑也是真实的。对于程序员而言,这种冲击甚至可能先表现为初级岗位减少、训练路径收窄,以及组织更愿意购买模型能力而不是培养人。问题从来不在于有没有冲击,而在于冲击会以什么速度到来,社会有没有足够快地完成再训练、再组织和再分配。
我们将要迎来的是转型错配,而不是社会整体失业。当技术扩散速度快过教育系统、企业组织和制度缓冲的调整速度时,痛苦就会集中暴露出来;但这和 AI 会让社会失去工作并不是同一个命题。真正的错配,不只是任务被替换后的岗位错配,也是能力结构、成长路径和经验传承的错配:旧任务消失了,但新的验证能力、系统判断力和协作方式未必能同样快地被新一代人掌握。
人类社会真正强大的地方,在于它有极强的再分工能力:旧任务消失之后,人们会围绕新的工具、新的接口、新的协作方式重新定义价值。但真正值得关注的,也正因此不是社会会不会被直接打穿,而是我们能不能用足够快的组织调整、教育缓冲和制度安排,接住这一次生产力跃迁;否则短期被放大的效率,完全可能在更长的时间尺度上变成人才断层与能力供给不足的代价。
参考资料
- Chips and Cheese, Embracing AI with Claude’s C Compiler
- 赵拓,知乎回答,关于 Claude Code、科研软件维护与人才培养张力的讨论