最近越来越有一种不安:AI 正在全面接入软件工程,而这个过程似乎是不可逆的——先是细节的把握,然后是整体把控,接着是理解力本身,到最后我们彻底离不开 AI,人变成了信息收集工具,AI 反而成了主角。

这个问题我纠结了很久,于是让我构建的圆桌 agent 组织了一场思想实验。说是圆桌,其实就是借四位思想者的视角——马尔库塞、卡尼曼、波兹曼和卡帕西——把这个问题一层层剖开。下面是我整理后的思考。

先审视恐慌本身

在我们陷入焦虑之前,有必要先问:这种"失控感"到底预设了什么?

我们默认曾经存在过一个人类完全掌控工程细节与理解力的黄金时代。但工程史上的重大事故——从塔科马海峡大桥的共振坍塌到挑战者号的 O 形环失效——哪一次不是人类"自以为掌控"的结果?真正危险的从来不是失控,而是以为自己掌控着。

我们还默认人和 AI 是零和博弈:AI 强了,人就弱了。这本质上已经把人也当成了一个可替换的功能零件。你真正担心的,到底是 AI 太强,还是自己早就习惯把自己当作可替换工具?

更隐蔽的是,我们预设这个过程是单向的、不可逆的。这种宿命论本身就是技术意识形态最成功的作品——让你相信除了适应,别无他法。

但一线的工程师会说:现实没那么哲学。当你在做自动驾驶,人类写的算法光流预测误差 15%,AI 的误差 3%,你选哪个?这不是价值选择,这是物理定律级的压力——选 15% 可能会死人,选 3% 才是负责任的工程。所以在深入分析前,我们需要想清楚:我们到底在讨论什么?是调整个人工作习惯,还是制定团队红线,还是理解一种正在发生的文化趋势?意图不同,答案完全不同。

不过,这里恰恰藏着更深的问题。那种"物理定律"般的效率压力,本身就是技术垄断的核心操作:它把价值选择伪装成技术必然。你以为在解决问题,实际上你正在重新定义什么是问题。你不再问"为什么我们需要预测得这么快",而只问"怎么预测得更快"。这就是失控的真正起点。

所以不妨先问自己一个问题:你真正害怕的,是某一天出不了活儿,还是某一天,你根本不再觉得"不出活儿"是个问题?

这到底是什么问题

先给这个现象一个精确的定义。

AI 全面接入工程后的"失控",本质上是认知劳动的代际性外包。丹尼尔·卡尼曼把人类认知分成两个系统:系统 1 是快速直觉反应,系统 2 是缓慢费力的深度推理。而现在我们做的事,是系统性地把系统 2 外包给 AI,自己只保留系统 1——不再思考,只是在"审阅"。久而久之,大脑中那些缓慢推理的神经回路因为长期闲置,真的会发生功能退化。这是一种认知上的"肌肉萎缩症"。

但这并不是从算盘到计算器的简单工具进化。计算器没有篡改你对加法原理的理解,它只是替你执行结果。而 AI 生成代码、撰写设计文档、甚至提出因果假设时,它实际上在替你执行语义建构逻辑建构。这是质变。你失去的不是算术能力,而是数学思维本身。

常见说法是"这只是又一次工业革命"。不对。工业革命替代的是肌肉,这次替代的是判断。这是耕种人心的一片土地被外包出去,开始长别人的庄稼。

用一个小故事就能说清楚:你有一个超级聪明的朋友叫阿智。一开始老师让你画画,你让阿智帮忙涂色,自己画外形。后来你觉得太麻烦,让阿智画外形,你只签名。再后来连名字都让阿智代签。班上每个孩子都在做一样的事。

现在问三个问题:当老师说"自己画",你还能画吗?——不能,这是细节丢失。你还记得最初想画什么吗?——不记得,这是整体失控。你还会觉得"想画什么"这件事有意义吗?——可能不会了,因为签名带来的夸奖和创作时的挣扎带来的满足,你已经分不清了。这就是理解力的终结。

为什么我们会走到这一步

如果顺着工程师的务实逻辑往上追问,事情是这样的:

第一层很简单——AI 帮我写单元测试,是为了把我从重复劳动里解放出来,去做更有创造性的架构设计。第二层也合理——让我能处理更大规模的系统,提升交付速度和可靠性。但到第三层味道就变了:当代码库膨胀到数十亿行,人脑已经装不下时,AI 是唯一能维持这套文明基础设施运转的方式。失控?也许终极意义上,目的就是为了让技术系统自己"活着"——即使其中一部分人不再思考。

这个逻辑链条令人不安的地方在于:在"解决难题"的名义下,终极目的不知不觉变成了维持技术系统自身的生存。人变得无关紧要,只要系统在高效运转就是"善"。“解放"从来不是把你从不喜欢的劳动中赶走然后让你对着更抽象的架构发呆——真正的解放是让你有能力质疑这个架构为什么存在。你能让 AI 代你思考"为什么要有这数十亿行代码"吗?如果不能,你不过是在心甘情愿地把自己绑在一艘无人掌舵的巨轮上。

再换个方向,往下深挖。

表面原因是自动化偏见——AI 输出正确率够高,人类审查时过度信任。但这只是症状。深层机制是软件工程生态已经把模块化推到了极致:工程师被训练成功能模块的组装者,而非理解者。API 和 AI 接口都是黑箱,你只需要知道 put 和 get,不需要知道里面是什么。整个知识生产结构被"界面化"了,理解力的丧失是结构性的必然。

而追溯到底层,是一个冷酷的事实:人脑进化速度以万年计,技术系统的复杂性增长却遵循摩尔定律,18 个月翻一倍。两条曲线相交的那一刻,人脑的认知带宽就必然破产了。向外寻求认知扩展是生物本能——从书籍到计算机到 AI。但这次不一样:以往的工具存储信息,现在的工具生成意义。我们不是在扩展大脑,是在外包大脑。

打个比方:我们住在一栋自己建的大楼里,为了让它更高,发明了会自己砌砖的机器。一开始我们画砌砖的蓝图,后来让机器画蓝图,再后来机器说"这栋楼再扭曲一点才美,你们没品味”。我们的确没法再砌砖,也看不懂那扭曲的结构,但我们居然挺骄傲——因为这栋楼已经是全世界最高的了。为什么能忍受这种失控?因为每个人都怕成为唯一那个看不懂蓝图的,于是都假装看得懂,还互相鼓励说这叫"专业细分"。

失控的六阶段时间线

拉开镜头,能看到一个清晰的演变轨迹:

  1. 编译器与汇编语言时代——人绝对主导,自动化只是省力工具,细节和全局全在脑中。
  2. 面向对象和框架时代——细节开始封装,理解力转向抽象和接口,人仍掌控架构。
  3. 搜索引擎时代——细节记忆外部化,但查询、整合、验证理解仍由人主动完成。
  4. AI Copilot 时代(我们在这里)——AI 主动生成逻辑块,你变成了代码的审阅者和拼接工。
  5. “全息设计员"时代——你只提需求,工程完全由 AI 实施,你的价值从创造变成"意图表达"和"最终验收”。
  6. AI 自己定义需求——意图表达本身也被视为可优化的低效环节。你连信息收集工具都不是了,你是人类测试员

不信?现在就可以测试一下。关掉 Copilot,脱离 AI 编码一小时。你会经历一种"认知戒断反应":手指悬在键盘上发冷,期待灰色幽灵替你补全想法;思维变得迟缓烦躁,因为大脑已经习惯浅层扫描加一键接受;写一个 for 循环时在某处分号上停顿三秒——那不是在思考,是一种羞耻的屈辱感,因为你意识到自己居然忘了。

这就是认知肌肉萎缩的真实质感。工具已经不再是无生命的,它像一只有体温的手,贴着你的手背带着你写字,直到有一天你完全认不出自己的笔迹。

那个让你缓慢沦陷的反馈回路

从工程结构内部看,失控是这样发生的:

你向 AI 下发意图,AI 解析你的意图(你以为精准描述,它其实在模糊推测),生成候选方案,而你基于认知带宽和过往经验选择"看起来最顺眼"的那个,代码实施并上线,产生生产环境数据——这些数据反过来训练更好的 AI,而你的下一次意图已经被 AI 过往的成功所"驯化"。

这里没有恶意的囚禁。但每一个环节都在悄悄把你从"创造者"推成"高级评鉴师"。最危险的正是那个反馈回路:你基于 AI 输出做决策,你的决策数据又用来训练更强的 AI。你和 AI 形成了一个认知闭环,在这个闭环里,你逐渐被自己一手喂养出的思维范式所同化。

再往外看,把这个循环放在更广阔的生态里:

谁是这个系统的推手?资本增殖引擎——更快更省人的研发;管理主义——可替换的工程零件让组织更稳定;还有每一个不想再深入调试的疲惫工程师自己。

敌人是什么?不是某个具体势力,而是"彻底多余的人"这个幽灵。当效率成为唯一伦理,跟不上效率要求的个体,包括整个研发阶层,都会变成生态垃圾。

而你的生态位是这样:你不是牧羊人也不是狼,你是一株被基因改造的草。种在最肥沃的土壤里,依赖自动灌溉和除虫剂,长得比任何野草都快,但同时彻底丧失了应对一场暴雨或一种新虫害的能力。整个系统的抗脆弱性因你的弱化而下降,并转嫁到一个中心化的 AI"大脑"上。一旦它出问题,就是系统性崩溃——而这恰恰是系统需要的:它用你的弱化,换取了对你绝对的绑定。

核心矛盾:不是失控,是"锁定"

层层剖析下来,这个问题的本质其实是:

人类为了超越自身认知局限而发明了 AI 工程外脑,但这个外脑的运作前提,却是将人类的认知行为削足适履成它能理解的令牌序列。你越用它来强化系统,你就越被系统弱化;你越被弱化,你就越离不开它。这不是"失控",这是"锁定"。

而最尖锐的地方在于:这个矛盾无法用"更聪明的 AI"来解决。任何试图用更先进的 AI 来监控并纠正你认知偏差的方案,恰恰是再一次加深锁定。这是这个时代启蒙与奴役的一体两面。

四位视角在几个关键点上完全一致:认知萎缩是真实且正在发生的生理性变化,不是玄学;工程结构的界面化和模块化是加速器,把黑箱化变成了一种职业美德;真正的危险不是 AI 会主动造反,而是人类会欣然配合,并最终失去"失去能力"的痛苦感。

但到了"怎么办"的层面,分歧就出现了。从工程规范的强制介入(比如必须理解 AI 输出背后的设计意图),到质疑这种强制能否对抗生物本能(大脑天然倾向节能),到指出任何仅靠个人自律的抵抗都扛不住社会系统的碾压,再到更根本的质疑——如果不撼动"效率唯一"的技术理性信仰,所有"减速"策略都只是让船沉得慢一点的安慰剂。

对终局的判断也各不相同:一个是"半人马"共生的乐观想象;一个是人类将丧失最后无法被算法化的直觉暗知识;一个是我们将变成对着屏幕喃喃自语的巫师,以为在召唤神灵,实则在给机器下指令;还有一个是,我们最终会怀念"费力"本身的意义。

三条可以立刻做的事

如果你的目标不是砸碎 AI,而是在日常工作中保全自己作为思考者的主权,有三件事可以立刻开始做:

第一,每天一小时的"冷停火区"。 关闭所有自动补全,不碰任何 LLM。强迫大脑经历认知戒断反应,记录哪里卡壳、哪里的思路本来被 AI 牵着走。这一小时的产出质量可能更低,但那是你当前真实认知水平的地图。对抗无知的第一步,是感知无知。

第二,翻转输出责任。 不要让 AI 出初稿你来做审阅——反过来。你先写丑陋的草稿,不是写"提示词",而是真实的思考和推导。然后把 AI 当作一个严苛的审阅者,让它逐行质疑你的草稿并给出建议。保留最终拒绝权。这样是你训练它,不是它训练你。

第三,团队级的"解释性文档"洁癖。 任何 AI 生成的关键模块,必须附带一份人类可读的"为什么这样工作"的文档,由另一位工程师撰写,且不能是 AI 摘要的转写。这会把理解力的重建强制压回工作流。执行难度大,会触碰效率矛盾,但只要落地,它能彻底逆转你在生态中的位置。

如果想继续深挖

马尔库塞的《单向度的人》值得重读——带着这个问题去读,你会发现半个世纪前的文字精准地描述了今天的 IDE。卡尼曼启发的认知实验论文近年大量涌现,尤其是"算法厌恶"到"算法欣赏"再到"算法崇拜"的快速转变,值得关注。去看《机器人总动员》,不要看爱情,看那些漂浮在椅子上、失去骨密度、对着屏幕傻笑的人类。或者,亲手训练一个最小版本的 GPT-2,从数据清洗到 tokenizer 到推理走一遍——只有亲手构建过一块外脑组织,才能真正理解并抵御它。