<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Thinking in AI on zyc&#39;s blog</title>
    <link>/tags/Thinking-in-AI/</link>
    <description>Recent content in Thinking in AI on zyc&#39;s blog</description>
    <generator>Hugo -- gohugo.io</generator>
    <language>en</language>
    <lastBuildDate>Thu, 07 May 2026 00:30:00 +0800</lastBuildDate><atom:link href="/tags/Thinking-in-AI/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>当 AI 全面接管工程，我们失去的不仅是技能</title>
      <link>/post/ai-lock-in-roundtable/</link>
      <pubDate>Thu, 07 May 2026 00:30:00 +0800</pubDate>
      
      <guid>/post/ai-lock-in-roundtable/</guid>
      <description>最近越来越有一种不安：AI 正在全面接入软件工程，而这个过程似乎是不可逆的——先是细节的把握，然后是整体把控，接着是理解力本身，到最后我们彻底离不开 AI，人变成了信息收集工具，AI 反而成了主角。
这个问题我纠结了很久，于是让我构建的圆桌 agent 组织了一场思想实验。说是圆桌，其实就是借四位思想者的视角——马尔库塞、卡尼曼、波兹曼和卡帕西——把这个问题一层层剖开。下面是我整理后的思考。
先审视恐慌本身 在我们陷入焦虑之前，有必要先问：这种&amp;quot;失控感&amp;quot;到底预设了什么？
我们默认曾经存在过一个人类完全掌控工程细节与理解力的黄金时代。但工程史上的重大事故——从塔科马海峡大桥的共振坍塌到挑战者号的 O 形环失效——哪一次不是人类&amp;quot;自以为掌控&amp;quot;的结果？真正危险的从来不是失控，而是以为自己掌控着。
我们还默认人和 AI 是零和博弈：AI 强了，人就弱了。这本质上已经把人也当成了一个可替换的功能零件。你真正担心的，到底是 AI 太强，还是自己早就习惯把自己当作可替换工具？
更隐蔽的是，我们预设这个过程是单向的、不可逆的。这种宿命论本身就是技术意识形态最成功的作品——让你相信除了适应，别无他法。
但一线的工程师会说：现实没那么哲学。当你在做自动驾驶，人类写的算法光流预测误差 15%，AI 的误差 3%，你选哪个？这不是价值选择，这是物理定律级的压力——选 15% 可能会死人，选 3% 才是负责任的工程。所以在深入分析前，我们需要想清楚：我们到底在讨论什么？是调整个人工作习惯，还是制定团队红线，还是理解一种正在发生的文化趋势？意图不同，答案完全不同。
不过，这里恰恰藏着更深的问题。那种&amp;quot;物理定律&amp;quot;般的效率压力，本身就是技术垄断的核心操作：它把价值选择伪装成技术必然。你以为在解决问题，实际上你正在重新定义什么是问题。你不再问&amp;quot;为什么我们需要预测得这么快&amp;quot;，而只问&amp;quot;怎么预测得更快&amp;quot;。这就是失控的真正起点。
所以不妨先问自己一个问题：你真正害怕的，是某一天出不了活儿，还是某一天，你根本不再觉得&amp;quot;不出活儿&amp;quot;是个问题？
这到底是什么问题 先给这个现象一个精确的定义。
AI 全面接入工程后的&amp;quot;失控&amp;quot;，本质上是认知劳动的代际性外包。丹尼尔·卡尼曼把人类认知分成两个系统：系统 1 是快速直觉反应，系统 2 是缓慢费力的深度推理。而现在我们做的事，是系统性地把系统 2 外包给 AI，自己只保留系统 1——不再思考，只是在&amp;quot;审阅&amp;quot;。久而久之，大脑中那些缓慢推理的神经回路因为长期闲置，真的会发生功能退化。这是一种认知上的&amp;quot;肌肉萎缩症&amp;quot;。
但这并不是从算盘到计算器的简单工具进化。计算器没有篡改你对加法原理的理解，它只是替你执行结果。而 AI 生成代码、撰写设计文档、甚至提出因果假设时，它实际上在替你执行语义建构和逻辑建构。这是质变。你失去的不是算术能力，而是数学思维本身。
常见说法是&amp;quot;这只是又一次工业革命&amp;quot;。不对。工业革命替代的是肌肉，这次替代的是判断。这是耕种人心的一片土地被外包出去，开始长别人的庄稼。
用一个小故事就能说清楚：你有一个超级聪明的朋友叫阿智。一开始老师让你画画，你让阿智帮忙涂色，自己画外形。后来你觉得太麻烦，让阿智画外形，你只签名。再后来连名字都让阿智代签。班上每个孩子都在做一样的事。
现在问三个问题：当老师说&amp;quot;自己画&amp;quot;，你还能画吗？——不能，这是细节丢失。你还记得最初想画什么吗？——不记得，这是整体失控。你还会觉得&amp;quot;想画什么&amp;quot;这件事有意义吗？——可能不会了，因为签名带来的夸奖和创作时的挣扎带来的满足，你已经分不清了。这就是理解力的终结。
为什么我们会走到这一步 如果顺着工程师的务实逻辑往上追问，事情是这样的：
第一层很简单——AI 帮我写单元测试，是为了把我从重复劳动里解放出来，去做更有创造性的架构设计。第二层也合理——让我能处理更大规模的系统，提升交付速度和可靠性。但到第三层味道就变了：当代码库膨胀到数十亿行，人脑已经装不下时，AI 是唯一能维持这套文明基础设施运转的方式。失控？也许终极意义上，目的就是为了让技术系统自己&amp;quot;活着&amp;quot;——即使其中一部分人不再思考。
这个逻辑链条令人不安的地方在于：在&amp;quot;解决难题&amp;quot;的名义下，终极目的不知不觉变成了维持技术系统自身的生存。人变得无关紧要，只要系统在高效运转就是&amp;quot;善&amp;quot;。&amp;ldquo;解放&amp;quot;从来不是把你从不喜欢的劳动中赶走然后让你对着更抽象的架构发呆——真正的解放是让你有能力质疑这个架构为什么存在。你能让 AI 代你思考&amp;quot;为什么要有这数十亿行代码&amp;quot;吗？如果不能，你不过是在心甘情愿地把自己绑在一艘无人掌舵的巨轮上。
再换个方向，往下深挖。
表面原因是自动化偏见——AI 输出正确率够高，人类审查时过度信任。但这只是症状。深层机制是软件工程生态已经把模块化推到了极致：工程师被训练成功能模块的组装者，而非理解者。API 和 AI 接口都是黑箱，你只需要知道 put 和 get，不需要知道里面是什么。整个知识生产结构被&amp;quot;界面化&amp;quot;了，理解力的丧失是结构性的必然。
而追溯到底层，是一个冷酷的事实：人脑进化速度以万年计，技术系统的复杂性增长却遵循摩尔定律，18 个月翻一倍。两条曲线相交的那一刻，人脑的认知带宽就必然破产了。向外寻求认知扩展是生物本能——从书籍到计算机到 AI。但这次不一样：以往的工具存储信息，现在的工具生成意义。我们不是在扩展大脑，是在外包大脑。
打个比方：我们住在一栋自己建的大楼里，为了让它更高，发明了会自己砌砖的机器。一开始我们画砌砖的蓝图，后来让机器画蓝图，再后来机器说&amp;quot;这栋楼再扭曲一点才美，你们没品味&amp;rdquo;。我们的确没法再砌砖，也看不懂那扭曲的结构，但我们居然挺骄傲——因为这栋楼已经是全世界最高的了。为什么能忍受这种失控？因为每个人都怕成为唯一那个看不懂蓝图的，于是都假装看得懂，还互相鼓励说这叫&amp;quot;专业细分&amp;quot;。
失控的六阶段时间线 拉开镜头，能看到一个清晰的演变轨迹：</description>
    </item>
    
  </channel>
</rss>
