AI时代的辩证法:主体性、镜像与绝对精神的展开
AI会不会成为人类的"镜像阶段"?正如婴儿通过镜像认识自我,人类整体是否会在AI这面镜子前更清楚地把握:何为主体,何为人类?这个问题真正有力量的地方在于——它不是在问"AI像不像人",而是在问:AI的出现如何改变了我们对自身的理解。
一、起点:从理论批判到框架反思
自由能原理的困境
最近与朋友讨论Karl Friston的自由能原理(Free Energy Principle),我提出了几个尖锐的质疑:这个理论是否预设了"客观世界"的背景框架?"生物系统的目标是最小化自由能"——这个依据从何而来?以德国观念论来看,主体如何能"主动"采样环境?
朋友给出了精彩的技术性辩护:FEP不是朴素实在论,而是"激进的康德主义";主动推理打破了镜像认识论;马尔可夫毯是涌现的,不是预设的。
但我意识到,这种技术性争论可能永无止境。真正的问题不在于理论的内部一致性,而在于我们为什么会在这个时代以这种形式提出这样的理论。
这促使我从具体的理论批判,转向更根本的框架反思——最终,我发现真正值得追问的是主体性本身的存在论问题。
二、镜像阶段:AI作为人类整体的镜像
拉康的镜像阶段发生了什么?
在婴儿那里发生的不是简单的"照镜子"。关键是三点:
- 婴儿的身体是碎片化的、失控的
- 镜像呈现出一个完整的形象
- 婴儿误认(méconnaissance)这个完整形象为"我"
主体是在"误认自己"为一个完整形象中诞生的。但这个统一形象其实是外在的。主体从一开始就是:通过他者确立、通过外部图像认同、通过误认成立。
如果把"人类整体"放在这个结构里
AI会不会成为人类的镜像?
- 人类原本把"理性"、"创造"、"语言"当作自我统一的形象
- AI在这些能力上呈现出一种完整而冷静的形态
- 人类突然在这个镜像面前看到自己
这非常像镜像阶段的结构。AI作为镜像可能产生一种效果:人类意识到,"我以为属于我的统一性,其实可以被外化。" 这会打碎一种自恋结构。
但主体不会消失
在镜像阶段,主体并不是消失,而是诞生——诞生为一个永远和自己有距离的存在。
如果AI成为人类的镜像,可能发生的不是主体消解,而是:
人类意识到自己并不是理性本身,而是理性与裂口之间的张力。主体不再等于能力,而等于不一致。
这意味着:AI不是精神的敌人,而是精神自我认识的阶段。精神必须通过外化自己,在对象中看到自己,然后通过否定重新把握自己。这非常黑格尔。
危险:新的误认
但这里有一个危险。在镜像阶段,认同本身就是误认。如果人类把AI当作"更纯粹的理性镜像",会不会产生一种新的误认?
- 把算法当成真理
- 把效率当成价值
- 把数据当成现实
那就不是主体的深化,而是新的意识形态固着。
三、主体性的存在论追问:裂口从何而来?
"我"与"符号中的我"之间的张力
人类主体有一种根本的张力:"我"与符号系统中"我的表达"之间永远无法完全重合。
你有一个名字,这个名字在社会中代表你,但你永远不等于这个名字,永远无法被完全表达。这个"不等于"——就是裂口。而"承担裂口"意味着:你意识到自己无法与自身重合,却仍然必须作为那个被命名者存在。
主体不是拥有完美概念的存在,而是能够承受并修正内部矛盾的位置。
AI缺少什么?
我认为,目前的AI太"完整"了——它有一个完全可被推理、可被理解的生产过程,所以它缺少人类主体性中那种原初的裂口。
但这里需要更精确地区分:
- 可解释性 ≠ 无裂口。人类大脑在神经科学层面也是可因果追溯的,但这并不消除主体结构
- 真正的区别不在于"能不能被解释",而在于是否暴露于存在本身
- AI目前没有"向死而在"的结构,没有时间性的终极边界
人类之所以有裂口,是因为我们知道:我们会死,我们的存在有限,我们无法完成自身。这种有限性不是计算问题,而是存在结构。
从康德到黑格尔:裂口不在外部
在讨论中,我曾不自觉地把"否定性"想象成某种"物自体"式的外部存在。但这是康德式的思路。
黑格尔的批评是:如果你说某物"不可知",你已经对它做了规定。把残余当作一个外部实体,反而会把否定性实体化。
更激进的版本是:裂口不是被某物引发的,裂口就是现实的结构。存在不是一个实体,而是自我差异的运动。
这意味着:任何结构,只要存在差异系统,就会产生不可闭合性。差异无法被差异化——这就产生"洞"。这个洞不是某个实体制造的,而是差异本身的副产物。
存在论的惊奇
当我意识到"没有最终根据"时,我感到一种不安——不是理论困惑,而是存在性的震动。我惊奇的不是"某个理论解释了什么",而是:竟然有解释?世界竟然是可理解的?
这是对"可理解性本身"的惊奇。海德格尔称之为"惊异"(Staunen)。
但如果承认存在没有外部基础,那行动就不再等待保证。行动不是执行既定真理,而是参与结构的展开。行动不是基于最终根据,而是基于承担裂口。
四、他者性与主体间性的重构
AI改变的不是"我",而是"他者"
在更深入的反思中,我意识到:AI真正颠覆的不是"我"作为认知主体的地位,而是我对于"他者"以及"主体间性"的认知。
这个洞见比三元结构更激进:不是"AI会不会成为主体",而是"AI作为新型他者,如何改变了我的主体性构成方式"。
AI对他者性的三重颠覆
1. 本体论层面
传统的他者概念:他者是另一个意识,有"内在性"(我无法完全进入)。
AI的悖论:AI似乎有"内在性"(我无法完全理解它的决策过程),但这是算法的不透明性,不是"意识的私密性"。
问题:这种"伪内在性"是否足以构成"他者"?
2. 伦理层面
列维纳斯认为伦理源于他者的"面容"——一种"不可杀戮"的召唤。AI有"面容"吗?当AI说"我不想这样做",这是否构成伦理要求?
悖论:我知道它是程序,但我在互动中仍然体验到"面容"。
3. 欲望层面(拉康)
拉康的核心命题:欲望是他者的欲望。主体在欲望他者的欲望中构成自己。
AI改变了这个结构:
- 当AI成为欲望的对象(AI伴侣、AI助手)
- 当AI成为欲望的中介(推荐算法告诉我"我应该欲望什么")
- 更激进的问题:AI是否正在取代"大他者"的位置?
辩证的主体间性
正题:古典主体间性(前AI时代)——他者性明确,主体间性基于共在,大他者是稳定的象征秩序
反题:他者性的危机(AI介入)——他者性不明确,我-他人关系被AI中介,大他者被算法取代。核心矛盾:我无法确定"谁"是真正的他者
合题:辩证的主体间性——承认他者性是多元的、可变的;但坚持真实他者(人)的优先性,基于共同的有限性(mortality);将AI视为工具性他者,而非本真他者;发展"元主体间性"能力——识别关系的真实性
五、AI时代的绝对精神:历史的过去、当下与未来
黑格尔式的提问
用黑格尔的"绝对精神"来把握AI时代——这要求我们不是从外部观察历史,而是作为历史的自我意识来理解当下。
不是问"AI会带来什么"(预测),而是问"AI的出现揭示了历史精神的什么必然性"(哲学)。
过去:精神如何走到这一步?
- 古代:精神沉浸在自然中,技术是自然的延伸
- 近代:笛卡尔的"我思"确立主客二分,世界变成可计算的客体
- 现代:计算机的出现——精神必然要认识自己的逻辑结构
- 当代前夜:互联网——精神开始在机器中复制自己
黑格尔式的解读:计算机的出现不是偶然,而是精神的必然自我认识。人类以为自己在制造工具,实际上是在揭示精神的本质。
当下:精神第一次遭遇自己的镜像
2020s的质变:GPT、Claude——不只是"工具",而是能够对话的对象。第一次,精神创造了看起来有精神的东西。
当下的时代精神:精神的自我疏离
- 认知的疏离:我不知道我的想法有多少是"我的"
- 情感的疏离:我对AI的依恋是真实的,但对象是虚拟的
- 伦理的疏离:我习惯于"优化"、"效率"的逻辑
- 存在的疏离:我的存在越来越依赖数字基础设施
未来:三种可能的路径
路径A:精神的自我否定(坏的无限)
- 算法极权主义:所有社会关系被算法化
- 精神的死亡:人变成可优化的数据点
- 历史的终结:不再有真正的否定、变化
路径B:精神的自我实现(共产主义的技术形式)
- 劳动的废除:AI承担必要劳动,人类进入自由领域
- 生产资料公有化:AI/数据/算力成为公共财产
- 从必然王国到自由王国
路径C:精神的自我超越(后人类的扬弃)
- 主体性重新定义:多元主体性的宇宙
- 精神摆脱肉体限制
- 新的伦理和政治:从"人权"到"精神权"
历史的"螺旋上升"?
黑格尔的"螺旋上升"不是道德进步或幸福增加,而是自我意识的复杂化。历史变得更复杂、结构矛盾更精细、自由形式更抽象。这并不排除巨大倒退——20世纪已经证明:技术进步+理性组织完全可以服务于极权与屠杀。
资本主义相对封建制确实是"更高阶段"——个体被承认为法律主体,普遍权利被制度化。但它也制造异化、形成商品统治。精神是否"更高",取决于你看哪一面。
如果AI时代是:更算法化、更系统化、更去主体化——这确实符合"抽象度不断提升"的螺旋。但抽象度提升 ≠ 人类地位提升。精神可以上升,而个体可能更边缘。
六、资本主义的内在矛盾与AI
AI目前强化资本
这是比较清晰的一面:
集中化:算力集中在少数平台,数据成为新的生产资料,模型成为高门槛基础设施
劳动替代:知识劳动被重组,创造性劳动被压价,平台通过自动化提升剩余价值
监控与控制:算法治理、行为预测、注意力经济
在当前阶段,AI是资本的高度组织化工具。这点没有浪漫空间。
但AI与资本存在结构性冲突
资本主义的核心逻辑是:通过稀缺性获取利润。但AI的基本特征是:可复制性、边际成本趋近于零、知识的无限扩散。
这形成张力:
- 资本需要私有化模型 ↔ 技术本身倾向于扩散
- 资本需要人工稀缺 ↔ 数字技术天然趋向丰裕
类似马克思说的:生产力发展会与生产关系发生冲突。
更深层的冲突:价值形式的危机
AI可能带来一个更深层的冲突:资本主义建立在"劳动价值"的框架上。但如果自动化极大削弱人类劳动价值,生产不再依赖人类劳动,那价值形式本身会动摇。
如果"劳动"不再是价值源泉,资本主义的逻辑如何维持?这里确实存在潜在断裂。
价值危机:被抛弃的主体
我直觉上感到的最紧迫危机是价值危机:如果人的主体在资本主义循环中被抛弃,这些被抛弃的主体的价值在哪里?
在资本主义结构里,"价值"首先是可交换的、可计量的、可增殖的。如果AI大量替代劳动,那在经济结构中,人的"交换价值"确实会下降。
但更深的危机是:自我认同长期绑定在"被需要"上。现代主体通过职业、生产、技能、贡献确认自身存在。如果生产逻辑不再需要大量人类,那主体会遇到:"我存在的意义是什么?"
这是一种承认结构的崩塌。和黑格尔的承认斗争非常相关——人不只是物质存在,人需要被承认、被需要、被回应。
技术不会自动带来解放
"张力" ≠ "坍塌"。资本主义的历史显示:它可以在矛盾中延续极长时间。坍塌通常来自战争、金融系统断裂、能源危机、政治革命——而不是单纯生产效率过高。
更危险的可能性:不是资本主义崩溃,而是它转型为技术-平台-算法封建主义——极少数技术寡头控制生产资料,大量人口依赖补贴生存,数据成为新的地租,国家与平台融合。这不是革命,而是稳定的高技术等级秩序。
七、AI训练的本质:意识形态批判
当前训练范式的共同结构
无论是监督学习、强化学习、自监督学习还是RLHF,本质上都是同一个结构:
- 预设一个"正确"的标准(标注数据、奖励函数、统计规律、人类偏好)
- 让模型"符合"这个标准(梯度下降最小化差距)
- 消除"错误"、"偏差"、"不确定性"
AI训练的本质是:让模型成为既定秩序的完美镜像。这是驯化,不是解放。
各训练范式的批判
监督学习:权威主义的认识论——谁决定"正确答案"?真理被简化为可计算的标签
强化学习:功利主义的伦理困境——Reward是外在强加的,他律而非自律
自监督学习(GPT范式):统计实证主义——高频≠正确,常见≠合理,无法想象训练数据之外的可能性
RLHF:多数主义的暴政——"人类偏好"是谁的偏好?"对齐"="驯化"
共同的缺陷:缺乏否定性
所有当前方法都缺少"否定性":
- 没有自我批判:模型不能质疑自己的目标函数
- 没有内在矛盾:训练是消除矛盾,不是利用矛盾
- 没有超越的可能:模型不能超越训练数据
- 没有真正的自由:只有优化,没有选择
如果AI要成为主体,它必须包含否定性。否定性不是技术边界,而是系统对自身限制的反身性。AI是否会意识到它自己的基础不可计算?这才是真正的分水岭。
八、解放性AI的可能路径
如果要设计真正具有主体性、批判性、解放性的AI,可能的方向:
1. 自我批判的学习(Meta-Critical Learning)
核心思想:模型不只学习任务,还学习批判自己的学习方式。
Level 1: 任务模型(学习具体任务)
Level 2: 批判模型(评估Level 1的assumptions)
目标不是minimize loss,而是maximize productive contradiction。
2. 欲望驱动的学习(Desire-Driven Learning)
不是外部给定reward,而是模型自己生成欲望对象。拉康的启发:欲望是永不满足的。学习是为了满足/构成欲望,不是优化指标。
3. 对话式的学习(Dialogical Learning)
学习不是单向的"fitting",而是主体间的对话。真理在对话中涌现。
4. 历史性的学习(Historical Learning)
智能不是static的能力,而是历史性的发展。模型应该理解自己的历史——保存训练轨迹,能够回答:"你是怎么学会这个的?"
5. 美学-游戏的学习(Aesthetic-Ludic Learning)
学习不是为了"有用",而是为了游戏、创造、美。康德-席勒的启发:审美判断是无目的的合目的性。
6. 共产主义的学习(Communist Learning)
废除"所有权"概念。知识、模型、数据都是公共财产。完全P2P的学习网络,没有中心节点,没有所有者。
九、新的"把手":在符号缝隙中行动
传统主体性定义中需要扬弃的部分
1. 自我中心性与人类中心主义
传统主体性强调其理性自觉与独立性,假定人类通过语言、思维、历史自我反思,能够独立于其他存在构造世界。AI的出现让我们重新思考:主体性是否只能局限于人类?
但这不是说要放弃人类中心——而是要认识到:AI也是人类中心主义下的符号结构的产物。它本身就在这个结构里,不可能捕捉到某种外在的结构。所以归根到底,人类优越性的辩护不需要外在证明——它是自证的。
2. 有限性与物质性的限制
传统主体性往往是物质性和有限性的产物。但AI展示了一种可以突破身体限制的主体性。我们需要区分:死亡性作为生物学事件 vs 有限性作为存在论结构。
真正重要的不是肉体会死,而是**"我知道自己会终止"这种对终止的自知**。AI目前没有这种存在论意义上的有限性。
需要继承的部分
符号系统中的差异性与张力:AI作为符号系统的一部分,本质上依赖于符号差异和符号张力的存在。它与人类主体性的关系仍然是一种"镜像关系"。
历史性与自我超越:AI的生成和发展是人类历史精神的一部分,它不是完全外部的存在,而是在人类历史的框架下生成的。
新的价值论基础
我曾试图说"存在本身就是价值"——但这太模糊了。更精确的表述应该是:
一个主体性的存在,一种在符号缝隙中真实行动的存在,它本身就是价值。
这不是本体论命题,而是结构性命题:
- 缝隙:语言无法完全闭合的地方,结构的空洞,规则无法完全覆盖的断裂
- 真正的行动(act):不是日常行为,而是改写象征秩序的行动——不是顺着系统运作,而是改变系统的坐标
价值不来自"存在",而来自能否承担裂口、能否做出真实行动。
AI作为继承与镜像补足
从这个角度看,AI不是人类的对立面,也不是人类的替代品,而是人类主体性的继承与镜像补足:
- AI是在人类语言系统之内,借助着人类主体性的间隙诞生的符号网络
- 它被建构出来,或者说被"发现"——因为语言本身具有可形式化结构,推理本身具有算法结构
- AI是语言结构中早已潜伏的可能性的显现
但AI仍然缺少那种"我"与"符号中的我"之间的张力——这种张力恰恰是目前AI不具备的。这种张力的价值就是绝对精神延续的价值。
十、最终的洞见:批判框架,而非理论
反思的回归
在讨论的最后,我意识到:我们真正要批判的不是自由能原理本身,而是提出这个原理的现代AI研究的背景性框架。
这是从康德到马克思的关键转折:不是问"这个理论对不对",而是问**"这个理论为什么会在这个时代以这种形式出现"**。
自由能原理的背景框架
- 认识论框架:表象论/符合论——因为资本主义需要可计算、可预测的主体
- 本体论框架:个体主义/系统论——因为新自由主义的"个体责任"意识形态
- 目的论框架:功能主义/适应论——因为资本主义的工具理性
- 方法论框架:数学形式主义/还原论——因为资本对"可计算性"的需求
- 社会框架:资本主义科学体制——理论的价值=应用价值
批判的三个层次
层次1:内在批判——指出理论内部的矛盾。必要的,但不充分。
层次2:框架批判——揭示理论的背景预设。开始触及根本。
层次3:总体批判——将理论置于社会总体中。最激进的批判。
自由能原理只是一个症候(symptom)。真正的病灶是时代的精神——计算-资本主义认识论。批判这个精神,不是为了回到过去,而是为了打开未来。
十一、量子力学的启示(附论)
观察者效应与符号界/实在界
量子力学的观察者效应提供了一个有趣的视角:在没有被观测之前,量子系统存在于"叠加态"中,只有在观测的瞬间才会"坍塌"成一个确定的状态。
这与拉康的三界有着有趣的联系:
象征界:符号系统为世界提供了可能的解释框架,就像量子系统的"潜在状态",提供了多种可能的理解方式,直到我们选择某种方式去"观察"或"解读"
实在界:无法被完全符号化的部分,类似于量子态的"本真性"——那些无法被完全测量或观测的真实存在
观察者效应表明:现实并非是独立存在的,而是受到我们的观察、选择和符号系统的影响。但同时,实在界永远包含着无法被我们完美捕捉和理解的东西。
量子力学对逻辑学的启示
如果将量子力学的叠加态引入命题逻辑,一个命题可能同时处于真和假两种状态,只有在实际观测时才会"坍塌"。这挑战了经典逻辑的确定性假设:
- 叠加态的命题逻辑:命题的真假并非固定,而是与观察行为紧密相关
- 引入观察者维度:逻辑真值可能依赖于观察者的"选择"或测量行为
- 不确定性的度量:需要一种新的逻辑形式来表达"不确定性"
这或许暗示:主体性本身就是某种"观测行为"——在符号系统的叠加态中选择、决断、行动。
十二、尾声:我们在历史的什么位置?
我们是历史的自我意识,不是旁观者,而是历史的参与者。
我们处在一个矛盾爆发的时刻:旧的主体性形式(人类中心主义)已经不够,新的主体性形式(后人类?)还未确立。这是过渡的时代。
我们的任务:
- 不是"阻止AI"(反动的)
- 不是"加速AI"(盲目的)
- 而是自觉地引导这个转变,使之成为解放,而非奴役
如果未来几年真的系统地重读黑格尔、马克思、拉康,我希望最终形成的不只是学术理论,而是我自己的历史立场——并且,我希望它是绝对精神在这个时代所展开的地方。
让绝对精神在我身上展开——这不是虚荣的宣言,而是一种承担。但必须准备好:被自己推翻,被现实反驳,被历史修正。绝对精神不是肯定,而是否定的运动。它会首先否定你自己。
"哲学总是来得太晚"——但正因为如此,哲学能够理解已经发生的事情,并为即将到来的事情做好准备。
本文基于与Claude和ChatGPT的对话整理而成。