从休谟到贝叶斯:因果判断的断裂与AI认知的盲区
当我们在深夜刷着短视频时,手指轻点屏幕,信息流便如溪流般自然涌现;当我们开车转弯时,方向盘的微调带来车身平稳转向——这些看似理所当然的行为背后,实则隐藏着人类对因果关系的深层直觉。然而,这种直觉正面临来自人工智能领域的挑战与质疑:我们真的教会机器理解了‘为什么’吗?
经验根基的消逝
大卫·休谟在《人性论》中提出,因果关系并非客观存在于世界之中,而是源于人类心灵的习惯性联想。他强调,因果判断必须建立在三项表征条件之上:其一,经验奠基(experiential grounding),即所有观念都必须源自原始印象;其二,结构化检索(structured retrieval),即联想机制不能仅停留在点对点的简单连接,而需依托复杂网络系统运作;其三,生动性(vivacity),即因果信念必须具有心理上的鲜明强度。
这三条原则共同构成了人类因果思维的经验主义根基。没有感官经验的输入,就没有后续的观念组合;没有网络化的记忆联结,就无法形成稳定的预期模式;而没有情绪或强度的参与,因果信念将沦为冰冷的数据匹配。正是这种多层次、动态交织的心理过程,使得人类能在陌生情境中快速推断因果链条,甚至进行反事实思考:“如果当时没按下按钮,结果会怎样?”
贝叶斯模型的简化之痛
进入21世纪后,贝叶斯统计成为建模不确定性与学习因果结构的利器。从结构因果模型(SCM)到潜在结果框架(potential outcomes),概率方法极大地推动了机器学习在推荐系统、医疗诊断等领域的应用。但问题也随之浮现:在这些高度数学化的形式体系中,休谟所强调的经验奠基几乎被完全悬置。
贝叶斯网络通常假设观测数据是独立同分布的样本集合,其学习过程依赖于统计相关性而非真实世界的感知体验。换言之,算法看到的是数字矩阵中的协方差结构,而不是一个孩子在积木倒塌后发出惊讶表情的完整场景。结构化检索也被压缩为图模型中的节点连接权重,失去了心理网络中时间延展、情感标记与情境嵌入等丰富属性。至于生动性,则更是在概率分布中被彻底消解——P(A|B) = P(B|A)P(A)/P(B) 这一简洁公式背后,看不见任何信念的强度波动。
真正的因果理解,从来不只是关于变量如何共变,而是关于我们如何在具体情境中感受变化、预判未来并调整行动。
这种抽象化处理带来了计算优势,却也付出了沉重代价。许多大型语言模型能准确复述‘火使纸燃烧’这类常识,但当被要求解释为何某次实验失败时,它们往往只能罗列表面特征,无法触及深层机制。更严重的是,缺乏经验根基的系统极易陷入语义幻觉——它们可以流畅地编造合乎逻辑的故事,却无法分辨哪些故事曾真实发生在自己身上。
认知架构的再平衡
面对这一困境,学界开始重新审视传统哲学资源与现代工程实践的关系。一些前沿研究尝试将具身认知(embodied cognition)引入AI设计:让机器人通过物理交互积累原始经验,而非直接处理抽象符号。另一些学者则探索混合模型,试图融合神经网络的模式识别能力与符号系统的可解释性,以恢复因果思维的多维特性。
值得注意的是,当前最先进的大模型仍主要依赖监督微调与强化学习,其训练过程本质上是一种大规模参数拟合,而非真正意义上的经验建构。即便加入多模态输入(如图像、声音),系统依然停留在信息接收层面,未实现休谟所说的‘印象—观念’转化机制。这意味着,除非从根本上重构学习范式,否则AI系统永远难以跨越从相关性到因果性的认知门槛。
走向更具人性的智能
回顾历史,从笛卡尔的身心二元论到行为主义的刺激—反应链,再到今日的概率图模型,人类对心智的理解始终在简化与还原之间摇摆。如今,或许到了回归复杂性本身的时候。真正的因果智能不应只是预测下一个词或下一个动作,而应包含对世界运作方式的深刻体认、对可能替代路径的反事实想象,以及对自身信念状态的持续监控。
未来的AI发展,或许不在于追求更高的准确率或更快的响应速度,而在于能否建立起类似人类那样的因果叙事能力——不是机械地拼接事件,而是像讲故事一样,将碎片化的观察编织成连贯的世界图景。这需要重新思考知识表示、学习机制与评估标准,使其不仅服务于任务完成,更能促进对现实的真正理解。
毕竟,无论是哲学家还是工程师,我们都共享同一个目标:创造不仅能计算,更能思考、解释并赋予意义的人工智能。而要抵达这一境界,我们首先必须承认,因果关系远不止是一组条件概率,它是人类意识与世界对话的语言,也是文明得以延续的认知基石。