理性与对话的裂痕:大模型在风险决策中的两极分化
人工智能正以前所未有的速度渗透进决策系统。从金融建议到医疗诊断,从企业战略到公共政策,大语言模型(LLMs)不再只是信息检索工具,而是逐渐成为人类决策的协作者甚至代理者。然而,当这些模型被置于真实世界的不确定环境中,它们如何权衡风险?其选择逻辑是否可靠?一项最新研究揭示了令人意外的分裂图景:并非所有AI都“理性”,而所谓的“智能”背后,隐藏着两种截然不同的决策范式。
两类模型,两种逻辑
研究人员对20个前沿与开源大语言模型进行了系统性测试,聚焦于风险决策中的两个关键维度:信息呈现方式(显性概率 vs. 经验历史)与决策依据(是否提供解释)。结果清晰地将模型划分为两大阵营:推理型模型(RMs)与对话型模型(CMs)。
推理型模型展现出令人惊讶的稳定性。无论风险选项是以精确数字呈现,还是通过一系列历史结果模拟经验,它们的决策几乎一致。它们不受“先呈现高收益还是高风险”的顺序影响,也不因“收益”或“损失”的表述框架而动摇。更关键的是,即使被要求解释其选择,这些模型的答案也几乎不改变其原始判断。这种行为模式高度接近经济学中的“理性代理人”模型——以期望效用最大化为目标,不受情绪或表述偏差干扰。
与之形成鲜明对比的是对话型模型。它们的行为更接近人类:对信息顺序敏感,容易因“损失规避”心理而做出保守选择,且在不同表述下决策波动明显。当风险选项以经验历史形式呈现时,它们的判断与显性数字形式之间出现巨大落差——这正是研究中所谓的“描述-历史差距”(description-history gap)。此外,当模型被要求提供解释时,其决策本身也会随之调整,说明“解释”并非事后合理化,而是决策过程的一部分。
训练目标决定决策基因
为何会出现如此分裂?研究通过对比开源模型发现,核心差异可能源于训练目标的根本不同。推理型模型通常在数学推理、逻辑演绎和符号操作任务上接受高强度训练,其架构设计强调内部一致性而非语言流畅性。这种训练使它们发展出一种“去情境化”的决策机制——剥离语言包装,直达数学本质。
而对话型模型则长期优化于语言生成、上下文连贯与用户意图理解。它们的成功标准是“听起来像人”,而非“算得准”。这种导向导致其在处理模糊、非结构化信息时表现优异,但在需要精确概率权衡的场景中,反而容易陷入人类常见的认知陷阱。讽刺的是,越是“智能对话”的模型,在风险决策上可能越“不理性”。
现实世界的隐忧
这一发现对AI的实际部署敲响警钟。在金融、医疗、法律等高风险领域,若将对话型模型用于自动化决策支持,其易受表述方式影响的特性可能导致系统性偏差。例如,同一份风险评估报告,因措辞不同(强调“90%成功率” vs. “10%失败率”)而引发截然不同的模型建议,这将严重削弱系统的可靠性。
更值得警惕的是,用户往往无法区分模型属于哪一类型。一个擅长日常对话的AI,可能被误认为在所有领域都值得信赖。而事实上,其“人性化”特质在风险决策中恰恰是弱点。研究还指出,当前多数模型评估标准仍侧重语言能力,缺乏对决策稳健性的系统测试,这进一步放大了潜在风险。
走向可信的AI决策
未来AI的发展路径不应是单一维度的“更聪明”,而需明确区分应用场景与能力边界。对于高风险决策,应优先采用经过严格数学推理训练的模型,并建立“决策审计”机制,监控其对信息呈现方式的敏感性。同时,模型透明度至关重要——用户有权知道其决策伙伴是“逻辑引擎”还是“语言伙伴”。
长远来看,理想的AI系统或许应融合两者优势:在底层保持推理型模型的理性内核,在交互层保留对话型模型的用户友好性。但在此之前,我们必须正视这一裂痕:在风险面前,并非所有AI都值得信赖。