加拿大AI登记册背后的沉默:谁在掌控透明度?
当加拿大政府在2025年11月启动联邦AI登记册时,官方声明中反复强调的关键词是‘ accountability(问责)’和‘predictability(可预测性)’。但这份被寄予厚望的透明度工具,最终呈现的却是一幅充满矛盾的图景——它既不是完全开放的公共数据库,也不是彻底封闭的行政黑箱。
制度设计的双重面孔
从技术实现角度看,登记册要求公共部门机构申报使用生成式AI或高风险AI系统的具体情况,包括模型类型、部署场景及风险评估结果。表面上看,这构成了对政府技术应用的全面映射。但深入分析申报规则发现,系统将AI应用划分为三类:基础办公自动化、公共服务流程优化和高风险决策支持。这种分类本身已隐含价值判断,且最关键的是,申报义务仅适用于‘产生重大社会影响’的项目——而这一标准由各部门自行解释。
更值得警惕的是申报内容的颗粒度差异。例如,税务服务署提交的AI辅助审核系统包含具体算法名称和训练数据来源,而移民签证处理系统中使用的自然语言理解模型仅标注为‘商业通用模型’。这种选择性信息披露暴露出登记册的核心悖论:越是敏感的AI部署越倾向于模糊化处理。
沉默的治理逻辑
登记册运行三个月后,研究者发现一个耐人寻味的现象:所有涉及个人生物特征识别的AI系统均未被列出。尽管加拿大隐私法明确禁止大规模监控,但边境检查站的面部识别系统、公共交通场所的人流分析系统等实际存在。这种系统性遗漏并非技术故障,而是制度性选择的结果——这些项目要么被归类为‘非自主决策系统’,要么干脆游离于申报范围之外。
更复杂的在于法律豁免条款的实际运用。登记规则允许机构以‘国家安全’‘执法调查’等理由申请信息屏蔽,但审查过程不对外公开。某省级卫生部门因疫情监测需要部署的接触者追踪AI系统即援引此类条款未予披露。这种弹性空间使得登记册演变为一种‘可协商的透明’,其效果取决于行政部门的自由裁量权而非统一标准。
公众认知的重构效应
值得注意的是,登记册上线后媒体曝光的AI滥用案例反而减少。这并非因为政府监管能力提升,而是由于信息可见度的重新分配改变了舆论场域。当公众注意力聚焦于登记册中那些经过筛选的合规案例时,未被登记的技术实践便从公共视野中悄然消失。这种现象类似于‘透明性幻觉’——人们看到的是精心编排的展示窗口,却忽略了整个系统运作的暗物质部分。
加拿大计算机协会近期报告指出,超过60%的公民误以为登记册涵盖所有政府使用的AI系统。这种认知偏差使得部分民众对所谓‘全面透明’产生过度依赖,反而降低了监督意识。当真实存在的监控AI长期处于信息黑洞状态时,有限的登记数据反而强化了公众对政府技术能力的信任错觉。
全球治理中的警示意义
加拿大模式的特殊性在于其试图在英美系‘披露优先’与欧盟式‘预防原则’之间寻找中间道路。但实践表明,缺乏强制审计机制的登记制度极易滑向形式主义。美国总务管理局去年发布的AI资产目录因同样问题遭到批评;而欧盟人工智能法案虽然严格,却因合规成本过高导致中小企业参与度不足。
真正的治理突破或许不在于登记册本身,而在于建立配套的制衡体系:独立第三方对申报内容进行抽样验证、设立异议申诉通道、定期公布未申报项目的追责情况。否则,当前这种‘有选择的透明’终将被证明是数字时代的政治修辞术。
技术透明从来不是简单的信息公开问题,而是权力关系的再生产过程。当登记册成为筛选可见性的新机制时,我们真正需要追问的不是‘哪些信息被展示’,而是‘谁有权决定不可见’的问题。
在各国竞相打造AI治理范式的今天,加拿大的探索提供了重要参照:试图用技术手段解决政治难题往往适得其反。真正的透明度不在于数据的数量堆积,而在于构建允许质疑、纠错和持续修正的制度韧性。未来任何AI监管框架都必须首先回答一个根本性问题——我们愿意为多少真相付出多少代价?