斯坦福 HAI 上周发布了 2026 AI Index Report。往年看这份报告,AI 治理的讨论大多还停留在"应该怎么办"。今年第一次,讨论对象变成了"已经在做什么、做得怎么样"——这是进入落地期的信号。
Chapter 3 和 Chapter 8 里各有一个值得合规人停下来看的切点。
一、责任制度在加速制度化,但基础设施跟不上
一组对比起来很刺眼的数字:
制度化的一面:
- AI 专项治理岗位在 2025 年增长 17%
- 没有 Responsible AI 政策的企业比例从 24% 降到 11%,一年砍掉一半
- ISO/IEC 42001 作为新入榜的 AI 管理体系标准,一年就被 36% 的受访组织引用;NIST AI RMF 达到 33%
跟不上的一面:
- AI Incident Database 在 2025 年记录了 362 起事故,2024 年是 233 起
- Foundation Model Transparency Index 从 2024 年的 58 跌回 2025 年的 40,训练数据、算力、部署后影响这几块披露尤其薄弱
- 企业推动治理落地的主要障碍:知识缺口 59%、预算约束 48%、监管不确定性 41%
这两面放一起,是一个很熟悉的企业场景:合规部门开始有人做 AI 治理了,政策也在起草,但业务线一问"我这个 Copilot 试点怎么审查",经常答不上来。事故在长,外部标准在换,内部基线还没建完。
三点落地启示
ISO/IEC 42001 值得早看。 一年从 0 到 36% 引用率的速度,很可能让它成为未来几年的合规锚——类似 ISO 27001 之于信息安全。2025 年已经有一批标志性认证落地:Anthropic(2025 年 1 月)、Microsoft 把 365 Copilot 纳入认证范围、KPMG International(2025 年 12 月,四大国际实体层面第一家)。KPMG 这个特别值得留意——总部获证之前,它在澳大利亚、西班牙、印度、美国的成员所已经先后拿下认证。整个体系走完大约是 1-2 年,这是给你制度规划用的参照周期。
治理岗位放在第二道防线更容易跑起来。 岗位涨了 17% 听起来不少,但"知识缺口 59%“才是核心问题——大多数组织招的是"名字里带 AI"的人,但这个岗位到底盯什么、和 CISO/DPO/Internal Audit 怎么分工,业内还没有成熟模板。AI 风险本身横跨数据隐私、操作风险、模型风险、第三方风险,放在 Second Line 比放在 IT 或法务下面更能协调。
透明度倒退要有预案。 透明度指数跌回 40 意味着你从外部供应商那里能拿到的信息会越来越少。但反向也在发生——Microsoft 在 ISO 42001 文档里明确写了一句:客户可以把 Microsoft 的认证用在自己的合规评估里。翻译过来就是"我们帮你分担一部分第三方风险评估的负担”。下一版 Vendor Risk Assessment 模板里,AI 供应商应该单独列,把模型卡、评估报告、事故披露政策、ISO 42001 认证状态全部写进去。
二、数据主权分叉,跨境合规模板可能要重做
Chapter 8 里最值得做跨境业务的人注意的是这组数字:
截至 2024 年,东亚及太平洋累计采用了 77 项数据本地化措施,撒哈拉以南非洲 71 项,欧洲和中亚 66 项,北美只有 3 项。77 对 3,不是"监管趋同",是监管在系统性分叉。
叠加一组数据:2018-2025 年间,欧洲和中亚支持的 AI 超算集群从 3 个涨到 44 个;南亚、拉美、中东北非仍在个位数。AI 主权(AI sovereignty)在报告里被反复提到。
翻译到企业层面:过去五年建立的"数据随业务走"的跨境合规模板,在 AI 系统上可能要重做。因为 AI 除了数据出境,还涉及模型在哪里训练、在哪里推理、权重能不能跨境部署——GDPR SCC、中国数据出境安全评估这些工具,都没有完全覆盖这些新的控制点。
三套基础规则上还要再加一层 AI 专项要求:
- 中国:《生成式人工智能服务管理暂行办法》+ 数据出境评估 + 算法备案 + 科技伦理审查
- 欧盟:AI Act(风险分级)+ GDPR + Cyber Resilience Act
- 美国:NIST AI RMF(自愿)+ 州级立法 + 行业监管局指引(FTC、SEC 对 AI 披露的执法)
其中欧盟的时间压力最近:AI Act 的高风险 AI 系统义务(覆盖招聘、信贷决策、教育、执法)将于 2026 年 8 月 2 日强制生效。AppliedAI 针对 106 个企业 AI 系统的研究发现,其中 40% 的风险分类并不清晰,大多卡在"可能是高风险"的灰色地带。Digital Omnibus 有可能把期限推迟到 2027 年 12 月,但谨慎的合规策略是不要赌延期。
短期可做的事:在新签或续签的 DPA 里加 AI 专项条款——模型训练是否会使用对方数据、用户数据是否可以用于模型改进(opt-out)、跨境推理的审计接入权。比等 AI Act 全面落地后再谈判更省力。
最后
AI Index 2026 里有一个结论:为改进某个责任 AI 维度(比如安全)而设计的训练技术,常常会削弱另一个维度(比如准确性)。不同维度之间存在系统性权衡,且这些权衡目前还没被清楚理解。
这个结论并不新鲜。反洗钱加强了,客户体验就差;GDPR 严格执行了,产品功能就受限。这一直是合规工作的本质。AI 治理不是新问题,是老问题换了一套载体。
2026 年最值得做的三件事:
- 把 ISO 42001 和 NIST AI RMF 读一遍,做一次差距分析
- 更新 Vendor Risk Assessment 模板,单独列出 AI 供应商部分
- 在下一版 DPA 模板里加 AI 专项条款
都不需要等总部、等监管、等法律意见。现在就可以做。
AI Index 2026 全文可在 Stanford HAI 下载。