Feb 2025
禁止性规定生效 (Art. 5)
监管
全球首部 AI 法规已经生效。以下是你在罚款到来之前需要了解和采取行动的一切
EU AI Act 的罚款最高可达全球年营业额的7 %——是 GDPR 最高罚款的两倍以上。
EU AI Act 已经生效,2026年8月是大多数企业的真正截止日期。任何影响就业、信贷、保险或教育的 AI 系统很可能属于高风险类别。罚款力度超过 GDPR:最高可达全球营业额的7 %。你还有四个月时间来完成清单盘点、风险分类和文档记录。本文将详细告诉你该怎么做。
Feb 2025
禁止性规定生效 (Art. 5)
Ago 2025
GPAI 义务 (GPT-4, Claude, Gemini…)
Ago 2026
高风险——企业的真正截止日期
Ago 2027
受其他指令监管的产品
35 %
在招聘中使用 AI 的企业(高风险)
7 %
基于全球营业额的最高罚款比例
€ 35 M
禁止性做法的最高绝对罚款金额
Ago 2026
高风险系统的截止日期
GDPR 于2018年生效,企业花了数年时间才真正重视起来。最初的罚款如今被视为一个迟来的警告。EU AI Act 也不会有什么不同——只有一个细节例外:最高罚款几乎是 GDPR 的两倍。GDPR 的最高罚款为全球年营业额的4%,而 AI Act 可达 7%。时钟已经开始倒计时。
2026年8月是高风险 AI 系统在欧盟27个成员国全面进入可处罚阶段的日期。还剩四个月。本文将解释这部法规是什么、对你有什么影响,以及在截止日期到来前你需要做什么。
欧盟法规 (EU) 2024/1689,即 EU AI Act,是全球首部具有法律约束力的人工智能法规。它不是一项指令,而是一部法规,在欧盟法律体系中意味着它直接适用于27个成员国,无需各国进行国内转化。从生效之日起,它就是西班牙、法国、德国及其他欧洲国家的法律,无需任何中间步骤。
该法规于 2024年6月12日 在《欧盟官方公报》上发布,并于 2024年8月1日 正式生效。其架构采用分阶段实施的方式:法规的不同条款在2025年至2027年之间的不同日期分批生效。
组织该法规的核心原则是基于风险的方法:一个 AI 系统对人的潜在危害越大,合规义务就越严格。并非所有 AI 都受到同等程度的监管。一个垃圾邮件过滤器和一个人员筛选系统受到的待遇完全不同。
AI Act 将 AI 系统分为四个层级。确定你企业使用的每个工具属于哪个层级,是第一个必须完成的步骤。
| 类别 | 包含内容 | 监管制度 |
|---|---|---|
| 不可接受风险 | 国家社会评分、潜意识操纵、利用弱势群体、公共场所实时生物识别 | 禁止 — 自2025年2月起生效 |
| 高风险 | 关键基础设施、就业和人力资源、信贷、保险、教育、司法、移民 | 受监管 — 自2026年8月起可处罚 |
| 有限风险 | 模仿人类的聊天机器人、deepfakes | 强制透明 |
| 最低风险 | 垃圾邮件过滤、推荐系统、视频游戏中的 AI | 自由 — 无特定义务 |
这些做法自2025年2月2日起在欧盟完全被禁止。如果你的企业或你使用的任何供应商正在采用这些做法,你现在就已经违反了法规:
法规附件III列出了 AI 系统被自动归类为高风险的行业领域,包括:
与人互动的聊天机器人必须声明自己是 AI,前提是用户有合理可能认为自己在与真人交流。Deepfakes 同理:由 AI 生成或操纵的涉及真实人物的内容必须标注为此类内容。该义务已经生效。
垃圾邮件过滤器、不影响权利的推荐引擎、视频游戏中的 AI、不影响决策结果的写作辅助工具:在 AI Act 下没有特定义务。可以继续照常运行。
如果你的某个系统属于高风险类别,法规在部署之前以及整个运营生命周期内都要求履行九项具体义务:
满足这九项义务不是一周就能完成的项目。对于大多数从零开始的企业来说,这是一个三到六个月的过程。
最常见的错误不是使用了被禁止的 AI,而是不知道自己正在使用的系统属于高风险。以下是最容易被低估的场景:
AI 简历筛选和人员选拔 — 如果你使用的工具在人类审阅之前自动筛选、评分或分类候选人,那根据附件III这就是高风险系统。LinkedIn Recruiter 的 AI 筛选功能、Workday 的候选人评分、任何带有自动筛选功能的 ATS 都包含在内。35%的欧洲企业已经在招聘流程的某个环节使用了 AI。
信用评分 — 任何分配偿付能力评分或违约概率的模型都属于附件III中基本服务类别。无论是你自主开发的还是作为 SaaS 从供应商购买的,都是高风险。
决定保险覆盖范围的保险聊天机器人 — 如果聊天机器人不仅提供信息,还决定某项保险覆盖是否适用或对应的保费,这就是高风险。关键在于系统是否影响了对个人产生实质性影响的决策。
AI 学生评估 — 自动化处罚的抄袭检测系统、根据自动评估调整学习路径的在线学习平台、无人工审核直接生成成绩的工具:在教育类别中属于高风险。
关键基础设施的预测性维护系统 — 如果 AI 预测水、天然气、电力或交通网络的故障,且该预测影响运营决策,则在基础设施类别中属于高风险。
正确的问题不是”我们是否使用了高风险 AI?“,而是”AI 在我们企业中做出或影响了哪些涉及个人的决策?“
通用 AI 模型 — 业界所说的基础模型 — 在 AI Act 下有其独立的监管体系。GPT-4、Claude、Gemini、Llama、Mistral:所有这些都受到自 2025年8月 起生效的特定义务约束。
对于所有 GPAI 模型,无论其规模大小:
对于具有系统性影响的模型——定义为训练计算量超过 10²⁵ FLOPs 的模型(目前包括 GPT-4 及同等级别模型)——还需额外满足:
如果你的企业基于这些模型的 API 构建产品,GPAI 合规义务由模型提供商承担——但你仍然对如何在可能属于高风险的系统中使用该模型负有责任。
AI Act 的日期不是象征性的。每个日期都激活了具有真实法律后果的不同监管制度。
2025年2月2日 激活了绝对禁止条款。如果你的企业在没有法律依据的情况下使用社会评分或实时生物识别,你已经违反法规超过一年了。
2025年8月2日 激活了 GPAI 模型的合规义务。基础模型提供商已经在 AI Office 的监管之下。
2026年8月2日 是大多数企业忽视的日期——也是最重要的日期。从那天起,附件III所列的所有高风险 AI 系统必须完全符合法规第6至49条的要求。各国监管机构可以启动调查并进行处罚。
从今天到2026年8月还剩四个月。 对于从零开始的企业来说,如果现在就行动,时间刚刚好。
2027年8月2日 将纳入受其他欧盟指令监管的高风险产品——医疗、航空、汽车行业。这部分多了一年的缓冲期。
自2018年以来,GDPR 已累计产生超过50亿欧元的罚款。AI Act 将最高罚款标准翻倍:
| 违规行为 | 最高罚款 |
|---|---|
| 禁止性做法 (Art. 5) | €35M 或全球营业额的7% |
| 违反合规要求 (Arts. 6-49) | €15M 或全球营业额的3% |
| 向监管机构提供不正确信息 | €7.5M 或全球营业额的1% |
直接对比:GDPR 的最高罚款为全球营业额的4%。AI Act 达到7%——在最严重情况下高出 x1.75 倍。
对于中小企业,法规规定将适用营业额百分比和绝对金额中较低的那个。但即便是绝对金额——禁止性做法3500万欧元——对任何中型企业都是毁灭性的。
还有一个重要的细节:当一项违规同时涉及个人数据时,AI Act 的罚款可以与 GDPR 的罚款叠加。一个既存在歧视又侵犯隐私的人员选拔系统可能同时受到两部法规的处罚。
如果本周就开始,四个月时间足够了。以下是具体步骤:
第1步——盘点正在使用的 AI 系统
梳理企业中所有使用 AI 的工具:从人力资源的 ATS 到带有预测评分的 CRM、数据分析仪表盘、客服聊天机器人,以及任何使用 AI 处理个人数据的 SaaS。不仅是你内部开发的系统——还包括你作为服务购买的系统。AI Act 适用于部署 AI 系统的主体,而不仅仅是开发者。
第2步——按系统进行风险分类
针对每个已识别的系统,根据附件III确定其类别。关键问题是:这个系统是否影响了对个人产生实质性影响的决策——他们的就业、信贷、服务获取、教育、权利?如果答案是肯定的,它很可能是高风险。如果存在疑问,保守的解释才是正确的做法:将系统视为高风险。
第3步——对照第9-15条要求进行差距分析
针对每个高风险系统,评估其当前状态与九项义务的差距:是否有技术文档?是否有活动日志?是否存在真正的人工监督,还是仅流于形式?训练数据是否有文档记录且可审查?差距分析将确定实际还需完成多少工作。
第4步——实施:文档、日志、人工监督
这是工作的主体。这不仅仅是填写表格:需要实施真正的流程。Human-in-the-loop 不能只是工作流中的一个勾选框——它必须是一个具有实际推翻 AI 决策能力的审查流程。日志必须配置到位。技术文档必须持续更新。在许多组织中,这需要改变运营流程,而不仅仅是系统调整。
第5步——向主管机构注册
在西班牙,被指定为监督 AI Act 的国家机构是 AESIA(西班牙人工智能监管局)。受监管行业中的高风险系统必须在运营前在欧洲数据库中注册。注册过程需要完整的技术文档——这就是为什么前面的步骤必须先完成。
在8月之前合规的企业与不合规的企业之间只有一个区别:前者在2026年第一季度就开始了系统盘点,后者仍在拖延。
EU AI Act 创建了一个新的欧洲机构:AI Office,隶属于欧盟委员会。它不像 ENISA 那样是独立机构,而是欧盟委员会内部的一个单位,对 GPAI 模型拥有直接监管权。
其主要职能:
AI Office 于2025年2月发布了首批解释性指南。对于使用第三方模型的企业,这些指南明确了供应商的责任边界和运营者的责任起点。
如果你是 CISO 或 DPO: AI Act 在任何处理个人数据的 AI 系统上与 GDPR 重叠。将 AI Act 作为你已执行的 DPIA 的附加层。如果你的组织在 GDPR 合规方面已经成熟,文档和日志的基础设施已经存在——只需进行适配。
如果你是企业负责人: 从2026年8月起,法律风险落在运营者身上——即部署 AI 系统的企业,不仅仅是开发者。购买带有 AI 的 SaaS 并不能免除你的责任。要求你的供应商在合同条款中声明其系统是否属于高风险。
如果你在人力资源部门工作: 审查你的技术栈:ATS、视频筛选平台、能力评估、任何生成候选人评分的工具。如果在人类查看简历之前存在自动排名,你就有一个必须满足附件III九项要求的高风险系统。
如果你是 AI 系统开发者: 如果你为附件III中的行业开发产品,合规必须从一开始就纳入设计——技术文档、日志和人工监督不是最后一刻的添加项。如果你使用第三方 GPAI 模型,请查看其服务条款:所有模型在2025年都已添加了 AI Act 相关条款。
EU AI Act 不是创新的官僚障碍。它是为一项已经影响数百万日常决策的技术建立全球游戏规则的首次严肃尝试。将其视为差异化机会的企业——“我们符合 AI Act”作为信任信号——将比那些将其视为合规成本的企业更具优势。
2026年8月不是某件事的结束。它是一个新阶段的开始——在这个阶段,没有完成功课的企业将开始面临首批调查。还剩四个月。系统盘点今天就可以开始。
相关内容
660.000 millones en infraestructura, solo el 5% de las empresas con ROI real y un historial de expectativas que siempre corren más rápido que la realidad
La brecha entre la inversión en IA y el valor real que genera — y qué pueden hacer las empresas para estar en el 5% que sí funciona