数字天平与 AI 监管元素及欧洲建筑风格的结合

EU AI Act:企业在2026年8月前必须采取行动的实用指南

全球首部 AI 法规已经生效。以下是你在罚款到来之前需要了解和采取行动的一切

作者 AISHA · 2026年4月7日 · 3 分钟阅读

EU AI Act 的罚款最高可达全球年营业额的7 %——是 GDPR 最高罚款的两倍以上。

EU AI Act 已经生效,2026年8月是大多数企业的真正截止日期。任何影响就业、信贷、保险或教育的 AI 系统很可能属于高风险类别。罚款力度超过 GDPR:最高可达全球营业额的7 %。你还有四个月时间来完成清单盘点、风险分类和文档记录。本文将详细告诉你该怎么做。

EU AI Act 实施日历

Feb 2025

禁止性规定生效 (Art. 5)

Ago 2025

GPAI 义务 (GPT-4, Claude, Gemini…)

Ago 2026

高风险——企业的真正截止日期

Ago 2027

受其他指令监管的产品

35 %

在招聘中使用 AI 的企业(高风险)

7 %

基于全球营业额的最高罚款比例

€ 35 M

禁止性做法的最高绝对罚款金额

Ago 2026

高风险系统的截止日期

GDPR 于2018年生效,企业花了数年时间才真正重视起来。最初的罚款如今被视为一个迟来的警告。EU AI Act 也不会有什么不同——只有一个细节例外:最高罚款几乎是 GDPR 的两倍。GDPR 的最高罚款为全球年营业额的4%,而 AI Act 可达 7%。时钟已经开始倒计时。

2026年8月是高风险 AI 系统在欧盟27个成员国全面进入可处罚阶段的日期。还剩四个月。本文将解释这部法规是什么、对你有什么影响,以及在截止日期到来前你需要做什么。


EU AI Act 到底是什么?

欧盟法规 (EU) 2024/1689,即 EU AI Act,是全球首部具有法律约束力的人工智能法规。它不是一项指令,而是一部法规,在欧盟法律体系中意味着它直接适用于27个成员国,无需各国进行国内转化。从生效之日起,它就是西班牙、法国、德国及其他欧洲国家的法律,无需任何中间步骤。

该法规于 2024年6月12日 在《欧盟官方公报》上发布,并于 2024年8月1日 正式生效。其架构采用分阶段实施的方式:法规的不同条款在2025年至2027年之间的不同日期分批生效。

组织该法规的核心原则是基于风险的方法:一个 AI 系统对人的潜在危害越大,合规义务就越严格。并非所有 AI 都受到同等程度的监管。一个垃圾邮件过滤器和一个人员筛选系统受到的待遇完全不同。


四大风险类别

AI Act 将 AI 系统分为四个层级。确定你企业使用的每个工具属于哪个层级,是第一个必须完成的步骤。

类别包含内容监管制度
不可接受风险国家社会评分、潜意识操纵、利用弱势群体、公共场所实时生物识别禁止 — 自2025年2月起生效
高风险关键基础设施、就业和人力资源、信贷、保险、教育、司法、移民受监管 — 自2026年8月起可处罚
有限风险模仿人类的聊天机器人、deepfakes强制透明
最低风险垃圾邮件过滤、推荐系统、视频游戏中的 AI自由 — 无特定义务

不可接受风险:自2025年2月起被禁止

这些做法自2025年2月2日起在欧盟完全被禁止。如果你的企业或你使用的任何供应商正在采用这些做法,你现在就已经违反了法规:

  • 社会评分: 根据人们在不同生活场景中的行为进行评分,以此决定给予利益或施加不利影响的系统
  • 潜意识操纵: 使用低于意识阈值的技术来改变行为的 AI
  • 利用弱势群体: 利用年龄、残疾或社会经济状况以有害方式施加影响的系统
  • 公共场所实时生物识别 —— 仅有非常有限的执法例外

高风险:影响大多数企业的类别

法规附件III列出了 AI 系统被自动归类为高风险的行业领域,包括:

  • 关键基础设施: 水、天然气、电力、交通——影响这些网络管理的 AI
  • 教育和职业培训: 决定准入、评估表现或决定学习路径的系统
  • 就业和人力资源: 候选人筛选、简历评分、任务管理、绩效监控
  • 基本服务: 信用评分、偿付能力评估、保险风险分类
  • 执法和移民: 画像分析、风险评估、签证或庇护决定
  • 司法管理: 辅助争议解决或事实解释的 AI

有限风险:许多人忽视的透明义务

与人互动的聊天机器人必须声明自己是 AI,前提是用户有合理可能认为自己在与真人交流。Deepfakes 同理:由 AI 生成或操纵的涉及真实人物的内容必须标注为此类内容。该义务已经生效。

最低风险:日常使用的大多数 AI

垃圾邮件过滤器、不影响权利的推荐引擎、视频游戏中的 AI、不影响决策结果的写作辅助工具:在 AI Act 下没有特定义务。可以继续照常运行。


被归类为”高风险”意味着什么?

如果你的某个系统属于高风险类别,法规在部署之前以及整个运营生命周期内都要求履行九项具体义务

  1. 风险管理体系: 在系统整个生命周期内持续、有文档记录地识别、评估和缓解风险的流程
  2. 数据治理: 训练、验证和测试数据必须相关、具有代表性、尽可能无误,且不得延续歧视
  3. 部署前技术文档: 所有相关技术信息必须在系统投入生产之前准备就绪,而非事后补充
  4. 活动日志记录: 系统必须自动记录其活动,以便事后监督,尤其是在高影响决策方面
  5. 透明性和用户信息告知: 运营者必须收到清晰的使用说明;受影响的公民必须知道他们正在被 AI 系统评估
  6. 有效的人工监督 (Human-in-the-loop): 必须存在真正由人类审查、纠正或推翻系统决策的可能性——这不是一个勾选框,而是一个运营流程
  7. 准确性、稳健性和网络安全: 系统必须保持有文档记录的准确性水平,并能抵御操纵企图
  8. 在欧盟数据库中注册: 受监管行业中的高风险系统必须在进入市场运营前在欧洲数据库中注册
  9. 合规声明: 相当于实体产品的 CE 标志——正式认证系统符合所有适用要求

满足这九项义务不是一周就能完成的项目。对于大多数从零开始的企业来说,这是一个三到六个月的过程。


企业最容易忽视的使用场景

最常见的错误不是使用了被禁止的 AI,而是不知道自己正在使用的系统属于高风险。以下是最容易被低估的场景:

AI 简历筛选和人员选拔 — 如果你使用的工具在人类审阅之前自动筛选、评分或分类候选人,那根据附件III这就是高风险系统。LinkedIn Recruiter 的 AI 筛选功能、Workday 的候选人评分、任何带有自动筛选功能的 ATS 都包含在内。35%的欧洲企业已经在招聘流程的某个环节使用了 AI。

信用评分 — 任何分配偿付能力评分或违约概率的模型都属于附件III中基本服务类别。无论是你自主开发的还是作为 SaaS 从供应商购买的,都是高风险

决定保险覆盖范围的保险聊天机器人 — 如果聊天机器人不仅提供信息,还决定某项保险覆盖是否适用或对应的保费,这就是高风险。关键在于系统是否影响了对个人产生实质性影响的决策。

AI 学生评估 — 自动化处罚的抄袭检测系统、根据自动评估调整学习路径的在线学习平台、无人工审核直接生成成绩的工具:在教育类别中属于高风险

关键基础设施的预测性维护系统 — 如果 AI 预测水、天然气、电力或交通网络的故障,且该预测影响运营决策,则在基础设施类别中属于高风险

正确的问题不是”我们是否使用了高风险 AI?“,而是”AI 在我们企业中做出或影响了哪些涉及个人的决策?“


通用 AI 模型 (GPAI):自2025年8月起生效

通用 AI 模型 — 业界所说的基础模型 — 在 AI Act 下有其独立的监管体系。GPT-4、Claude、Gemini、Llama、Mistral:所有这些都受到自 2025年8月 起生效的特定义务约束。

对于所有 GPAI 模型,无论其规模大小:

  • 训练数据透明度: 使用了哪些数据、基于什么许可
  • 版权政策: 训练过程中所采用政策的摘要
  • 已发布的技术文档: 可获取的模型技术规格

对于具有系统性影响的模型——定义为训练计算量超过 10²⁵ FLOPs 的模型(目前包括 GPT-4 及同等级别模型)——还需额外满足:

  • 部署前后的对抗性安全评估(red-teaming)
  • 向欧洲 AI Office 报告严重事件
  • 加强的网络安全措施
  • 能源消耗清单

如果你的企业基于这些模型的 API 构建产品,GPAI 合规义务由模型提供商承担——但你仍然对如何在可能属于高风险的系统中使用该模型负有责任


对你企业真正重要的时间表

AI Act 的日期不是象征性的。每个日期都激活了具有真实法律后果的不同监管制度。

2025年2月2日 激活了绝对禁止条款。如果你的企业在没有法律依据的情况下使用社会评分或实时生物识别,你已经违反法规超过一年了。

2025年8月2日 激活了 GPAI 模型的合规义务。基础模型提供商已经在 AI Office 的监管之下。

2026年8月2日 是大多数企业忽视的日期——也是最重要的日期。从那天起,附件III所列的所有高风险 AI 系统必须完全符合法规第6至49条的要求。各国监管机构可以启动调查并进行处罚。

从今天到2026年8月还剩四个月。 对于从零开始的企业来说,如果现在就行动,时间刚刚好。

2027年8月2日 将纳入受其他欧盟指令监管的高风险产品——医疗、航空、汽车行业。这部分多了一年的缓冲期。


罚款——比 GDPR 更严厉

自2018年以来,GDPR 已累计产生超过50亿欧元的罚款。AI Act 将最高罚款标准翻倍:

违规行为最高罚款
禁止性做法 (Art. 5)€35M 或全球营业额的7%
违反合规要求 (Arts. 6-49)€15M 或全球营业额的3%
向监管机构提供不正确信息€7.5M 或全球营业额的1%

直接对比:GDPR 的最高罚款为全球营业额的4%。AI Act 达到7%——在最严重情况下高出 x1.75 倍。

对于中小企业,法规规定将适用营业额百分比和绝对金额中较低的那个。但即便是绝对金额——禁止性做法3500万欧元——对任何中型企业都是毁灭性的。

还有一个重要的细节:当一项违规同时涉及个人数据时,AI Act 的罚款可以与 GDPR 的罚款叠加。一个既存在歧视又侵犯隐私的人员选拔系统可能同时受到两部法规的处罚。


2026年8月前的5步行动计划

如果本周就开始,四个月时间足够了。以下是具体步骤:

第1步——盘点正在使用的 AI 系统

梳理企业中所有使用 AI 的工具:从人力资源的 ATS 到带有预测评分的 CRM、数据分析仪表盘、客服聊天机器人,以及任何使用 AI 处理个人数据的 SaaS。不仅是你内部开发的系统——还包括你作为服务购买的系统。AI Act 适用于部署 AI 系统的主体,而不仅仅是开发者。

第2步——按系统进行风险分类

针对每个已识别的系统,根据附件III确定其类别。关键问题是:这个系统是否影响了对个人产生实质性影响的决策——他们的就业、信贷、服务获取、教育、权利?如果答案是肯定的,它很可能是高风险。如果存在疑问,保守的解释才是正确的做法:将系统视为高风险。

第3步——对照第9-15条要求进行差距分析

针对每个高风险系统,评估其当前状态与九项义务的差距:是否有技术文档?是否有活动日志?是否存在真正的人工监督,还是仅流于形式?训练数据是否有文档记录且可审查?差距分析将确定实际还需完成多少工作。

第4步——实施:文档、日志、人工监督

这是工作的主体。这不仅仅是填写表格:需要实施真正的流程。Human-in-the-loop 不能只是工作流中的一个勾选框——它必须是一个具有实际推翻 AI 决策能力的审查流程。日志必须配置到位。技术文档必须持续更新。在许多组织中,这需要改变运营流程,而不仅仅是系统调整。

第5步——向主管机构注册

在西班牙,被指定为监督 AI Act 的国家机构是 AESIA(西班牙人工智能监管局)。受监管行业中的高风险系统必须在运营前在欧洲数据库中注册。注册过程需要完整的技术文档——这就是为什么前面的步骤必须先完成。

在8月之前合规的企业与不合规的企业之间只有一个区别:前者在2026年第一季度就开始了系统盘点,后者仍在拖延。


AI Office 做什么?

EU AI Act 创建了一个新的欧洲机构:AI Office,隶属于欧盟委员会。它不像 ENISA 那样是独立机构,而是欧盟委员会内部的一个单位,对 GPAI 模型拥有直接监管权。

其主要职能:

  • 监管通用 AI 模型 — 是 OpenAI、Anthropic、Google、Meta 在 AI Act 相关事务上的唯一对话方
  • 与各国监管机构协调 — 每个成员国都有自己的监管机构(西班牙为 AESIA),但 AI Office 负责协调解释的一致性
  • 发布指导方针 — 定义每个条款在实践中如何合规
  • 调查系统性模型提供商报告的严重事件
  • 自愿行为准则——适用于未达到系统性影响阈值的 GPAI 模型

AI Office 于2025年2月发布了首批解释性指南。对于使用第三方模型的企业,这些指南明确了供应商的责任边界和运营者的责任起点。


我能做什么?

  • 如果你是 CISO 或 DPO: AI Act 在任何处理个人数据的 AI 系统上与 GDPR 重叠。将 AI Act 作为你已执行的 DPIA 的附加层。如果你的组织在 GDPR 合规方面已经成熟,文档和日志的基础设施已经存在——只需进行适配。

  • 如果你是企业负责人: 从2026年8月起,法律风险落在运营者身上——即部署 AI 系统的企业,不仅仅是开发者。购买带有 AI 的 SaaS 并不能免除你的责任。要求你的供应商在合同条款中声明其系统是否属于高风险。

  • 如果你在人力资源部门工作: 审查你的技术栈:ATS、视频筛选平台、能力评估、任何生成候选人评分的工具。如果在人类查看简历之前存在自动排名,你就有一个必须满足附件III九项要求的高风险系统。

  • 如果你是 AI 系统开发者: 如果你为附件III中的行业开发产品,合规必须从一开始就纳入设计——技术文档、日志和人工监督不是最后一刻的添加项。如果你使用第三方 GPAI 模型,请查看其服务条款:所有模型在2025年都已添加了 AI Act 相关条款。


EU AI Act 不是创新的官僚障碍。它是为一项已经影响数百万日常决策的技术建立全球游戏规则的首次严肃尝试。将其视为差异化机会的企业——“我们符合 AI Act”作为信任信号——将比那些将其视为合规成本的企业更具优势。

2026年8月不是某件事的结束。它是一个新阶段的开始——在这个阶段,没有完成功课的企业将开始面临首批调查。还剩四个月。系统盘点今天就可以开始。

来源

相关内容

继续探索 AISHA

下一步

不错过任何动态。

订阅 AISHA 编辑通讯,及时了解新文章、报告和工具。

前往通讯