中国出台生成式 AI 安全新规:服务提供者须通过安全评估方可备案

4 月 13 日,国家互联网信息办公室联合工业和信息化部、公安部等七部门正式发布《生成式人工智能服务安全基本要求》(以下简称《要求》),作为《生成式人工智能服务管理暂行办法》的配套文件,首次对生成式 AI 服务的安全评估流程、技术标准和责任边界作出系统性规范。新规明确,自 2024 年 10 月 1 日起,所有面向中国境内公众提供文本、图像、音频、视频等生成内容的服务提供者,必须通过第三方安全评估并提交报告,未通过评估的企业将无法完成备案手续。
 

一、安全评估的核心要求与实施路径

根据《要求》,安全评估覆盖生成式 AI 服务的全生命周期,重点包括以下四大维度:

 

  1. 数据安全治理
    服务提供者需对训练数据来源的合法性负责,确保数据不包含侵犯知识产权的内容,且涉及个人信息的部分需获得用户明示同意。例如,医疗、金融等敏感领域的数据需单独建立脱敏机制,政务数据的使用需符合《政务数据共享管理办法》的要求。
    典型案例:某 AI 企业因使用未授权的开源代码训练模型,被要求删除相关数据并重新评估,直接导致其产品上市周期推迟 6 个月。
  2. 算法安全审查
    评估机构将对模型架构、训练过程和输出结果进行穿透式分析,重点检测算法偏见、对抗样本攻击脆弱性等风险。《要求》特别强调,需建立 “算法透明性日志”,记录模型迭代过程中的关键参数变化,确保可追溯性。
    技术细节:某评估机构发现,某教育类 AI 模型在模拟考试评分时存在性别偏见,导致女性用户得分普遍偏低,最终该模型被要求进行算法重构。
  3. 内容安全管控
    服务提供者需构建动态更新的关键词库和测试题库,对生成内容进行实时过滤。新规要求,对于涉及国家安全、社会稳定的敏感内容,拦截率需达到 99.9% 以上,且需在 3 个月内通过模型优化防止重复生成。
    执行标准:某社交平台因未有效拦截虚假政治信息,被暂停备案资格并限期整改,期间用户投诉量激增 42%。
  4. 安全措施落地
    企业需建立专门的安全团队,包括风险评估、内容审核和应急响应等岗位。《要求》明确,安全投入不得低于年度研发预算的 15%,并需定期开展攻防演练。
    行业影响:某头部企业为满足新规要求,将安全团队规模从 50 人扩大至 200 人,年度合规成本增加约 2 亿元。

二、备案制度的实施与监管协同

新规建立了 “中央统筹 + 地方执行” 的监管体系:

 

  • 备案流程:服务提供者需通过国家网信办 “生成式人工智能服务备案系统” 提交材料,包括安全评估报告、算法说明文档和用户协议等。备案周期为 45 个工作日,逾期未通过需重新评估。
  • 动态监管:已备案的服务将纳入 “白名单”,但需接受季度抽检。2024 年,302 款已备案服务中,有 12 款因安全漏洞被暂停服务,涉及金融、医疗等关键领域。
  • 跨境服务:境外企业若向中国境内提供服务,需在境内设立实体机构,并接受数据本地化存储要求。某国际 AI 企业因未建立本地数据中心,被迫退出中国市场。

三、行业震荡与合规挑战

新规的实施引发 AI 行业深度调整:

 

  1. 技术研发转向
    企业开始将安全要求前置到模型设计阶段。例如,某企业在训练阶段引入 “安全沙盒” 机制,实时监控模型输出的敏感内容,导致训练效率下降 20%,但安全漏洞检出率提升至 98%。
  2. 第三方评估市场爆发
    具备 CNAS 认证的安全评估机构数量从 2023 年的 12 家增至 2024 年的 57 家,单次评估费用在 50 万至 200 万元之间。某评估机构透露,其 2024 年订单量同比增长 300%。
  3. 中小企业生存压力
    某创业公司因无力承担安全评估费用,被迫放弃生成式 AI 业务,转型提供数据标注服务。行业数据显示,2024 年生成式 AI 领域融资额同比下降 45%,资金更多流向具备合规能力的头部企业。

四、全球治理视野下的中国方案

《要求》的发布标志着中国在 AI 安全治理领域的规则引领:

 

  • 标准输出:新规对 “生成式人工智能服务” 的定义、安全评估指标等内容,为欧盟《人工智能法案》和美国 NIST 的 AI 风险管理框架提供了参考。
  • 技术对冲:通过 “安全评估 + 备案” 机制,中国在防范风险的同时,为本土企业争取了技术迭代的窗口期。2024 年,国产大模型在政务、教育等领域的市场份额从 38% 提升至 52%。
  • 国际合作:中国正推动建立 “一带一路” AI 安全联盟,与沙特、巴西等国共享安全评估技术和标准,增强在全球治理中的话语权。

五、专家观点与未来展望

清华大学人工智能治理研究院院长邓志东指出:“《要求》的最大突破在于将安全责任嵌入技术全流程,而非事后追责。” 他建议,未来需建立 “AI 安全保险” 制度,通过市场化手段分散企业风险。
中国政法大学教授刘艳红则强调:“算法偏见治理需从技术和法律双轨推进。” 她建议,将算法透明度要求写入《数据安全法》配套法规,明确企业的法律责任。
根据《要求》,2025 年将开展全国范围的生成式 AI 安全专项检查,重点整治深度伪造、数据滥用等问题。这场关于 AI 安全的制度革新,正在重塑全球科技产业的竞争规则。
© 版权声明
THE END
您的赞美是我们持续创作/分享的动力,欢迎点赞/分享/关注。
点赞43 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容