2025 年 3 月,距欧盟《人工智能法案》正式生效仅剩不到一年,这场历时四年的立法博弈正为全球生成式 AI 划定版权红线。根据最新通过的法案文本,ChatGPT、Stable Diffusion 等基础模型的开发者必须在显著位置披露训练数据中是否包含受版权保护的材料,违者最高面临全球年营收 7% 的罚款 —— 这是全球首个针对 AI 训练数据的强制版权声明制度,被视为内容创作者维权的 “关键武器”。
![图片[1]-欧盟《人工智能法案》落地倒计时:生成式 AI 迎全球首个版权披露令-牛仔AI](https://niuzaiai.com/wp-content/uploads/2025/03/image-18-1024x576.png)
从 “黑箱” 到透明:版权披露成核心条款
法案的核心争议围绕 “基础模型” 展开。这类经海量数据训练的 AI 系统,被欧盟定义为 “可能对社会构成系统性风险” 的技术。立法者要求,OpenAI、谷歌等企业需在产品说明中明确标注:“本模型训练使用了受版权保护的材料” 或 “未使用版权内容”。这一规定直接回应了近年频发的版权诉讼 —— 仅 2023 年,欧美就有超 20 起创作者起诉 AI 公司未经授权抓取作品训练模型的案件。
“我们不能让艺术家的作品在不知情的情况下被‘吞噬’。” 法案主要起草人、意大利议员布兰多・贝尼菲在表决现场强调。根据条款,版权声明需伴随具体案例说明,例如某绘画模型若使用了梵高的作品训练,需在披露中提及 “印象派艺术风格参考”。尽管未要求公开具体数据来源(避免商业机密泄露),但此举被视为打破 AI 训练 “黑箱” 的关键一步。
分级监管:高风险场景的 “紧箍咒”
除版权外,法案构建了 “风险分级” 监管体系。生成式 AI 被归入 “通用目的 AI”,其应用若涉及就业、教育等 “高风险场景”,需额外通过偏见评估、环境影响审计,并公开系统日志。例如,用于招聘的 AI 工具必须证明其训练数据未包含性别、种族歧视内容,且评估过程需在欧盟监管机构监督下使用敏感数据(如性取向),数据使用后必须删除。
值得注意的是,法案对实时面部识别的全面禁令(国家安全场景除外),与版权条款形成呼应 —— 二者均指向 “技术对个体权利的侵犯”。欧盟委员会数据显示,2024 年欧盟境内 AI 生成内容投诉中,38% 涉及版权侵权,22% 与生物识别滥用相关,新规旨在从数据源头遏制双重风险。
全球博弈:开源豁免与执行挑战
法案的 “开源豁免” 条款引发科技界关注:仅用于科研或完全开源的模型(如 Meta 的 LlaMA 2),可免除部分披露义务。但清华大学 AI 研究院专家指出,若开源模型被商业公司二次开发并用于高风险场景,仍需遵守全量规则。这一设计被视为平衡创新与监管的尝试 —— 既鼓励开源社区透明化,又防止企业借 “开源” 规避责任。
执行层面,欧盟计划建立 “高风险 AI 数据库”,要求企业公开部署地点、风险等级等信息。以荷兰儿童福利丑闻为鉴,数据库将向公众开放搜索,市民可查询所在城市是否有 AI 监控系统使用其数据训练。“这不是罚款游戏,而是让技术在阳光下运行。” 数字权利组织 Access Now 的分析师丹尼尔・鲁弗表示。
争议与未来:版权补偿机制待解
尽管法案迈出关键一步,但争议仍存。例如,披露义务未涉及 “是否应向版权方补偿”—— 目前仅要求 “声明”,未强制分成。法国作家协会主席玛丽・诺埃尔直言:“披露是开始,不是结束。我们需要建立 AI 训练的版权授权市场。” 对此,欧盟委员会表示将在 2025 年启动 “版权补偿机制” 试点,探索按模型收入比例分成的可能性。
随着 2026 年实施节点临近,全球科技公司已开始调整策略。微软、谷歌等企业在欧盟推出的 AI 产品中增设 “版权来源” 标签,OpenAI 则宣布成立 5000 万欧元基金,用于支付版权授权费用。正如中国传媒大学版权法专家郑宁所言:“欧盟的立法为全球提供了‘技术治理样本’,未来各国或将围绕‘披露标准’‘补偿机制’展开新一轮规则竞争。”
这场 AI 版权的欧洲实验,正从法律文本走向产业实践。当生成式 AI 的 “创作黑箱” 被逐步打开,人类创作者与算法的权益边界,终将在博弈中趋于清晰。
暂无评论内容