中央网信办启动三个月专项行动:严打 AI 换脸、谣言生成等技术滥用,县域需构建 “数字防火墙”

中央网信办今日正式启动 “清朗・整治 AI 技术滥用” 专项行动,针对当前 AI 技术滥用引发的网络乱象,部署为期三个月的集中治理。此次行动将分两阶段推进,重点打击 AI 换脸诈骗、谣言生成、非法数据采集等突出问题,并首次将县域网络内容审核机制建设纳入治理框架,要求地方政府强化基层防控能力。

一、专项行动 “双阶段” 攻坚:从源头治理到内容清源

本次专项行动以 “技术溯源 + 内容治理” 为核心策略,分阶段推进治理工作:

  1. 第一阶段(4-5 月):强化技术源头管控
    • 清理违规 AI 应用程序,重点查处未备案的生成式 AI 工具、提供 “一键脱衣” 等违法功能的软件,以及未经授权克隆他人生物特征的应用。
    • 建立训练语料审查机制,要求企业排查使用非法数据、侵犯知识产权的训练素材,如某 AI 公司因使用爬取的医疗数据被责令整改。
    • 推动平台落实内容标识义务,依据《人工智能生成合成内容标识办法》,对 AI 生成内容添加显式文字标签和隐式元数据标识。例如,短视频平台需在 AI 生成视频的播放界面添加 “虚拟合成” 角标。
  2. 第二阶段(6-7 月):聚焦内容传播乱象
    • 打击 AI 谣言工厂,重点整治利用 AI 编造涉时政、民生等领域的虚假信息。四川雅安网警近期破获的 “山体滑坡”AI 谣言案中,不法分子通过 AI 生成逼真图文,引发社会恐慌。
    • 严打 AI 深度伪造犯罪,如成都新津区发生的 AI 换脸诈骗案,犯罪团伙通过合成 “不雅视频” 实施敲诈,涉案金额超百万元。
    • 治理网络水军产业化,某 MCN 机构利用 AI 批量生成低质内容,单日炮制虚假文章 7000 篇,通过刷量控评牟取暴利,该案已被公安机关立案侦查。

二、县域治理 “三强化”:构建基层防控体系

针对县域网络治理能力薄弱问题,专项行动提出 “技术 + 制度 + 教育” 三维治理框架:

  1. 强化审核技术赋能
    • 推广 “AI 检测 + 人工复核” 双轨制,如甘肃民勤县引入深度伪造内容监测平台,实现 95% 以上的 AI 生成图片识别准确率。
    • 建立跨部门数据共享机制,县域网信办与公安、市场监管部门联动,实时交换违规账号、IP 地址等信息。
  2. 强化属地监管责任
    • 落实平台主体责任,要求县域内自媒体账号、直播平台签署《AI 使用承诺书》,承诺不传播虚假信息。浙江某县对 37 家违规使用 AI 生成内容的自媒体账号实施封禁。
    • 开展 “清朗护苗” 行动,排查县域内教育类 APP,清理含 AI 生成低俗内容的学习工具。
  3. 强化公众反诈教育
    • 组织 “AI 反诈进乡村” 活动,通过案例讲解、模拟体验等形式,提升村民对 AI 换脸、语音克隆等诈骗手段的识别能力。四川某县通过 “坝坝会” 培训,使老年人反诈意识提升 40%。
    • 建立 “AI 谣言举报奖励” 机制,鼓励群众通过 “网信办举报平台” 提供线索,核实后给予奖励。

三、法律与技术 “双轮驱动”:构建长效治理机制

  1. 完善法规体系
    • 依据《生成式人工智能服务管理暂行办法》,对违规企业实施 “红黄牌” 警示制度。某 AI 公司因未履行内容标识义务,被处以 50 万元罚款。
    • 推动《网络安全法》修订,将 AI 技术滥用纳入加重处罚条款,最高可处违法所得十倍罚款。
  2. 提升技术防御能力
    • 推广 “数字水印 + 区块链” 技术,如腾讯 “隐影” 系统可在 AI 生成内容中嵌入不可篡改的溯源信息,已应用于新闻媒体领域。
    • 研发对抗性检测算法,针对 AI 生成内容的像素分布、光影规律等特征,开发专门的鉴伪工具。

四、典型案例警示:技术滥用代价几何

  1. AI 换脸诈骗案
    2024 年 8 月,成都张先生收到 AI 合成的 “不雅视频” 勒索信息,诈骗分子通过克隆其面部特征制作虚假视频。该案中,犯罪团伙利用开源换脸工具,5 分钟即可生成逼真素材,最终被公安机关抓获。
  2. AI 谣言传播案
    2025 年 3 月,山西忻州某网民使用 AI 生成 “化工厂爆炸” 虚假视频,通过抖音平台传播,导致周边居民恐慌性撤离。警方依据《治安管理处罚法》对其处以行政拘留 10 日。
  3. 非法数据采集案
    某科技公司通过 AI 工具爬取 2000 万条个人信息,用于训练人脸合成模型。该公司因违反《个人信息保护法》,被没收违法所得并罚款 500 万元。

五、专家观点:治理需平衡创新与安全

中国政法大学教授王利明指出:”AI 技术滥用已从个体行为演变为产业化风险,治理需构建 ‘ 政府 – 企业 – 社会 ‘ 协同机制。” 他建议:

  • 企业:建立 AI 伦理委员会,对生成内容实施全流程审核。
  • 行业:制定《AI 应用白名单》,明确禁止开发的技术功能。
  • 公众:提升 “数字素养”,对 AI 生成内容保持理性怀疑。

国家信息安全水平考试中心数据显示,2024 年 AI 技术滥用导致的网络诈骗案件同比上升 67%,经济损失超 200 亿元。此次专项行动的开展,标志着我国 AI 治理进入 “强监管” 新阶段,未来需在防范风险与鼓励创新之间寻求动态平衡。

© 版权声明
THE END
您的赞美是我们持续创作/分享的动力,欢迎点赞/分享/关注。
点赞17 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容