武汉警方查处 AI 造谣案:伪造政府文件生成虚假新闻

图片[1]-武汉警方查处 AI 造谣案:伪造政府文件生成虚假新闻-牛仔AI

 

4 月 17 日,武汉市公安局硚口区分局披露一起利用 AI 技术伪造政府文件和新闻发布会视频的案件。涉事公司为博取流量,通过 AI 智能写作软件机械拼接多地文本,编造虚假政务信息并发布,造成不良社会影响。警方依据《网络安全法》《计算机信息网络国际联网安全保护管理办法》等法规,对其处以行政警告,并责令下架全部 AI 生成内容、公开致歉及内部整改。

一、案件细节:AI “流水线” 炮制虚假信息

今年 1 月初,该公司为提升所属资讯网站流量,购买某款 AI 智能写作软件,输入关键词后自动抓取网络信息生成文章。警方调查发现,涉案文章通过拼接南方某地人事任免、政策调整等真实政务素材,虚构 “某名人违法被查”“地方政府重大决策” 等内容,甚至伪造新闻发布会视频,导致不实信息在网络快速传播。

 

武汉市公安局硚口区分局网安大队负责人表示,此类 AI 生成内容具有 “低成本、高仿真、传播快” 特点,企业若为流量利益放任 AI 造假,将面临更严厉法律责任。此案暴露出 AI 技术滥用对网络治理的新型挑战,警方将加大对网络服务提供者主体责任落实情况的检查力度。

二、法律亮剑:多部门联动整治 AI 滥用

此次查处依据《网络安全法》《互联网信息服务深度合成管理规定》等法规。其中,《深度合成管理规定》明确要求,深度合成服务提供者不得利用技术制作、传播虚假新闻信息,违者将面临行政处罚甚至刑事责任。

 

值得注意的是,这并非孤例。2025 年 “清朗” 专项行动已将 AI 技术滥用列为重点整治对象,中央网信办要求强化生成合成内容标识,打击借 AI 发布虚假信息、实施网络水军行为等问题。此前,甘肃、上海等地也查处多起 AI 造谣案件,涉案人员因伪造地震灾情、虚构明星丑闻等被行政处罚或追究刑事责任。

三、技术反思:AI 滥用风险与治理路径

1. 滥用手段升级

AI 技术降低了造谣门槛,仅需输入关键词即可生成包含时间、地点、人物的 “新闻”。部分 MCN 机构甚至批量生产虚假内容,单日发布量达数千篇,日均获利超万元。此外,AI 换脸、语音克隆等技术被用于诈骗,如杭州警方曾破获利用 AI 换脸登录他人账号窃取信息的案件,涉案金额近 20 万元。

2. 监管与技术双管齐下

  • 法律完善:全国人大常委会已将 AI 立法纳入议程,最高人民法院明确将依法惩治 AI 侵权行为。
  • 平台责任:《生成式人工智能服务管理暂行办法》要求企业落实内容审核、数据安全等义务,对生成内容显著标识。
  • 技术反制:部分平台正研发 AI 检测模型,通过分析文本特征、视频帧异常等识别虚假内容。例如,阿里云推出 “AI 谣言识别系统”,准确率超 90%。

3. 公众与企业应对

  • 个人警惕:不轻易点击来路不明的链接,避免泄露生物特征信息(如人脸、声纹)。
  • 企业合规:金蝶国际等企业通过 “AI 伦理委员会” 审查技术应用,确保不触碰法律红线。

四、专家观点:平衡创新与安全

中国社会科学院法学研究所研究员周汉华指出,AI 技术的 “双刃剑” 效应要求监管与时俱进。一方面,需防范技术滥用对社会秩序的冲击;另一方面,应鼓励技术创新,例如通过 AI 提升网络治理效率。

 

武汉警方此次行动释放明确信号:任何利用 AI 编造虚假信息、扰乱社会秩序的行为,都将依法严惩。随着《人工智能法》立法进程推进,AI 技术的合规应用将成为企业和个人的必修课。
© 版权声明
THE END
您的赞美是我们持续创作/分享的动力,欢迎点赞/分享/关注。
点赞31 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容