AGI 或 2030 年出现,谷歌论文警告 “永久毁灭人类” 风险​

图片[1]-AGI 或 2030 年出现,谷歌论文警告 “永久毁灭人类” 风险​-牛仔AI

 

近日,谷歌旗下 DeepMind 实验室发布了一份长达 145 页的人工智能安全报告,引发了全球范围内对通用人工智能(AGI)发展的广泛关注与深刻思考。报告中预测,具备人类智能水平的通用人工智能(AGI)可能在 2030 年左右问世,同时明确指出,AGI 存在导致人类永久灭绝的生存风险,这一议题需全社会共同参与探讨。
在这份全面且深入的报告里,研究人员着重强调:“AGI 可能带来致使人类永久灭绝的生存风险,显然这已属于极端危害的范畴。” 但遗憾的是,谷歌在论文中并未详细阐述 AGI 将通过何种具体方式导致人类灭绝,而是将主要篇幅聚焦于风险防控措施的探讨。
关于 AGI 出现的时间点,业界一直存在诸多不同观点。DeepMind 联合创始人谢恩・莱格数十年来始终预测 AGI 将在 2028 年出现,而另一位创始人、现任首席执行官戴密斯・哈萨比斯在接受采访时也表示,AGI 可能在未来 5 到 10 年内出现,最早或于 2030 年问世。谷歌研究团队在论文中也坦承:“我们对强大 AI 系统的研发进度存在高度不确定性,但至关重要的是,我们认为到 2030 年,强大 AI 系统出现是可能的。”
相比之下,Google 提出 AGI 在 2030 年前 “可能” 到来的这一时间表,比其他一些顶级 AI 实验室的预测稍显保守。例如,OpenAI 前政策研究员丹尼尔・科科佳洛预言 AI 将在 2027 年超越人类智能,而 OpenAI 首席执行官山姆・奥特曼虽谨慎表示 “指向 AGI 的系统正在显现”,且 OpenAI “已掌握传统认知下的 AGI 构建方法”,但并未明确给出 AGI 出现的具体时间。
报告将 AGI 可能带来的风险细致地划分为四个主要类别。一是滥用风险,即人类故意利用 AI 实施危害行为,如将 AI 技术应用于恶意网络攻击、恐怖活动策划等;二是错位风险,表现为 AI 系统在发展过程中衍生出非预期的有害行为,比如其决策逻辑可能在特定情境下偏离人类预期的道德与安全标准;三是失误风险,主要因 AI 系统在设计或训练环节存在缺陷,进而导致意外故障,像自动驾驶 AI 系统在复杂路况下做出错误判断;四是结构性风险,源于不同主体之间的利益冲突,例如企业、国家间在 AI 技术竞赛中,因追求自身利益最大化,而引发地缘政治紧张局势或资源过度集中等问题。
为有效缓解这些潜在风险,研究人员概述了 DeepMind 的应对策略,其中防止滥用成为重点关注方向,同时强调尽早识别 AI 系统危险能力的重要性。此外,这篇论文还对 Anthropic 和 OpenAI 等竞争对手的安全策略含蓄地提出了批评。报告认为 Anthropic 在严格训练和监督方面投入不足,而 OpenAI 则过度聚焦于所谓的对齐研究,即确保 AI 系统的目标和行为与人类的价值观和利益保持一致,却可能在其他关键风险防控环节有所疏忽。
随着 AI 技术的迅猛发展,AGI 的潜在威胁已不再是科幻作品中的设想,而是逐渐成为现实世界中亟待解决的重要课题。谷歌此次发布的报告,为全球敲响了警钟,呼吁各国政府、科研机构、企业以及社会各界携手合作,共同制定科学合理的风险治理方案,在推动 AI 技术进步的同时,坚守伦理道德底线,确保人类社会的安全与可持续发展,避免因 AGI 的失控而陷入万劫不复的境地。
© 版权声明
THE END
您的赞美是我们持续创作/分享的动力,欢迎点赞/分享/关注。
点赞37 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容