Meta 首席 AI 科学家:大语言模型发展接近瓶颈

在人工智能领域,图灵奖得主、Meta 首席 AI 科学家杨立昆(Yann LeCun)近期多次公开表达对大语言模型(LLM)发展瓶颈的担忧。他认为,当前基于文本训练的生成式 AI 技术已触及天花板,若想实现人类级智能,必须突破对物理世界的理解与推理能力。

一、大语言模型的 “先天缺陷”

杨立昆指出,LLM 本质上是通过统计规律生成文本,缺乏对现实世界的认知能力。例如,GPT-4 等模型虽能流畅回答问题,却无法理解物体运动规律或因果关系,甚至会在简单物理常识上犯错。他形象地比喻,LLM 如同 “盲人摸象”,仅通过文本数据片面感知世界,无法构建完整的认知模型。

这种局限性源于 LLM 的技术架构。其依赖的自回归机制只能预测下一个 Token,无法处理连续的高维数据(如视频、图像),更无法模拟物理世界的动态变化。杨立昆强调,人类智能的核心在于通过多模态感知(视觉、触觉等)构建世界模型,而 LLM 的单一文本训练路径难以企及这一能力。

二、技术瓶颈与数据边际效应

随着模型规模扩大,LLM 的性能提升逐渐趋缓。杨立昆表示,当前训练数据的增长带来的回报已显著递减,进一步扩大模型规模不仅成本高昂,且难以解决根本性缺陷。例如,GPT-4 的训练成本超过 4 亿美元,但推理能力仍未突破 “模式匹配” 的范畴。

此外,LLM 的 “涌现能力” 被过度解读。杨立昆认为,这些看似智能的表现实为数据模式的复杂映射,而非真正的推理。例如,模型可能通过记忆训练数据中的案例给出正确答案,但无法举一反三解决新问题。

三、未来 AI 的突破方向

针对 LLM 的局限,杨立昆提出 “世界模型”(World Model)概念,主张通过多模态数据训练 AI 理解物理世界。他领导的团队正开发一种基于视频的预测系统,通过模拟物体运动、交互关系等动态过程,赋予 AI 预测物理行为的能力。

这一方向需突破两大技术挑战:一是构建层次化的世界模型,支持从基础感知到抽象推理的多层级学习;二是整合持久记忆与规划能力,使 AI 能基于历史经验制定复杂行动计划。杨立昆预计,这类系统可能在十年内实现类似猫科动物的智能水平,为通用人工智能(AGI)奠定基础。

四、行业影响与伦理思考

杨立昆的观点引发 AI 领域的深层反思。一方面,企业开始调整研发策略,例如 Meta 已将部分资源转向视频理解与机器人技术;另一方面,学术界加速探索多模态大模型,如 Google 的 Gemini 与 DeepMind 的 Gato 均尝试整合视觉、语言等多维度能力。

然而,物理世界建模面临数据获取与伦理难题。例如,自动驾驶汽车需在复杂环境中训练,而真实场景数据采集存在隐私与安全风险。杨立昆呼吁建立开放协作机制,通过共享合成数据与仿真环境降低研发门槛。

© 版权声明
THE END
您的赞美是我们持续创作/分享的动力,欢迎点赞/分享/关注。
点赞0 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容