Wed, 11 Dec 2024 13:00:01 GMT
生成式人工智能在过去两年发展迅猛,大规模突破看似只是时间问题而非能否实现。然而,近几周来,硅谷对进展放缓的担忧日益加剧。一个早期迹象是,该领域主要参与者发布的新模型之间缺乏显著进展。据《信息》报道,OpenAI 的下一代模型 GPT-5 在质量提升上将远不及预期,而 Anthropic 则从其网站上删除了有关推迟发布其最强模型 Opus 的表述。即便是科技巨头谷歌,据彭博社报道,即将推出的 Gemini 版本也未能达到内部预期。”记住,ChatGPT 是在 2022 年底发布的,所以现在差不多两年了,”Niles 投资管理公司创始人 Dan Niles 说,”最初,这些新模型在功能上有了巨大的提升,而现在,你已经训练了所有这些模型,因此性能的提升开始趋于平稳。”如果进展停滞不前,那么硅谷视为圭臬的一个核心假设——规模法则,将受到质疑。该理念认为,增加计算能力和数据量必然会无限提升模型质量。但最近的进展表明,这或许更像是理论而非定律。关键问题可能是,AI 公司正面临训练模型的数据枯竭,触及专家所称的”数据墙”。于是,他们转而依赖合成数据或 AI 生成的数据,但 Scale AI 创始人 Alexandr Wang 认为,这只是权宜之计。”AI 行业是’垃圾进,垃圾出’,”Wang 说,”如果你输入大量 AI 生成的无意义数据,那么模型只会输出更多无意义的东西。”然而,行业内一些领导者对改进速度触顶的说法持反对意见。英伟达 CEO Jensen Huang 在最近的财报电话会议上表示:”基础模型预训练的规模法则依然有效,并且仍在持续。正如你所知,这是一个经验法则,而非基本物理定律。但证据显示,它仍在扩展。”OpenAI CEO Sam Altman 在 X 平台上简短发文:”没有所谓的’墙’。”OpenAI 和 Anthropic 未回应置评请求。谷歌表示,对 Gemini 的进展感到满意,并在推理和编码等能力上看到了显著的性能提升。如果 AI 加速已达到极限,那么竞赛的下一阶段将是寻找应用场景——基于现有技术构建消费者应用,而无需进一步的模型改进。例如,AI 代理的开发和部署预计将带来变革。Meta CEO Mark Zuckerberg 在最近的一次播客采访中表示:”我认为我们将生活在一个拥有数亿、数十亿 AI 代理的世界,最终可能 AI 代理的数量会超过全球人口。”观看视频了解更多信息。
原文链接:https://www.cnbc.com/2024/12/11/why-ai-advancement-could-be-slowing-down.html