Thu, 27 Mar 2025 15:08:55 GMT
2025年2月13日,中国新疆维吾尔自治区乌鲁木齐市某数据中心内,工程师正在进行设备巡检。中国人工智能企业深度求索(DeepSeek)已在此部署算力基础设施,为其大语言模型提供支持。(图片来源:VCG/视觉中国/Getty Images)
当深度求索公司宣称仅用600万美元就研发出生成式AI大语言模型R1时,微软投资的OpenAI等美国AI巨头动辄数十亿美元的研发投入立刻引发热议。尽管外界对深度求索的成本分析始终存疑,资本市场对OpenAI的热情却未减退。据报道,OpenAI正以3000亿美元估值筹备400亿美元融资轮,并预测今年营收将增长两倍至127亿美元。本周,炙手可热的AI芯片企业CoreWeave也试图重振疲软的IPO市场,开启AI企业上市热潮。但关于AI行业发展是否过热、资金投入是否过巨的担忧始终如影随形。
今年迄今,”美股七巨头”(Magnificent 7)表现低迷。就在本周,阿里巴巴联合创始人蔡崇信警告美国AI领域已显现泡沫迹象。随着全球对AI发展预期及美国领先地位的重新评估,连锁反应正持续发酵:从要求加强芯片禁运以遏制中国AI发展,到风险资本反而加大对中国AI企业的投资。不过在美国AI界,部分研究者正以前所未有的速度推进工作——深度求索的廉价方案让他们看到了突破大语言模型研发瓶颈的新路径。
加州大学伯克利分校的研究团队率先以30美元成本复现了深度求索的小规模语言模型。这笔费用仅相当于在公有云上租用两块英伟达H200显卡,通过简单游戏训练”30亿参数”模型的开支(注:当前最复杂的大语言模型参数规模可达数百万亿)。”我们在深度求索R1发布后立即启动了该项目,”微型智能项目TinyZero负责人、校园研究员潘佳怡表示。
虽然OpenAI的突破性成果同样激发了团队兴趣——潘佳怡特别提到他们被AI”在回应前进行深度思考”的新型推理范式所吸引,但深度求索R1首次以开源研究揭示了实现这种”思考”能力的路径,从而提升AI模型性能。”我们非常好奇这个算法的运作原理,”潘佳怡说。不过她坦言,即便是传闻中深度求索训练R1花费的600万美元,”对我们来说也过于昂贵”。
TinyZero项目的核心构想在于:当任务复杂度与模型规模同步降低时,系统仍能展现推理行为的涌现特性。这种双重缩减将大幅降低成本,同时保持研究者对实际推理行为的观测能力。为验证该理论,团队在数学游戏”倒计时”中复现了深度求索R1-Zero算法。这款游戏更侧重推理能力而非基于既定数学知识的解题能力——AI需要通过加减乘除运算达成目标数字。初期TinyZero采用随机尝试策略,经训练后逐渐学会调整方法,找到更优更快的解决方案。即便在简化条件下,模型仍展现出令人惊喜的推理行为。 通过学会在游戏规则内玩转游戏,AI习得了推理能力。”我们证明,即便是小至30亿参数的模型,也能学会推理简单问题,并开始自我验证、寻找更优解。”潘解释道。这一关键成果同时出现在深度求索R1和OpenAI o1的发布中,她将其称为”顿悟时刻”。
尽管顶级AI模型之间存在显著差异,但深度求索与TinyZero等项目展现的涌现推理行为却惊人相似。TinyZero的成功表明,预算有限的研究者、工程师和爱好者同样能触及前沿AI算法。”我们的项目吸引大量访客在GitHub复现实验,亲身体验’顿悟’时刻。”潘表示。
斯坦福团队近日发布预印论文,利用倒计时游戏研究AI学习机制,攻克了长期阻碍进展的工程难题。”TinyZero非常出色,”项目首席研究员卡尼什克·甘地评价道,因其采用的正是斯坦福团队引入研究的倒计时任务。抖音母公司字节跳动开源的火山引擎强化学习系统(VERL)等项目也功不可没。”VERL是我们实验的基石,”甘地指出,”这种技术协同极大加速了实验迭代周期。”
斯坦福团队试图破解为何某些大语言模型能实现推理能力跃升,而另一些却停滞不前。甘地预言,与推理、智能及进化相关的计算机科学突破未必再出自巨头实验室。”即便顶尖实验室也尚未完全理解当前大语言模型的运作机理。DIY AI、开源社区和学术界在这里大有可为。”他表示。
斯坦福与伯克利的这类研究将催生更多共享成果,推动模型自主提升推理能力的训练方法发展。但即便这些超低成本模型的实际投入也超出表面数字。AI咨询公司OneSix高级机器学习科学家妮娜·辛格指出,TinyZero等开源项目依赖于其他基础模型训练,不仅包括VERL,还有阿里云的通义千问开源大模型。”宣称的30美元训练成本不包含通义千问的原始训练投入——阿里为其开放权重前已耗资数百万。”她解释道。辛格强调这并非批评TinyZero,反而凸显开放权重模型(公开训练参数但不完全开源数据架构)对持续创新的重要性:”针对特定任务优化的轻量AI模型,能以极小成本匹敌庞然大物。”
随着越来越多的个人、学者和小型企业期望无需重金投入即可参与AI研发,模仿基础模型性能并针对特定任务微调的趋势日益盛行。辛格列举了Sky-T1(用户以450美元自训练o1模型)和阿里云Qwen(最低6美元实现模型微调)等案例。她预测开源小模型将倒逼行业巨头走向开放:”DIY微调与社区驱动改进的成功,迫使OpenAI等企业为其API封闭模式辩护——尤其在开源替代方案开始特定领域赶超之时。”
最具标志性的是,这些突破正重塑AI创新格局:昔日需要超级计算机的探索,如今在游戏笔记本上就能实现。当潘在GitHub发布TinyZero时,她期待或许能启发几位同行,却意外点燃了整个开源社区的激情。”这证明伟大发现不必来自天价实验室,”她总结道,”有时突破就诞生于某个深夜的灵光乍现。” TinyZero研究中最引人注目的发现是:数据质量和针对特定任务的训练比单纯的模型规模更为关键。”这一发现意义重大,因为它颠覆了行业普遍认知——此前人们认为只有像ChatGPT或Anthropic的Claude这种具有数千亿参数的巨型模型才具备自我修正和迭代学习能力,”项目负责人Singer指出,”我们的研究表明,在某些特定任务上,模型参数的增长可能已经触及收益递减的临界点。”
这意味着人工智能领域的发展重点可能正从规模扩张转向效率提升、普及应用和精准智能。正如TinyZero团队在项目主页的生动表述:”用不到30美元的成本,你就能亲身体验’顿悟时刻'”。
(视频插播)5分10秒
Cleo Capital风投合伙人Sarah Kunst在《Squawk Box》节目中表示:”英伟达正竭力保持其巨大成功带来的领先优势”
原文链接:https://www.cnbc.com/2025/03/27/as-big-tech-bubble-fears-grow-the-30-diy-ai-boom-is-just-starting.html