以人工智能领域开放解决方案闻名的 Hugging Face宣布推出ZeroGPU计划。这项耗资 1000 万美元的计划将为公众提供基于传统Nvidia GPU 的计算能力。该计划的目标是减轻小型开发团队在创建人工智能模型时面临的财务负担。
Hugging Face首席执行官Clem Delang 亲自宣布 推出ZeroGPU,强调开源社区不具备大型科技公司拥有的资源,这就是为什么像ChatGPT这样的应用程序仍然最受欢迎。
“我们推出 ZeroGPU 是为了向独立和学术开发人员提供在 Spaces 平台上运行人工智能演示的基础设施,而无需支付任何财务成本,”Delang 写道。
Hugging Face 成立于 2016 年,已成为开放式 AI 模型的主要来源之一,该模型经过优化可在各种硬件上运行。这得益于与 Nvidia、Intel 和 AMD 等巨头的密切合作。
ZeroGPU 将通过 Hugging Face 应用程序托管服务提供,并将由传统 Nvidia A100 加速器提供支持。这种模式与传统的云提供商不同,传统的云提供商通常需要客户的长期承诺,这对于小型团队来说可能很困难。
Hugging Face 方法的伟大之处在于它专注于人工智能推理而不是模型训练。培训需要大量的计算资源,这在该计划的框架内是困难的。 ZeroGPU 文档表明 GPU 函数的时间限制为 120 秒,这显然不足以进行完整的训练。
Delang 指出,该系统能够“根据需要有效地保持和释放 GPU”,但这一过程的细节仍不清楚。多任务分时和 Nvidia 多实例 GPU (MIG) 技术等技术可用于提高计算资源的可用性。
在 GPU 短缺的情况下,Lambda 和 CoreWeave 等公司使用其硬件作为抵押来购买更多加速器,Hugging Face 计划可能会为开发人工智能应用程序的初创公司带来重大缓解。
Hugging Face 最近在由谷歌、亚马逊、英伟达和英特尔等巨头领投的 D 轮融资中筹集了 2.35 亿美元。讽刺的是,Hugging Face 的许多最大支持者自己也在开发专有模型,这些模型可能会取代小型人工智能初创公司。
与此同时,ZeroGPU 已经 推出公测版,为人工智能开发者带来了新的机遇。
文章原文链接:https://www.anquanke.com/post/id/296629