Google Cloud宣布与AI初创公司Hugging Face合作,共同推动开源人工智能(AI)的发展。

Google Cloud宣布与AI初创公司Hugging Face展开合作,共同推动开源人工智能(AI)的发展。这一战略合作将允许开发者在无需支付Google Cloud订阅费用的情况下构建、训练和部署AI模型。利用Hugging Face平台的外部开发者将能够“高效”地访问Google的Tensor处理单元(TPU)和GPU超级计算机。这最终有望为开源社区带来实际利益。

声明中表示:“我们将与Google合作,跨足开放科学、开源技术、云计算和硬件领域,使企业能够利用Hugging Face的最新开源模型以及Google Cloud的最新云和硬件功能构建自己的AI。”

Hugging Face保存了一些已开源的基础模型,如Meta的Llama 2和Stability AI的Stable Diffusion。开发者可以像在GitHub上上传代码一样,操作和使用这些模型,成为受欢迎的AI模型仓库之一。此外,Hugging Face还提供了大量用于模型训练的数据库。

数十万Hugging Face用户已经在Google Cloud服务器上活跃。这一合作旨在使在Google Kubernetes Engine和Vertex AI内训练和托管新模型变得更加容易。

此次合作表明了对开源AI的进一步承诺,对于Google而言尤为重要。过去,Google一直依赖于自家项目和对Anthropic等的投资,过度依赖专有模型。

去年,Google的工程师表达了对公司在AI领域的开源开发者方面的滞后之虑。

关于Hugging Face

Hugging Face,成立于2016年,总部位于纽约,已经在开源AI社区中确立了重要地位,为开发者提供了一个重要的平台,用于共享和发展AI模型。

Hugging Face不仅与Google合作,还与其他主要技术公司建立了关系,扩大和改善了基础设施和服务。

例如,Hugging Face利用搭载其独有AI芯片Trainium的Amazon服务器,推动了开源语言模型Bloom的开发。与Nvidia的合作使Hugging Face用户可以利用NVIDIA的DGX云AI基础设施进行模型的训练和微调。

这些合作对于推动开源替代专有AI模型在全球范围内的普及至关重要。例如,尽管Hugging Face的HuggingChat是为了与OpenAI的ChatGPT竞争而设计的开源项目,但其成功尚未到来。修订版的Meta的LLaMa语言模型也可在Hugging Face找到。

© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发
头像
说说你的看法!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容