2023年7月26日,欧洲高性能、低延迟、国际云和边缘解决方案提供商Gcore与UbiOps和Graphcore合作,按需提供强大的计算资源,专为满足现代人工智能任务不断增长的需求而设计。
通过与Graphcore和UbiOps合作,Gcore Cloud在为人工智能团队赋能方面迈出了重要一步,该公司提供的独特服务将Graphcore的智能处理单元(IPU)硬件、强大的机器学习运营(MLOps)平台UbiOps和云基础设施的优势结合在一起。
Gcore首席执行官安德烈-雷滕巴赫(Andre Reitenbach)说: “Gcore、Graphcore和UbiOps之间的合作为人工智能团队带来了无缝体验。这使Gcore的云基础设施与Graphcore的IPU在UbiOps平台上的利用变得毫不费力。这意味着用户可以利用IPU的卓越计算能力来完成特定的人工智能任务。此外,用户还可以利用 UbiOps 开箱即用的 MLOps 功能,如模型版本管理、治理和监控。
这些功能可帮助团队加快人工智能解决方案的上市时间,节省计算资源成本,并通过按需扩展硬件来有效利用这些资源。我们对这一合作关系能够帮助人工智能项目取得成功并实现目标感到非常兴奋。”
为了证明与其他设备相比IPU的显著优势,Gcore在三种不同的计算资源上对工作负载进行了基准测试: CPU、GPU 和 IPU。Gcore 在 CIFAR-10 数据集上训练了一个卷积神经网络(CNN),这是一个专为图像分析而设计的模型,该数据集包含 60,000 张标注图像。然后,他们比较了不同数据量下的训练速度
通过测量不同批次规模的训练速度,Gcore 发现,即使是相对简单的 CNN 和较小的数据集,CPU 的训练速度也很慢。与此同时,IPU 和 GPU 则大大加快了进程。只需稍加优化,IPU 和 GPU 的训练时间甚至可以更短。
类型 | 有效批量大小* | 图形编译(秒) | 训练持续时间(秒) | Time per epoch (s) | 单位成本(美元/小时) |
IPU-POD4 | 50 | ~180 | 472 | 08.1 | From $2.5 |
IPU-POD4 | 8 | ~180 | 1420 | 26.0 | From $2.5 |
GPU | 50 | 0 | 443 | 08.6 | From $4 |
GPU | 8 | 0 | 2616 | 51.7 | From $4 |
CPU | 4 | 0 | 10+ hours | 10+ minutes | From $1.3 |
CPU | 50 | 0 | ~5 hours | 330 | From $1.3 |
由于Gcore Cloud、Graphcore和UbiOps之间的合作,人工智能团队现在可以轻松访问专为要求苛刻的人工智能和ML工作负载而设计的强大硬件。Gcore Cloud、Graphcore的IPU和UbiOps的MLOps平台的整合有助于团队更高效、更具成本效益地工作,使越来越多的人工智能项目取得成功并实现其目标。
本文为原创稿件,版权归作者所有,如需转载,请注明出处:https://www.nxrte.com/zixun/29734.html