Gcore更新Everywhere Inference,增强AI推理部署,为AI应用提供超低延迟体验

Gcore 宣布对 Everywhere Inference(以前称为 Inference at the Edge)进行重大更新。此更新为 AI 推理部署提供了灵活性,为 AI 应用程序提供了超低延迟体验。Everywhere Inference 现在支持多种部署选项,包括本地、Gcore 的云、公共云或这些环境的混合部署。

Gcore更新Everywhere Inference,增强AI推理部署,为AI应用提供超低延迟体验

Gcore 开发了此推理解决方案更新,以满足不断变化的客户需求。随着 AI 推理工作负载的快速增长,Gcore 旨在为企业提供根据其个性化需求量身定制的灵活部署选项。Everywhere Inference 利用 Gcore 遍布 180 多个接入点的广泛全球网络,实现全球实时处理、即时部署和性能。企业现在可以在不同环境中部署 AI 推理工作负载,同时通过更靠近最终用户处理工作负载来确保超低延迟。它还可以增强成本管理并简化跨地区的法规遵从性,为应对现代 AI 挑战提供全面且适应性强的方法。

Gcore 边缘云和边缘 AI 产品总监 Seva Vayner评论道:“Everywhere Inference 的更新标志着我们致力于增强 AI 推理体验和满足不断变化的客户需求的重要里程碑。Everywhere Inference 的灵活性和可扩展性使其成为从初创公司到大型企业等各种规模企业的理想解决方案。”

此次更新引入了智能路由功能,可自动将工作负载引导至最近的可用计算资源,从而增强部署灵活性。此外,Everywhere Inference 现在为 AI 工作负载提供多租户功能,利用 Gcore 独特的多租户功能在现有基础设施上同时运行多个推理任务。这种方法可优化资源利用率,提高效率。

这些新功能解决了企业部署 AI 推理时面临的常见挑战。平衡多个云提供商和本地系统以实现运营和合规性可能非常复杂。智能路由的引入使用户能够将工作负载引导到他们喜欢的区域,帮助他们遵守本地数据法规和行业标准。数据安全是另一个关键问题,借助 Gcore 新的灵活部署选项,企业可以安全地隔离本地敏感信息,从而增强数据保护。

本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/55550.html

(0)

相关推荐

发表回复

登录后才能评论