站长之家用户 - 传媒 2022-05-12 15:31

BoCloud博云与趋动科技完成算力调度容器化验证,让客户实现 AI 算力“自由”



近些年来,云原生技术发展的如火如荼,尤其是作为云原生技术底座的容器云技术的高速发展和产业化落地,业界发现,将 GPU 等算力资源容器化、资源池化,可以使算力的管理能力拓展到整个数据中心。这个解决方案将 AI 应用和 GPU 服务器硬件解耦,实现虚拟 GPU 资源的动态伸缩和灵活调度,给对 AI、大数据、高性能等计算服务有显著需求的企业解了燃眉之急。

BoCloud博云(即“江苏博云科技股份有限公司”)作为国内容器云市场占有率排名前五的唯一创业型厂商,在容器云领域拥有多年的深耕和积累。BoCloud博云容器云产品在 AI 应用支撑、高性能计算方面也做了专门布局。

例如,在为国内某高精尖领域顶级研究机构建设的容器云平台中,BoCloud博云 AI 应用支撑模块仅仅在上线初期就实现了资源利用率提升30%以上,作业调度能力提升60倍的效能提升,随着建设的不断深入,效能还在不断提升。

近日,BoCloud博云联合在 AI 算力资源池化领域的领先者趋动科技,共同验证了趋动科技优秀的 AI 算力资源池解决方案“OrionX AI算力资源池化软件”与BoCloud博云的容器云平台“BeyondContainer”的兼容性、可靠性、稳定性及运行性能。

资源按需分配功能:验证 OrionX 可根据用户实际应用需求按百分比分配 AI 加速卡算力,按 MB 为单位分配 AI 加速卡显存。

资源远程调用功能:验证 OrionX client 容器可在没有配置 AI 加速卡的服务器上运行,并通过 OrionX 使用远端服务器上的 AI 加速卡资源。

多用户 AI 加速卡资源切分功能:验证多个 OrionX client 容器可对同一 AI 加速卡服务器上的 AI 加速卡资源进行切分,同时进行训练或推理任务。

资源聚合功能:验证 OrionX 在用户进行单机多卡模型训练时,可将本地和远端的 AI 加速卡资源进行自动汇聚以满足训练任务对 AI 加速卡资源的需求。

资源动态分配功能:验证 OrionX 支持资源共享功能,当启动 OrionX Client Runtime对应的 Pod 时,OrionX Controller 不会马上将申请的 OrionX vGPU 资源分配给该 Pod,在 Pod 运行期间,只有 AI 应用在调用 的时候,该部分 资源才会被该 Pod 占用,AI 任务结束停止时,资源即被释放。

BoCloud博云与趋动科技通过对组件兼容、测试模型和数据集、单机单卡、资源切分、资源聚合、资源排队、资源超分、远程调用、资源动态、算力控制等十个功能测试,验证了 OrionX 在BoCloud博云容器云平台上的运行情况。测试结果表明双方产品完全兼容,各项功能运行正常,性能表现优异,通过 OrionX 按需调用、远程调用、资源聚合等能力的赋能,BoCloud博云容器云平台拥有了对 AI算力资源进行细粒度管理和监控的能力,BoCloud博云可在大数据、云计算、人工智能等应用场景中为客户提供可靠、稳定、高效运行的 AI 算力。

“数字化、网络化、智能化“已成为 AI 行业应用的基本特征,并在一步步促进行业应用向多样化与多元化方向发展。在智能化时代,“强大的算力”将成为驱动技术创新与行业高质量发展的重要引擎。

值得相信,BoCloud博云与趋动科技在基于容器实现 GPU 资源池化管理方面的结合,将为企业级客户的数字业务发展提供强大的助力!


相关话题

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,文章为企业广告宣传内容,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

推荐关键词

24小时热搜

查看更多内容

大家正在看

打造赚钱抖音号模型