1. 首页 >人工智能 > 正文

cnvrg.io与红帽在Red Hat OpenShift上为AI企业提供带有MLOps的ML工作流

导读 简化模型管理并将先进的MLOps引入行业的数据科学平台 cnvrg io宣布与Red Hat合作在Red Hat Openshift上加速机器学习工作流程,并为数据

简化模型管理并将先进的MLOps引入行业的数据科学平台 cnvrg.io宣布与Red Hat合作在Red Hat Openshift上加速机器学习工作流程,并为数据科学家和DevOps提供一切需要开箱即用。cnvrg.io现在已成为Red Hat OperatorHub的一部分,是经过认证的平台,可提供AI生命周期管理,并为跨行业的企业DevOps和数据科学团队简化MLOps。宣布此消息之前,cnvrg.io已与NVIDIA NGC的GPU优化AI软件注册表集成 ,为IT,数据科学家和工程师提供了完整的MLOps和模型管理解决方案。

当今的企业ML开发支离破碎。在所有许多工具,脚本,插件和断开连接的堆栈之间,ML开发人员和数据科学家将其65%以上的时间花费在DevOps上,并管理基础架构资源请求和混合云计算。这项人工和劳动强度大的工作使他们脱离了聘请他们做的工作,从而交付了高影响力的机器学习模型。组织越来越多地操作容器和Kubernetes来加速ML,从而为数据科学家和开发人员提供了急需的敏捷性,灵活性和可伸缩性,以管理从研究到生产的ML工作流。数据科学家,IT和DevOps团队与cnvrg.io和Red Hat OpenShift一起,可以更好地管理混合云中的基础架构,并在一个自动化和统一的平台中加速ML工作流。

OpenShift和cnvrg.io优化的解决方案 为从研究到部署的所有ML / AI基础架构提供了一个命令中心。Openshift充当基础架构的控制平面,而cnvrg.io为所有机器学习资产,模型管理和生产ML提供命令中心。OpenShift有助于从云基础架构到边缘计算部署,在整个混合云中提供敏捷性,灵活性,可移植性和可伸缩性。与cnvrg.io的端到端MLOps解决方案配合使用,数据科学团队将能够更快地开发和部署ML模型和智能应用程序,并将其部署到生产环境中。

cnvrg.io与Red Hat OpenShift一起提供了数据科学家和DevOps团队需要的现成的工具:

在任何云或本地环境上的托管Kubernetes部署

全自动安装和生命周期管理

数据科学家进行ML / AI开发所需的所有工具:从研究到部署

开放,灵活,代码优先的数据科学平台,集成了开源工具

“人工智能基础设施生态系统正在迅速发展。我们正在与cnvrg.io合作,作为OperatorHub的一部分,以帮助提供端对端MLOps解决方案,数据科学家,IT和DevOps工程师需要在企业级有效地管理,构建和部署机器学习。”红帽OpenShift产品经理Katarki。“ cnvrg.io是OpenShift和GPU运行ML工作负载的绝佳选择,并可以增强数据科学家和工程师之间的协作,从而加速在混合云中进行ML部署。”

“红帽OpenShift是cnvrg.io的一项出色的基础技术,因为它为Kubernetes集群和基础设施生命周期管理提供了强大的自动化功能,而cnvrg.io则从模型管理到培训到生产ML都增加了高级AI / ML功能,从而增强了cnvrg.io的首席执行官兼联合创始人Yochay Ettun说:“ Openshift Kubernetes基础架构具有强大的本地集成功能。“这项合作可以帮助数据科学家和IT组织将其机器学习投入运营,并极大地缩短生产时间。”

红帽用户现在可以通过OperatorHub在OpenShift上立即免费轻松地免费部署cnvrg.io。作为获得Red Hat OpenShift认证的操作员,部署cnvrg.io所需要做的就是单击OperatorHub中的cnvrg.io选项卡,安装和配置将通过OpenShift进行即开即用。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!