查看其它 3 个回答Monica Wang的回答

Monica WangMonica WangNVIDIA AI Enterprise 产品经理 NVIDIA英伟达


使用 NVIDIA AI Enterprise on vSphere 交付 AI 工作负载时,有多种编排方法。

1.带有 Docker 的虚拟机允许您使用带有启动脚本的虚拟机模板。启动脚本将运行 docker 容器和 Jupyter 笔记本,供您的 AI 从业者或数据科学家使用。通过这些 VM 模板,您可以使用 VMware 的 vRA、Horizo​​n 或其他虚拟机配置服务等解决方案部署和编排 AI。这是开发 AI 和数据科学应用程序初始阶段的理想解决方案。

2.编排 AI 的第二种方法是将 VM 与 Kubernetes 结合使用。这种方法可以让您获得虚拟化的好处以及使用 Kubernetes 进行容器编排的好处。 Kubernetes 带来了负载平衡、自动扩展推理请求和简化扩展训练作业的优势,使其成为 AI 开发生命周期最后阶段的生产部署的理想选择。当您的数据科学家或 AI 从业者需要特定风格的 Kubernetes 或您的应用程序具有与 Kubernetes 相关的依赖项时,此选项也很有用。然而,有了这个选项,Kubernetes 只知道 VM 来宾操作系统,而底层硬件被抽象出来,导致资源声明受到限制并增加了复杂性。

3.NVIDIA AI Enterprise 新增了对 Red Hat OpenShift 的支持,它通常在 VMware vSphere 中运行。将在下一部分详细介绍 NVIDIA AI Enterprise with OpenShift 的优势。

4.右侧是使用 VMware Tanzu 的容器编排,它提供了虚拟化和 Kubernetes 的优势以及与 vSphere 的直接集成,从而创建了一个完整的编排解决方案。 Tanzu 是声明性的,因此创建启用 GPU 的集群并与之交互通常需要比上游 Kubernetes 更少的步骤,并且可以按需完成

硬件生产 · 2022-04-28
浏览1036

回答者

Monica Wang
NVIDIA AI Enterprise 产品经理 NVIDIA英伟达
擅长领域: 服务器GPU云计算

Monica Wang 最近回答过的问题

回答状态

  • 发布时间:2022-04-28
  • 关注会员:5 人
  • 回答浏览:1036
  • X社区推广