启用GPU的Docker容器中运行AI模型应如何实施?

启用GPU的Docker容器中运行AI模型应如何实施

参与11

2同行回答

罗文江罗文江课题专家组云计算架构师某银行
1、 GPU节点安装好NVIDIA驱动和 nvidia-docker套件。 docker daemon运行时配置启动 nvidia runtime运行时。2、Kubernetes开启vGPU支持, 将新增K8S 资源类型 nvidia.com/gpu 被容器请求: 3、配置好AI模型相关的TensorFlow , torch, mxnet 、mindspore 、xgboost 、 nccl ...显示全部

1、 GPU节点安装好NVIDIA驱动和 nvidia-docker套件。 docker daemon运行时配置启动 nvidia runtime运行时。
2、Kubernetes开启vGPU支持, 将新增K8S 资源类型 nvidia.com/gpu 被容器请求:
3、配置好AI模型相关的TensorFlow , torch, mxnet 、mindspore 、xgboost 、 nccl 框架
4、执行 AI模型的训练 任务或推理应用

收起
银行 · 2022-04-27
浏览1066
Monica WangMonica WangNVIDIA AI Enterprise 产品经理 NVIDIA英伟达
使用NVAIE软件套件中的GPU Operator,将GPU资源纳管起来并且支持K8S容器部署。显示全部

使用NVAIE软件套件中的GPU Operator,将GPU资源纳管起来并且支持K8S容器部署。

收起
硬件生产 · 2022-04-28
浏览1043

提问者

wwu
信息系统项目管理省城商
擅长领域: 云计算服务器容器

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2022-04-26
  • 关注会员:3 人
  • 问题浏览:1868
  • 最近回答:2022-04-28
  • X社区推广