启用GPU的Docker容器中运行AI模型应如何实施?

启用GPU的Docker容器中运行AI模型应如何实施显示全部

启用GPU的Docker容器中运行AI模型应如何实施

收起
参与11

查看其它 1 个回答罗文江的回答

罗文江罗文江课题专家组云计算架构师某银行

1、 GPU节点安装好NVIDIA驱动和 nvidia-docker套件。 docker daemon运行时配置启动 nvidia runtime运行时。
2、Kubernetes开启vGPU支持, 将新增K8S 资源类型 nvidia.com/gpu 被容器请求:
3、配置好AI模型相关的TensorFlow , torch, mxnet 、mindspore 、xgboost 、 nccl 框架
4、执行 AI模型的训练 任务或推理应用

银行 · 2022-04-27
浏览1069

回答者

罗文江
云计算架构师某银行
擅长领域: 云计算容器容器云

罗文江 最近回答过的问题

回答状态

  • 发布时间:2022-04-27
  • 关注会员:3 人
  • 回答浏览:1069
  • X社区推广