在大模型的发展浪潮下,企业用户普遍面临一个两难的抉择:积极扩张GPU算力资源以满足大模型训练需求;保守扩张GPU算力资源以减少GPU闲置数量。由于当前GPU算力的建设存在采购高、运行成本高、维护难度高的三高问题,同时大模型训练又是大型企业用户在实现大模型场景应用时绕不开的一个重要环节,这时候企业在如何构建满足大模型训推需求的算力中心时,如何最合理的分配有限的资源,既能满足必要的模型训练要求,又最大程度减少GPU算力闲置的情况发生。
针对这个议题,企业用户需要考虑如何评估训练集群和推理集群算力规模,以尽可能减少GPU算力的闲置情况。以下是一些建议: