zpan
作者zpan2020-04-30 11:30
英伟达 - 5G行业市场拓展经理, 英伟达

“基于GPU为5G提速”——NVIDIA 5G vRAN解决方案在线发布活动问答集锦

字数 7473阅读 1457评论 0赞 0

前言

5G 可以为用户提供极快的速度,以及 10 倍的低延迟、 1000 倍的带宽和每平方公里上百万台连接设备。 5G 还引入了“网络切分”这一关键概念。这使得电信运营商可以通过逐个会话灵活地为客户提供独特的服务。传统的解决方案无法为其快速重新配置,因此电信运营商需要新的网络架构。新的网络架构使得行业与 5G 的联系更加紧密,电信运营商正逐步的满足行业的各种需求。

从 5G 网络侧出发, 5G 网络引入网络数据分析功能( NWDAF ),主要用于网络切片相关数据的分析,并将功能扩大到各类网络数据的分析上,包括 5G 网络功能收集的网络运行数据、从运维管理系统 OAM ( Operation Administration andMaintenance )获取的终端和网络相关的统计数据、从第三方应用获取的应用数据。需要针对收集上的数据进行分析及模型训练。

从 5G 行业用户出发, 5G 边缘计算需要满足行业的计算需求。从目前调研情况来看,视频渲染和人脸识别、物体识别、视频分析等等 AI 能力是边缘计算主流的需求。在 5G 云游戏的场景下,游戏的渲染和处理,也需要大量的计算能力。

仅仅依赖 CPU 处理以上需求是不足的,当前可采用硬件加速方案。一般包括传统 FPGA/ASIC 和 GPU 两种方案。

基于 GPU 部署 5G vRAN 的特点包括:
1 、扩展能力强:开放式标准定义的接口硬件,实时按需部署,支持多种接入技术的高度灵活的切割及融合。
2 、开发周期短:相比传统硬件加速器方案节约 80% 开发时间。
3 、相较传统硬件加速器的技术优势:软件环境下的快速编译、调试;对应不同场景的高速链接;更强大的计算能力(支持多种精度)。
4 、支持人工智能,与边缘计算结合提升用户体验。

以下是此次探讨中大家关注的几个典型问题及专家解读:

一、 GPU 资源管理问题

1 、 GPU 资源是如何管理的?
GPU 资源是如何管理的?在 vRAN 侧是否要增加 vGPU 的支持?

答:是的,如楼上所言, GPU 可以采用 Kubernetes 的方式进行管理。我们的 Aerial SDK 也是基于 K8S 进行部署的,同时 vGPU 的方式通常会引入过多的延迟,对于实时的应用,我们通常建议直接使用不同的容器装在不同的应用。

答 2 : GPU 可以采用 Kubernetes 的方式进行管理。 vRAN 条件下,对 vGPU 的支持是需要的,因为均是虚拟化的环境,采用 vGPU 的方式更加合理。

2 、基于 GPU 的 5G vRAN 数据直接从 GPU 高速内存中获取可支持的最大吞吐量如何评估?
基于 GPU 的 5G vRAN 数据直接从 GPU 高速内存中获取,那在 GPU 和 DDR 高速交互是,内存就变成瓶颈,内存在 DDR4 已经停留多年,一直没有实质性突破,如何推动内存的发展,与 GPU 更协同高效呢

答: GPU 中的内存通常采用业界的最高的技术规格, V100 使用 HBM2 ,带宽达到 900GB/s 。 T4 采用 GDDR6 ,带宽也达到 320GB/s ,从目前的系统评估来看,此处并无明显的瓶颈。

3 、基于 GPU 的 5G vRAN 如何分配 GPU 资源?

基于 GPU 部署的 5G vRAN 可预测能大幅提供对动态视频、流媒体,人工智能的处理效率,但 GPU 资源如何在多个切片中分配,如何合理的分配资源呢

答:如您所说, vRAN 其实只负责提供 5G 的物理层通路,如何分配 GPU 资源,部分用来实现 vRAN ,另一部分用来实现流媒体和 AI 处理是属于上层协议考虑的范畴,并不属于 vRAN 方案考虑的部分。当然我相信通过某些深度学习的算法,统计当前基站的业务量,合理分配 GPU 资源保证同时实现两个功能应该是可以做到的。

4 、数据直接从 GPU 内存中获取,那么性能瓶颈是否会在 PCIe ?

答 1 :数据从 NIC 将被直接送至 GPU 的内存中,会通过板上的 PCIE swith ,但不会通过 CPU 。因此 PCIE 接口不会成为瓶颈。

答 2 :题目中都已经说了,业务数据直接从 GPU 内存中获取,这句话本身就跟 PCIe 没太大关系了。除非数据不是从内存中而是从其他硬件介质中获取。在实际中 PCIe 的读写速率已经足够让你感受不到所谓的瓶颈了,你如果能感觉到瓶颈我觉得应该往前推,性能瓶颈在硬件介质的读写速率更合理一些。

二、协议栈问题

1 、 NV DPDK 是基于 DPDK L2-forward 开发,是否支持 TCP/IP 协议栈?

答: NV DPDK 目前不支持 TCPIP

2 、请问与目前主流的商用上层协议栈软件、白盒 RU 联调的情况?

答:我们目前与 Altran 合作由其提供 L2/L3 协议,目前我们处于 Alpha replease 状态,已有开始和国内厂商开始合作,尚未发布与白盒 RU 联调的结果。

三、服务器问题

1 、测试环境中的 pcie-switch 是否是服务器自带的配置?

答:有些服务器自己带有 PCIE-Switch ,有些则没有。需要您跟自己的服务器厂商确认。

2 、 GPU 是否为 X86 服务器的标配?
GPU 是否为服务器的标配?我们做 5G 小站基本都是用 X86 做服务器,不知道 X86 服务器是否包含 GPU ,如果包含,那就是软件编程的问题了,如何编程才能最大发挥 GPU 的图像图形处理能力?不知我的理解是否正确。

答:一般 x86 都具有 PCIE 设备,可成为标配。但任需要考虑以下情况: 1 ) GPU 的型号,服务器推荐使用商业级 GPU ,不适用消费级 GPU 。 2 )部分 GPU 需要单独供电,这就需要 x86 服务器添加 riser 卡。

四、时延问题

1 、 GPU 加速方案相对于 FPGA 加速方案在处理时延方面的对比结果如何?
采用 GPU 加速方案后, GPU 的处理流程是否还需要 CPU 的控制? GPU 加速方案相对于 FPGA 方案的时延对比如何?

答:采用 GPU 方案, CPU 仍需对系统进行监测和控制,但无需接入数据的任何处理。 GPU 与 FPGA 各有各自擅长的部分,针对接口,时序等处理是 FPGA 擅长的部分,针对大型算法如 LDPC 解码,信道估计等算法 GPU 处理有天然的优势。

2 、工业互联网对业务,以及加密后业务的时延要求较高,能分享一些具体应用中的数据吗?

答:您好,目前我们的 vRAN 方案主要专注于实现 5G 无线通信的底层协议。至于您问题中提到的两点,延迟问题将由 5G 的协议解决,毕竟 5G 协议支持低延迟场景和海量 IoT 设备互联场景。关于加密问题,个人认为属于应用层的范畴,当用户需要对自己传输的信息进行加密时,可自行选择加密方式。 另外我认为您提到的场景可能是将来的 5G 专网范畴,企业根据自己的需求对运营商提出定制网络的需求,而底层硬件的灵活程度将决定是否能够快速支持类似的定制化要求。

五、方案耦合性问题

1 、 5G vRAN 解决方案如何与人工智能相结合?
如何实现 5G vRAN 与人工智能相结合?人工智能与之结合后,是否可以用于无线侧网络运维?

答 1 :应用通过 5G 网络连接到云上,采用边缘计算技术, 5G 核心网络分布式架构将完美匹配的应用扩展到边缘需求。边缘网关可以将信息直接转发到边缘应用程序,帮助人工智能将应用程序扩展到边缘。可以说 5G 技术是人工智能的前页,它让算法的速度更快,为人工智能的应用做好了所有的铺垫,数据的铺垫,所有信息的铺垫。

答 2 :这个问题大致分为两部分。
1)在无线通信的数据处理过程中需要 AI 的介入,比如智能的网络切片,频谱规划,快速调度等等,您所提到的无线网络运维也属于这个范畴。
2)第二种情况是指 AI 的应用于基站相融合,比如智能的图像识别,视频分析 / 检测,甚至是语音 / 语义的识别等等,这个和我们刚才提到 MEC 于 vRAN 方案相结合比较类似,相当于基站侧具备了 AI 的应用所需要的的算力。

这两种都是我们的方向,英伟达已经针对第二种情况开始进行一些 demo 的开发;针对第一种情况,目前我们还没有明确的规划。如果您对希望共同合作针对这个场景进行研究或者开发,请联系我们。

2 、 5G vRAN 解决方案如何与边缘计算相结合?结合后能够实现什么效果?
5G vRAN 解决方案如何与边缘计算相结合?是否通过将计算和处理能力卸载至无线侧?通过在本地就近处理,降低时延、提高效率?

答:首先我要说,我认为您的理解完全正确。其次,我想在深入补充一下,什么样的场景需要将边缘计算的能力卸载至无线侧?这是一个目前大家都还不好回答的问题。但我相信这一定是一个跟应用融合的非常紧密的场景。因此个人认为,这个融合了边缘计算的基站,属于 5G 专网的可能性会比较大。

六、功耗问题

1 、如何降低 GPU 服务器高功耗问题!?

目前 GPU 服务器功耗较高,影响单机柜使用效率

答: GPU 在 AI 领域的应用一日千里,到目前主要云端 AI 计算架构都是以 GPU 为主 。 但 GPU 也不是没有缺点,尤其是功耗问题, 1 块 GPU 计算卡动辄数百瓦的功耗,如果规模一大,那么对整个计算中心的功耗控制就会显得特别麻烦 。但可以针对特定业务进行 GPU 的优化,可以降低 GPU 的功耗。

2 、 GPU 加速技术,芯片的功耗大概能降低多少?

答:在同样完成 5G 物理层上行 8 Layer 基带数据处理的任务的测试环境下 , 同样工作可能需要一个 20 核 CPU 来实现,相较而言 GPU 功耗仅为 1/3 。

3 、 NVIDIA 在 5g 物联网下是否有低功耗的解决方案?

答:目前英伟达主要 vRAN 的方案主要着重于基站侧设备,我们会通过不同类型的 GPU 硬件平台支持从大容量的宏基站至小容量的小基站甚至是皮基站。

七、方案对比问题

1 、 GPU 方案相比 ASIC 方案实现 5G vRAN 的优势主要体现在哪里?
目前有厂家做出该方案的样机了吗?相关的 GPU 处理器有系列化的演进 roadmap 满足不同应用场景吗?

答: GPU 相较于 ASIC 的方案是更加灵活的配置,以及更容易与其他应用 ( 如 AI ,边缘计算 ) 想融合,目前 GPU 的 vRAN 方案处于 Alpha Release 状态,在正式版发布时,可以适用于 5G 的 3 个场景的所有需求。

2 、 GPU 加速方案相对传统方案,数据处理性能提升多少倍?成本相比如何 ?

答 1 :将 GPU 的技术应用在分布式数据库中的数据处理,性能比普通数据库的性能提高 80 到 100 倍,并且能够在此基础上,将硬件成本降低。

答 2 :对 5G 物理层上行 8 Layer 的数据进行测试的环境下,相对于传统 CPU 方案, GPU 在同等功耗下,处理的数据量增长 3 倍以上,如果 Layer 继续增加, GPU 的优势将更加明显。使用 GPU 将大大降低选择的服务器成本。

八、其他问题

1 、 cuBB 支持的物理层特性的 example ,是通过什么展示出结果的( MATLAB )?

答:支持由 matlab 生成 HDF5 的格式的测试向量。

2 、 cuBB 对上提供的接口,是否类似 LTE 小基站标准的 fapi 接口?

答:针对于 cuBB 对上提供的接口,我们将遵循 ORAN 规定的 L1 和 L2 之间的接口。

3 、 cuBB 软件是否会根据运营商规范,进行迭代开发?路标?

答:目前我们主要参照 3GPP 的标准对 cuBB 进行逐渐的完善,针对运营商的规范我们目前尚未明确。同时我们将会开放的和国内厂商进行合作,收集需求,讨论接下来的产品特性。

4 、 3GPP 规定的加密、完保 、头压缩,是否有专门的硬件处理单元,还是需要上层软件自己软件开发?

答:目前仍需自己实现上层协议,但我们会持续关注类似问题。

5 、 gpu 上的 vnf 的部署我们是否需要关注?如果需要多部署一个 vnf 是否有 guide ?

答:目前我们 vRAN 方案是基于 linux 的底层操作系统,使用容器隔离各个功能。 当然最终的部署方式需要根据您具体的 VNF 的功能来确定如何实现。

6 、 Nvidia 加速卡能够支持 5G vRAN 架构中的那些网元进行加速?
5GC 、 UPF 、 CU 、 DU ?

答:您好,目前英伟达的 vRAN 方案主要是实现 DU 功能,并且我们正在对 CU 部分功能的探索。

7 、 NIC ConnectX-5 和 NIC ConnectX-6 的差异,只是接口带宽吗?

答:这点您需要咨询 Mellanox 的人员可以得到更专业的答案。目前我们的 Aerial SDK 计划同时支持 CX5 和 CX6.

8 、 Aerial 5G SDK 支持的 GPU 型号有哪些?

答:当前我们的方案是基于 Tesla 系列的 V100, 但设计者可以根据自己的需求对其进行不同硬件的移植。

9 、 NVIDIA 在对 odm 行业的支持上是否有案例可分享?

答:由于 Aerial SDK 方案以及 5G 行业的特殊性,大部分厂商会选择自己开发属于自己的硬件平台。

10 、 5G vRAN 解决方案是否有正式商用案例?对加密流量的性能提升情况?
1 、产品是否有正式商用案例,案例所承载的具体应用?
2 、对加密流量的性能提升?是否具体的加密应用?具体有哪些优势?

答:目前基于 GPU 的 vRAN 方案处于 Alpha Release 阶段,尚未正式发布。

11 、为什么在 GPU 部署 5G VRAN ?主要想了解如下的内容:
1 、在不同的场景下,软硬件方案的优势?
2 、如何与边缘计算进行结合?
3 、成功案例,带来了什么收益?
4 、同基于 CPU 方式部署最大的优势?

答: 1)硬件的方案更适合固定的场景,若设计得当单纯的硬件方案会带来成本的最优。个人认为国内的 5G 属于刚刚开始部署,很多场景尚未成熟。因此保持方案的灵活性对于设计者至关重要。
2 基于 GPU 的 vRAN 方案,可以基于容器进行部署,如果需要与其他 AI 应用相结合,仅需添加额外的容器即可。
3)目前我们的方案处于 alpha release 状态,尚未正式发布。
4)相较于单纯的 CPU 方案,我们的设计流程以及部署方式类似,但会大大节约服务器成本和功耗。

12 、目前 5G 小微基站 CU 对 GPU 的要求暂时不高?
我理解 GPU 的图形处理能力比较强大,这个功能对图形数据处理和云计算能力帮助很大。通信产品里,目前主要涉及的是数据传输,计算能力要求不高,数据透传为主, CU 单元主要是对通信协议的处理运算,一般 CPU 的处理能力也够啦,当然如果将来小基站的 CU 加入 MEC 功能,对运算能力要求就高了,这样 GPU 就比较重要了。不知我这样理解是否正确?**

答:目前 Nvidia vRAN 方案中, GPU 实现 DU 功能, CU 的功能主要由 CPU 实现 , CU 中的 GPU 的使用目前正在探索和开发过程中。

13 、基于 GPU 的 5G VRAN 的优势?

答:基于 GPU 的 vRAN 方案最重要的 优势 有 2 点 .
1)GPU 为 5G 的数据处理提供了强大的算力。
2)GPU 在提供强大算力的同时,保持了软件方案的灵活性。
前者使得基于 GPU 的 vRAN 方案可以解决当前厂商遇到的痛点,后者使得的 GPU 的 vRAN 方案有能力应对在 5G 的发展的未来可能出现的各种问题。

14 、在处理训练、推理、渲染等功能能否用同一个型号的 GPU 来搞定呢?
在边缘侧,业务需求多样,采用 GPU 能否同时处理多样的业务?

答:特定业务采用特定的 GPU ,渲染一般采用 RTX 系列,推理采用 T 系列,深度学习采用 V 系列。

15 、内联处理如何实现?
从当前的硬件加速方案变更为内联处理方案。是可以用当前的硬件加速方案通过软件升级实现,还是需要购买新架构的设备?谢谢!

答:如果您当前使用的是基于服务器的硬件加速方案,您需要将可编程硬件设计转化为基于 GPU 实现该功能。需要调整硬件接口,以及 GPU 代码的开发,这些并不能直接软件升级得到。

16 、 OS 核心层 具体支持哪些操作系统呢?能否详细说一下?
在 OS 的核心层中,具体支持哪些操作系统呢?目前我省的操作系统集团统一采购,使用的是苏研的 BC-Linux 是否?另外能否说一下具体支持哪些操作系统?谢谢!!**

答 1 :目前我们支持 Linux kernel 4.4 or newer, Ubuntu 14.04 。苏研的 BC-Linux 如果使用的内核与上述匹配,则是能够支持的。

17 、请问一下,方案中提到网卡使用的是 Mellanox NIC ,这是使用的 IB 网卡还是 IP 网络?
我看了一下,在提到的方案中,使用的 Mellanox NIC ,这是使用的 IB 网卡还是 IP 网络?
如果是使用 IB 网络的话,目前 IB 网络的线缆的长度一般不超过 10 米,请问一下,如果部署的机架之间的长度超过 10 米怎么处理呢?是不是需要使用多个 IB 交换机进行级联,如何保障性不下降的的?如果使用 IP 网络的话,带宽上面怎么保障的呢 ? 谢谢!!

答:使用的以太网网卡 Mellanox ConnectX-5, 由于需要支持 eCPRI 协议,因此不能使用 IB 网卡 .

18 、在 5G vRAN 场景下,金牌 CPU 的选型上有什么要求?

答:对于整个方案来说, GPU 基本上完成了 L1 的工作,我们只需要 CPU 内核对 L1 进行监测和控制,因此对于 CPU 的选择上可以有比较大的灵活度。最终的选择实际来源于 L2/L3 协议层对于 CPU 的要求。

19 、目前支持的 PHY 主要技术指标(支持带宽、 Tx/Rx 天线端口数、最大吞吐、单 TTI 调度用户数、小区数目)?

答:目前我们的 vRAN 方案处于 Alpha Relese 状态,为了方便起见,我将我们 alpha release 的信息帖在这里。同时,小区数量的支持取决于您的硬件选择。

如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!

0

添加新评论0 条评论

Ctrl+Enter 发表

相关文章

相关问题

相关资料

X社区推广