GPFS性能调优?

大家,好:

如图所示,最近在实验室搭了一套nvme ib的gpfs环境,在测试过程中遇到一些性能问题。做过初步排查,排查结果如下:

  1. 存储在SAN Mode模式下最大可以提供40GB以上的1M 读带宽
    2. 在io node(模式)节点上直接压测存储性能(100% 1M读),可以提供20GB以上带宽
    3. 在4个client任意一个io client上测试读性能,都可以提供10GB以上带宽
    4. 但是当2个client(及以上)压测时,读带宽只有13-15GB左右,预期是能达到18或19GB
    如下是GPFS参数配置:
    mmlsconfig::HEADER:version:reserved:reserved:configParameter:value:nodeList:

mmlsconfig::0:1:::clusterName:cluster1.spectrum::

mmlsconfig::0:1:::clusterId:10159236414388290552::

mmlsconfig::0:1:::minReleaseLevel:5.1.6.0::

mmlsconfig::0:1:::ccrEnabled:yes::

mmlsconfig::0:1:::verbsRdma:enable::

mmlsconfig::0:1:::verbsRdmaSend:yes::

mmlsconfig::0:1:::dmapiFileHandleSize:32::

mmlsconfig::0:1:::tscCmdAllowRemoteConnections:no::

mmlsconfig::0:1:::sdrNotifyAuthEnabled:yes::

mmlsconfig::0:1:::cipherList:AUTHONLY::

mmlsconfig::0:1:::workerThreads:1024::

mmlsconfig::0:1:::autoload:yes::

mmlsconfig::0:1:::nsdMaxWorkerThreads:2048::

mmlsconfig::0:1:::worker1Threads:2048::

mmlsconfig::0:1:::maxBufferDescs:8m::

mmlsconfig::0:1:::maxInodeDeallocHistory:0::

mmlsconfig::0:1:::maxMBpS:40000::

mmlsconfig::0:1:::verbsPorts:mlx5_0::

mmlsconfig::0:1:::adminMode:central::


以上是大概测试情况,现在可以肯定存储可以提供40GB以上读带宽,而单IO Node可以提供20GB以上读带宽。现在的问题是在用io client压测时只有13-15GB左右的带宽(希望最好能达到18-19GB左右)。现在个人感觉像是某个地方卡主了,导致读带宽上不去,看看哪位大侠可以有相关经验帮忙指点一二。如果可以远程服务并解决问题,可以有偿。微信:838664620(加好友时注明来意)

参与6

1同行回答

zwz99999zwz99999系统工程师dcits
gpfs参数设置可能有问题,需要调整一下§usr/lpp/mmfs/bin>./mmchconfig maxMBpS=1600§每秒最大传送数据量,考虑HBA带宽和数量,建议为1600MB§/usr/lpp/mmfs/bin>./mmchconfig prefetchThreads=100§/usr/lpp/mmfs/bin>./mmchconfig worker1Threads=450§prefetchT...显示全部

gpfs参数设置可能有问题,需要调整一下
§usr/lpp/mmfs/bin>./mmchconfig maxMBpS=1600
§每秒最大传送数据量,考虑HBA带宽和数量,建议为1600MB
§/usr/lpp/mmfs/bin>./mmchconfig prefetchThreads=100
§/usr/lpp/mmfs/bin>./mmchconfig worker1Threads=450
§prefetchTread为最大顺序读写线程,worker1Thread为最大随机读写线程,两值相加不能超过550。
§/usr/lpp/mmfs/bin>./mmchconfig autoload=yes
§/usr/lpp/mmfs/bin>./mmchconfig maxFilesToCache=4000
§最大缓存文件数量。
§/usr/lpp/mmfs/bin>mmchconfig pagepool=1024M
§Pagepool 缓存数据和元数据,最大值为8GB,最小4MB。考虑服务器物理内存的大小,建议设置为1GB。
§mmchfs /dev/gpfs01 --inode-limit 1048576 (1MB)
§文件系统中最大文件数量,对于大量小文件的系统,建议增加数量到1MB
参考

收起
系统集成 · 2023-08-15
  • 这个环境使用的是200G的IB卡,请问maxMBpS这个值是不是可设置为20000。谢谢
    2023-08-16
  • 可以加我微信吗,可以有偿咨询。谢谢
    2023-08-16

ChatGPT 回答

根据您提供的信息,可以初步判断问题可能出现在IO client之间的通信上。当只有一个IO client时,它可以利用全部的存储带宽,但是当多个IO client同时访问存储时,它们之间的通信可能会成为瓶颈,从而限制了整个系统的性能。

为了解决这个问题,您可以尝试以下几个方案:

  1. 检查网络带宽和延迟:确保IO client之间的网络带宽足够,并且延迟较低。如果网络带宽不足,可以考虑增加网络带宽或者使用更高带宽的网络设备。如果延迟较高,可以考虑优化网络拓扑或者使用更低延迟的网络设备。
  2. 调整GPFS参数:可以尝试调整GPFS的参数,以优化IO client之间的通信。例如,可以尝试增加GPFS的worker线程数,以提高并发性能。可以通过修改GPFS配置文件或者使用mmchconfig命令来修改参数。
  3. 使用分布式文件系统:如果您需要更高的性能和可扩展性,可以考虑使用分布式文件系统,例如Ceph或者Hadoop HDFS。这些系统可以将数据分散存储在多个节点上,从而提高并发性能和可扩展性。

希望这些建议能够帮助您解决问题。如果您需要更详细的帮助,可以考虑联系专业的技术支持人员或者咨询相关的社区论坛。

提问者

lizy0327
系统工程师其他公司
擅长领域: 存储双活存储双活

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2023-08-14
  • 关注会员:2 人
  • 问题浏览:1437
  • 最近回答:2023-08-15
  • X社区推广