大家,好:
如图所示,最近在实验室搭了一套nvme ib的gpfs环境,在测试过程中遇到一些性能问题。做过初步排查,排查结果如下:
mmlsconfig::0:1:::clusterName:cluster1.spectrum::
mmlsconfig::0:1:::clusterId:10159236414388290552::
mmlsconfig::0:1:::minReleaseLevel:5.1.6.0::
mmlsconfig::0:1:::ccrEnabled:yes::
mmlsconfig::0:1:::verbsRdma:enable::
mmlsconfig::0:1:::verbsRdmaSend:yes::
mmlsconfig::0:1:::dmapiFileHandleSize:32::
mmlsconfig::0:1:::tscCmdAllowRemoteConnections:no::
mmlsconfig::0:1:::sdrNotifyAuthEnabled:yes::
mmlsconfig::0:1:::cipherList:AUTHONLY::
mmlsconfig::0:1:::workerThreads:1024::
mmlsconfig::0:1:::autoload:yes::
mmlsconfig::0:1:::nsdMaxWorkerThreads:2048::
mmlsconfig::0:1:::worker1Threads:2048::
mmlsconfig::0:1:::maxBufferDescs:8m::
mmlsconfig::0:1:::maxInodeDeallocHistory:0::
mmlsconfig::0:1:::maxMBpS:40000::
mmlsconfig::0:1:::verbsPorts:mlx5_0::
mmlsconfig::0:1:::adminMode:central::
以上是大概测试情况,现在可以肯定存储可以提供40GB以上读带宽,而单IO Node可以提供20GB以上读带宽。现在的问题是在用io client压测时只有13-15GB左右的带宽(希望最好能达到18-19GB左右)。现在个人感觉像是某个地方卡主了,导致读带宽上不去,看看哪位大侠可以有相关经验帮忙指点一二。如果可以远程服务并解决问题,可以有偿。微信:838664620(加好友时注明来意)
gpfs参数设置可能有问题,需要调整一下
§usr/lpp/mmfs/bin>./mmchconfig maxMBpS=1600
§每秒最大传送数据量,考虑HBA带宽和数量,建议为1600MB
§/usr/lpp/mmfs/bin>./mmchconfig prefetchThreads=100
§/usr/lpp/mmfs/bin>./mmchconfig worker1Threads=450
§prefetchTread为最大顺序读写线程,worker1Thread为最大随机读写线程,两值相加不能超过550。
§/usr/lpp/mmfs/bin>./mmchconfig autoload=yes
§/usr/lpp/mmfs/bin>./mmchconfig maxFilesToCache=4000
§最大缓存文件数量。
§/usr/lpp/mmfs/bin>mmchconfig pagepool=1024M
§Pagepool 缓存数据和元数据,最大值为8GB,最小4MB。考虑服务器物理内存的大小,建议设置为1GB。
§mmchfs /dev/gpfs01 --inode-limit 1048576 (1MB)
§文件系统中最大文件数量,对于大量小文件的系统,建议增加数量到1MB
参考
根据您提供的信息,可以初步判断问题可能出现在IO client之间的通信上。当只有一个IO client时,它可以利用全部的存储带宽,但是当多个IO client同时访问存储时,它们之间的通信可能会成为瓶颈,从而限制了整个系统的性能。
为了解决这个问题,您可以尝试以下几个方案:
希望这些建议能够帮助您解决问题。如果您需要更详细的帮助,可以考虑联系专业的技术支持人员或者咨询相关的社区论坛。