回复 5# forrest_maxu 大概了解您的意思,但是由于应用需求之间的差异较大,至今我们没有看到能够对DB2的sizing有一个统一的计算方式或者官方文档,IBM内部(包括为外部的合作伙伴)提供了一些sizing问卷或者工具,但是仍是针对特定系统,得知道一些基本的信息,比如OLTP还是OLAP,pureScale还是BLU(涉及使用不同工具和硬件平台),数据的增长,交易的量级等等,下面提供更多的一些思路,都是基于过去项目的一些经验总结,供参考:
1. 根据业务,纯估算出比如未来3年的一个数据量
2. 根据业务量,估算一下DB2内存所需的大小,如关键bufferpool, sortheap, 各种cache等
3. 可以根据下面的文档,里面有几个建议。计算出CPU的一个用量
- In general, four to eight gigabytes per processor core should be adequate for most applications.
- In business intelligence (BI) environments, 200-300 GB of active raw data per processor core is a reasonable estimate.
http://www-01.ibm.com/support/knowledgecenter/SSEPGG_10.1.0/com.ibm.db2.luw.admin.perf.doc/doc/c0054689.html?lang=en4. 根据CPU和内存,可以大致估算出底下的磁盘配比的,如1 Core 对 15-20 Disk。当然,现在都是用SSD做Log,这点可能需要考虑
5. 实际测试或PoC,可以作为一个方面进行佐证
6. 类似系统的一个按比例计算,也可以佐证需求
总之,由于系统类型和需求的多样性,需要考虑的方面相对比较多,不容易通过个别指标来做计算,可能最终还是得借助sizing工具和实践经验,具体项目具体分析。抛砖引玉,如有疑问可具体探讨。