说到大数据量,需要有个上下文, 10T的数据库? 一堆大文件集合,一堆大小文件集合? 不同情形考虑的因素很不同。
如果备份负载是一堆海量小文件,通常瓶颈在于元数据(备份了那些文件,存在哪里)的处理,TSM Server数据库会很忙。
而大的数据库/大文件集合备份通常的瓶颈在于实际的数据I/O通道吞吐。
这里以大的数据库/大文件集合备份做个说明:
简单讲,需要需要考虑端到端的整个数据通道能够达到需要的吞吐(依据备份窗口)。
例如: 源端文件系统,数据库文件要分布在多个不同文件系统中,保证读取吞吐达到要求。
到备份存储(磁盘,磁带)的数据通道,HBA卡等根据吞吐要求,可能需要用多块卡,操作系统层面存取queue要合适
存储池: 多少块卡连接到SAN, 磁带库的话并行几个drive, 是否采用lan-free备份方式等。
具体实施时候,如果备份吞吐达不到要求,备份时间过长,要首先确定上述端到端数据通道中的瓶颈,进行优化后重复测试,直到备份吞吐,时间达到需求。
收起