1: 写入太频繁量又大,的确需要产生那么多 flsuh task,IO 处理跟不过来(包括 disk 和 network),这种情况下会触发持续的 flush 波峰,加上文件数增加触发 compaction,那么就会严重,要么客户端做优化要么服务端做扩容(视情况而定可能需要迁移至 SSD 集群或者上万兆网卡);
2: 写入太频繁但是量一般,写入很均匀,几乎所有的 region 下的 store 都在一个时间点达到刷写阈值(hbase.hregion.memstore.flush.size,默认是 128 MB),这种情况下会触发类似锯齿状的 flush 波峰;
3: 写入不频繁,量也很少,由于其他问题导致 IO、network 等资源吃紧间接产生积压。