1,性能瓶颈,NAS机头的瓶颈始终有限,扩容柜能持续扩容,NAS机头不行。
2,NAS底层文件系统的限制,最常见的就是单目录下文件数量超过限制了,同时文件数量增大到一定量级,读写效率明显降低。
3,备份问题,也是受限于机头和备份方式,再就是NAS文件系统的访问机制,整体效率特别低。
对于传统NAS存储,主要看底层文件系统的单目录下最大文件数限制,尤其是影像、打印这类系统,一旦共享目录下文件数接近或者超过最大文件数限制,访问效率明显下降。其次,非结构化数据的规模和体积会对NAS性能有明显影响,同是同一文件数量规模的影像件类和打印报文结果类非结构化数据,打印报文结果访问效率更低。
收起一般情况下,我这边的经验是百万量级的文件。但是具体还是要看企业内部对未来IT技术路线的看法和企业的实际情况。从目前市面上成熟的存储技术来看,在海量非结构化数据的长久保存这个场景,基本上就是对象存储这个选择,因为不管文件是几万量级,还是几十亿量级,都能够很好的处理。在实际项目中,有的企业会优先选择解决当下碰到的问题,有的企业会考虑未来几年的架构的合理性,不同企业在进行技术选型的时候考量点不太一样,这个会导致技术路线的选择也不一样。用对象存储毕竟要涉及到应用访问接口的改造,有的企业在接口改造上困难很大,导致不得已继续使用NAS。我自己就碰到过有的企业的软件开发商破产,导致无法升级改造的事情。
收起