不管是高端家庭用户,还是中小企业用户,对于存储的安全和成本,以及升级和管理的容易难度等多方面考虑下,选择一个好的存储系统是很困难的。而配备专门的NAS(SAN)系统,一是不经济,二就是性能往往达不到自己的要求却又无法改善。我总结一下我接触的中小企业常见的存储管理系统。
第一批是JBOD连接模式,目标群就是软raid
首先是最简单的,LVM,适用于已有Linux环境,或共享方式以NFS和iSCSI为主的环境,Samba/CIFS效率较低以及管理较麻烦,而LVM又特别强大,扩展和兼容多种应用环境,纯shell下的LVM搭建和扩容都比较麻烦,一定要非常熟悉Linux的管理员才能保证问题得到解决,新手常见的就是Openfiler,OpenMediaVault之流,类似LVM的Web管理为主的,优点就是兼容性好,缺点就是扩展功能的性能偏低,底层构架不熟悉的情况下对数据安全没有好的把握。主要用户群就是有一堆各种各样硬盘,而且对技术有专研精神,或ALL-IN-ONE式的存储和应用在一起的,持续扩容而且架构不变的固定式存储系统。
其次就是Windows Server 2012/windows 8引入的Storage Space存储空间,通过前面的分享和测试可以看到,Storage Space在保持SMB的易用性以及NFS的性能大大改善,共享性能几乎没有瓶颈,底层使用了ZFS和LVM的理念使得旧设备升级和多种硬件混合管理变得非常轻松,缺点就是在底层理解和高性能方面做的不够,特别是二级缓存的缺失需要三方软件来实现。
最后就是终极系统ZFS,代表系统就是freeNAS/NAS4free,OpenIndiana,使用难度介于LVM和Storage Space之间,有着极好的底层构架可阅读性,极好的二级缓存架构以达到极好的性能,升级扩容也非常智能化,基本web GUI就可以完成一切。当然缺点依然是和Windows之间使用了Samba的通病,为了兼容会损害部分性能,用户权限管理比较复杂。ZFS只适用于网络,要ALL-IN-ONE式的只能等Linux版ZFS-Fuse变得成熟稳定,或者应用迁移到solaris和freeBSD平台。
第二批显然就是硬件Raid了
Intel和AMD主板南桥芯片带的Raid也归这类,虽然是软raid的本质,但需要特定硬件和软件搭配所以符合硬件raid的大部分特性。Raid 1,Raid0是最常见的,由于CPU性能的过剩,没有专门raid芯片的板载raid事实上在性能上几乎和前者相当,瓶颈只是太过于业余化,扩容功能和兼容性都极差,不过做个两盘的raid0,raid1完全够了,甚至四盘的raid10也还不错。优势就是几乎没有成本,不用学习,也不用额外花费。
硬件Raid卡也分两类,一类是支持raid 1,0,10,(或5)的不带缓存的卡,多集成于服务器主板或入门级raid卡,这类卡如果不使用raid模式而使用IT模式(JBOD),也就是个扩充接口数量的功能,多用在ZFS和Windows Storage Space这类软raid上。而如果使用硬件卡的Raid模式,也只是在降低CPU占用率方面有所帮助,在CPU性能过剩的时代这点毫无意义,而且因为缺少缓存,就算硬件支持raid5也同样性能低下。唯一的优势就是比Intel,AMD板载raid功能更加专业,有在线扩容,快速重建修复等优势。
另一类就是带有缓存和电池的专业Raid卡,价格不菲,功能丰富,通过缓存和专门XOR芯片解决了Raid5写入性能低下的问题,在极度高性能raid环境有着软raid无可比拟的稳定性,缺点就是成本和升级局限性毫无优势。
所以高端家庭用户和中小企业用户为了避免 学习成本和硬件成本,高性能选用ZFS,低成本选用Windows Storage Space即可。往上就是专业Raid卡,往下就是玩具类(四块硬盘以内)的Intel/AMD板载raid了。