本文共 2605 字,大约阅读时间需要 8 分钟。
作为一个面向云的操作系统,Windows Server 2012 针对很多网络和存储做了大量的优化,从而让企业特别是中小企业能够以非常少的代价,获取以前昂贵的硬件或者软件才能够获得的性能和特性。
存储去重就是其中的一项改进。尽管之前的Windows版本就已经提供单一存储方案SIS,但新的存储去重提供了更好的性能和效率。以下是Windows Server 2012的帮助文件对重复数据删除的描述:
企业中基于文件的数据正在快速增加。磁盘存储成本正在稳定下降,但下降速度却不足以抵消这种增长,这就使得存储效率成为大多数企业 IT 部门的一项关键要求。而且,只要有数据就需要有效率,不管该数据位于数据存储中还是通过 WAN 来移动。
为了应对这种增长,客户正在整合服务器,并将容量扩展和优化作为整合平台的重要目标。Windows Server? 2012 提供文本所述的重复数据删除。
重复数据删除关键功能
Windows Server 2012 通过以下功能增强了重复数据删除:了解重复数据删除 重复数据删除指的是在数据中查找和删除重复内容,而不会影响其保真度或完整性。目标是通过将文件分割成小的 (32-128 KB) 且可变大小的区块、确定重复的区块,然后保持每个区块一个副本,在更小的空间中存储更多的数据。区块的冗余副本将被单一副本的引用所取代,将区块组织成容器文件,然后将容器压缩进行进一步空间优化。
对某个卷启用重复删除并优化数据之后,该卷包含以下内容:
结果是对每个文件进行了磁盘转换。重复删除之后,文件不再作为独立的数据流进行存储,而是替换为指向存储在通用区块存储位置的数据块的存根。由于这些文件共享块、这些区块仅存储一次,从而减少了存储这些文件所需的磁盘空间。在文件访问期间,正确的区块会采用透明的方式组装以处理数据,而不需要调用应用程序,也无需用户了解文件磁盘转换中的变化。这样管理员便能够对文件应用重复删除,而无需担心对应用程序或访问这些文件的用户的行为有任何影响或改变。
备注
对使用 DFS 复制来复制的文件使用重复数据删除没有问题。只更新自上次复制以来更改的部分文件。体系结构
重复数据删除功能由一个监视本地或远程 I/O 的筛选器驱动程序和一个控制三种可用的作业类型(垃圾回收、优化和清理)的重复删除服务组成。请记住,重复删除作用域仅限便携且具有群集感知的单个卷,并且设计重复删除功能的目的是为了对主要数据进行有效的、策略驱动的以及计划性的后台优化,从而获得最佳结果。
重复删除体系结构中的固有功能是在发生硬件故障和崩溃时有弹性,对数据和元数据(包括元数据的冗余和最流行的数据区块)进行完整的校验和验证。
要尝试和验证这一功能非常的简单。首先启用文件服务器角色,找到“数据删除重复”,勾选然后完成向导即可。
安装完这一功能,还需要在卷上启用该功能。需要注意的是,安装操作系统的系统卷无法启用数据删除重复,我猜是因为系统文件访问的频度和安全性考虑。
可以将指定的文件类型(通过文件扩展名)、指定的文件夹排除在数据去重的范围之外。通常数据去重会工作在后台空闲时间,也可以为其指定计划任务。
为了说明问题,我简单的把一个文件复制了5次,然后等待系统对其做优化。
过段时间,就能够看到启用数据去重的卷已经删除了重复的数据。
检查这些文件,可以看到每个文件都只占用4KB的空间。我原以为是一个文件保存着,然后其他文件都是指针,结果看起来每个文件都变成了指针,即帮助所说的“重分析点”。文件块被另外保存起来了。
本文转自HaoHu 51CTO博客,原文链接:http://blog.51cto.com/haohu/1304991,如需转载请自行联系原作者