您的位置:首页 > 职场人生

存储专访:赛门铁克不光是备份还是重复数据删除

2009-08-11 00:25 281 查看
今年虽然全球遭遇金融危机,导致经济形势大卫恶劣,但在存储业界,有一个观点,相信大家都不陌生并且赞同。那就是,经济下跌的同时,数据量的增长并没有放缓,反而持续爆炸性增长的势头。这时,全球的IT经理们面临最为头疼的一个问题就是,如何在IT开支被缩减的今天,保证系统建设的不停滞,以确保企业可以顺利的度过这次难关。

看起来难,做起来或许并不困难。相似的问题早在经济危机之前就已经被提出,那就是存储规模的失控。数据量的爆炸性增长与存储价格的低廉结合在一起,导致用户存储资源的失控,使用者和管理者脱节,使用者认为存储资源是廉价的资源,产生了巨大的数据量。管理者完全失去了对系统的管理能力。这在危机前是现实而具体的挑战,但在今天却是解决问题很好的一个切入点。

通常解决这类问题,我们首先会想到整合物理资源,然后就是采用新的技术来使得保护数据的手段更加地完备,同时减少对物理资源的需求。当然,今天的虚拟化也是一种资源整合的方式。但上述这些方法都存在着这样或那样的问题,不能彻底的解决问题。

赛门铁克公司中国区技术总监李刚对于这个问题的,给出了他们针对性提出的几个战略:


498)this.style.width=498;" big(this)>
赛门铁克公司中国区技术总监李刚
[align=center] [/align]
第一,就是要减少任意位置的重复数据。重复数据实际上在企业里面是到处都有的,从数据产生到数据的保护、备份、复用这些环节都有大量的重复数据的出现。举例来说,我们有一个用户在做信息查询系统的时候,为了提高系统的相应速度,采用了并行处理的办法。在后端没有很好地利用相应的数据共享技术,而是简单地把数据备份到多个存储上。比如服务器虚拟化,假设用户架构里全部采用了刀片服务器,使用了Windows Server的系统,那么就会产生大量的重复image。至于我们最为关注的数据备份领域更是存在大量的重复数据。这些重复数据占用了大量硬件资源,解决它们就是释放了大量的硬件资源。

第二,是降低复杂性。很多的技术之所以不能很好地部署,达不到很好的使用效果,就是因为用一个技术解决一个问题,带来了另一个问题。如果本来就已经很复杂的IT环境,导致了一个新的复杂性就会出现这样的问题。比如说精简基础架构,如果用户过多地部署不同种类的服务,也会使得复杂性加大。这样一直以来所提倡的为存储瘦身的策略就没有办法很好地贯彻下去。所有的战略都是有相应的技术和产品来实现的。而赛门铁克实现这些技术的产品就是NetBackup、PureDisk以及Backup Exec。

上面李刚也提到了重复数据遍布于企业的各处,而之前的重复数据删除更多的是在备份阶段进行。这没错,但是治标不治本。好的策略是尽量从数据源头予以删除,从数据生命周期的起始阶段就缩减数据的身段,这样大大降低的整个数据生命周期里的运行成本,提高了数据运行效率。当然,从数据生命周期的任何阶段进行重复数据删除都是可以的,但显然没有从源头来的彻底和有效。


498)this.style.width=498;" big(this)>
从任意位置减少重复的数据
[align=center] [/align]
从整个数据中心的角度来考虑系统的设计,是降低系统复杂性的重要方法。把数据从生产系统中一直到远程备份、容灾以及归档,从头到尾串成一个统一的整体进行管理,这使得从任意位置进行重复数据删除变得更加容易部署和实现。


498)this.style.width=498;" big(this)>
降低复杂性,简化重复数据删除的管理
[align=center] [/align]
上述两点加上精简基础架构,就是用户在今天的经济环境下,面临数据海量增长以及IT成本大幅降低的双重困境时所能采取的最有力的战略措施。

赛门铁克的NetBackup、PureDisk以及Backup Exec都会整合在一个平台上,这个整合的平台能够实现 备份和归档的统一,也能够实现备份和重复数据删除的统一。既然是一个平台,必然也对外开放,也能够整合、集成第三方重复数据删除的技术手段,不光是对赛门铁克的产品提供支持,对业界其他的环节上进行重复数据删除的技术也同样可以支持。而对用户来说是透明的,用户并不用特别在意是采用了什么样的数据删除技术,原有的整个的数据保护和数据备份的策略继续执行就是了,只是说对硬件的资源消耗会大幅度降低,因为部署了重复数据删除的技术。

不仅仅如此,赛门铁克对即将发布的NetBackup 7也整合了Backup Exec的技术,使得在客户端直接实现了重复数据删除。而马上就要发布的Backup Exec2010里也实现了重复数据删除技术。这使得赛门铁克更接近数据源的战略得以实现,意味着用户IT系统里的网络带宽、Media Server的吞吐能力的需求都会随之大幅度降低了。用户原来可能需要配一个8 CPU的Server,现在可能就只需要4个。因为大量的数据在客户端就已经被阻止掉了。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息