您的位置:首页 > 大数据

关于大数据时代传统商业存储的思考: 中心存储 VS 分布式存储

2014-03-28 16:39 417 查看
尊重原创,转载请注明出处:http://anzhan.me ; http://blog.csdn.net/anzhsoft
今天和我们部门的老大1*1, 大家面对面沟通了一下到新的项目组的想法。而且也将我对传统商业存储在当前大数据云计算发展如火如荼的背景下,如何改进,融合交流了我的看法。

传统的商业存储,诞生于大型机,小型机时代。那时候将所有的硬盘集中的放到几个机架上,大型机通过光纤,ISCSI等高速连接到存储系统上。存储系统需要保证高并发,高IO读写速度,数据冗余备份等保护。

现在x86服务器,尤其是Google这种互联网公司都是通过廉价的硬件组装成高大上的集群,分布式文件系统(GFS,HDFS),各种基于内存的系统(memcached, GemFire, RAMCloud),它们都是通过相对廉价的硬件来构建了高并发,高读写速度,高可靠性(虽然每个节点有很高的故障率,但是集群可以快速failover这种失败节点而使得整体的服务不受影响),高扩展性:这种它的天性。

显然,传统的商业存储需要适应这种计算发展的趋势,并且做出回应。



Open-Stack之所以受到各大存储厂商的追捧,在于OpenStack的Cinder可以方便的接入商业存储,也就是说,OpenStack所使用的存储系统仍然是各大商业存储系统。但是这个解决不了传统商业存储还是中心存储的劣势。也是它从跟不上不适应当前的云计算的大环境的根结。出路,或者是有将现有产品整合,真的是使用Software Defined Storage(软件定义存储),或者说是DataStorage as a Service。

当前我看到的只是存储厂商被动的去增加API,来被动的融入云计算的环境。我们应该需要转变,真正的实现软件定义存储,真正的去构建分布式的存储系统。希望,这些掌舵手可以把握好方向,也希望这次转型过后,我们依然能引导时代,进而改变这个世界。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: