大型网站的备份恢复同步策略
2013-03-05 21:18
344 查看
原文链接: http://www.itpub.net/thread-1769278-1-1.html
遇到需求如下:
客户要做网站迁移并且,要做一台备机,当主机发生问题时候,备机立马能用。做数据备份方案。网站已经跑了8年了,数据库文件大概21G,数据文件大概有40G,没有文件服务器,所有的文件都会上传到一个文件夹下面,文件夹巨大40G,并且文件琐碎,每天还上传大量的数据,pdf,word文件,图片都有。
现在问题如下:
1。如何做oracle数据库同步,我最开始用数据泵的方式,发现也不快,每次备份需要4个小时。备份文件巨大。我考虑用RMAN方式备份不知可行?
RMAN 全备+增量备份 做好恢复测试 每周做一次全备
2.如何做数据文件的备份,每天都有新的文件上传,不可能全部备份,没有那么大的空间,而且每次备份也需要耗费大量的时间。我的想法是知道那些数据每天增加,通过写程序实现数据每天备份同步。
如果是LINUX的话 我觉得RSYNC可以尝试 如果是WINDOWS 采用备份软件
3.如何快速切换?当主机发生问题时,最方便的切换备机。
ORACLE DATA GUARD 物理STANDBY 如果对实时性有要求 可采用 SYNC
如果允许数据少量丢失 则用ARCH的方式
40G的数据量其实很小
遇到需求如下:
客户要做网站迁移并且,要做一台备机,当主机发生问题时候,备机立马能用。做数据备份方案。网站已经跑了8年了,数据库文件大概21G,数据文件大概有40G,没有文件服务器,所有的文件都会上传到一个文件夹下面,文件夹巨大40G,并且文件琐碎,每天还上传大量的数据,pdf,word文件,图片都有。
现在问题如下:
1。如何做oracle数据库同步,我最开始用数据泵的方式,发现也不快,每次备份需要4个小时。备份文件巨大。我考虑用RMAN方式备份不知可行?
RMAN 全备+增量备份 做好恢复测试 每周做一次全备
2.如何做数据文件的备份,每天都有新的文件上传,不可能全部备份,没有那么大的空间,而且每次备份也需要耗费大量的时间。我的想法是知道那些数据每天增加,通过写程序实现数据每天备份同步。
如果是LINUX的话 我觉得RSYNC可以尝试 如果是WINDOWS 采用备份软件
3.如何快速切换?当主机发生问题时,最方便的切换备机。
ORACLE DATA GUARD 物理STANDBY 如果对实时性有要求 可采用 SYNC
如果允许数据少量丢失 则用ARCH的方式
40G的数据量其实很小
相关文章推荐
- memcache在大型网站的应用策略
- 关于大型网站技术演进的思考(十一)--网站静态化处理—动静分离策略(3)
- 大型互联网站解决海量数据的常见策略
- 大型网站的SEO网站优化策略
- 大型互联网站解决海量数据的常见策略
- memcache在大型网站的应用策略【转】
- 大型互联网站解决高并发的常见策略
- 教你如何对待大型网站平台的性能优化? 之 五---web 前端性能优化策略(长篇总结)
- 星箭:大型网站优化策略
- 大型网站的Google排名策略
- 关于大型网站技术演进的思考(十一)--网站静态化处理—动静分离策略(3)
- 大型网站如何做301重定向的策略
- 大型互联网站解决高并发的常见策略
- memcache在大型网站的应用策略
- 大型网站分类更新策略
- memcache在大型网站的应用策略【转】
- memcache在大型网站的应用策略
- 大型网站如何做301重定向的策略
- 大型互联网站解决海量数据的常见策略
- 大型互联网站解决海量数据的常见策略