SQL2005中因为删除大量数据,导致事务日志增大
2008-12-12 11:42
246 查看
因为一个表里有大概500万条记录,Detele的时候发现居然删不掉了。就看到log文件逐渐变大。最后出错。
查了下,发觉DELETE命令貌似没有什么without transaction之类的参数可选,你只要delete就会有log。
--当然,实际操作前,要先压缩日志及数据库文件大小
/*--特别注意
请按步骤进行,未进行前面的步骤,请不要做后面的步骤
否则可能损坏你的数据库.
--*/
1.清空日志
DUMP TRANSACTION 库名 WITH NO_LOG
2.截断事务日志:
BACKUP LOG 数据库名 WITH NO_LOG
3.收缩数据库文件(如果不压缩,数据库的文件不会减小
企业管理器--右键你要压缩的数据库--所有任务--收缩数据库--收缩文件
--选择日志文件--在收缩方式里选择收缩至XXM,这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了
--选择数据文件--在收缩方式里选择收缩至XXM,这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了
也可以用SQL语句来完成
--收缩数据库
DBCC SHRINKDATABASE(客户资料)
--收缩指定数据文件,1是文件号,可以通过这个语句查询到:select * from sysfiles
DBCC SHRINKFILE(1)
4.为了最大化的缩小日志文件(如果是sql 7.0,这步只能在查询分析器中进行)
a.分离数据库:
企业管理器--服务器--数据库--右键--分离数据库
b.在我的电脑中删除LOG文件
c.附加数据库:
企业管理器--服务器--数据库--右键--附加数据库
此法将生成新的LOG,大小只有500多K
或用代码:
下面的示例分离 pubs,然后将 pubs 中的一个文件附加到当前服务器。
a.分离
EXEC sp_detach_db @dbname = 'pubs'
b.删除日志文件
c.再附加
EXEC sp_attach_single_file_db @dbname = 'pubs',
@physname = 'c:\Program Files\Microsoft SQL Server\MSSQL\Data\pubs.mdf'
5.为了以后能自动收缩,做如下设置:
企业管理器--服务器--右键数据库--属性--选项--选择"自动收缩"
--SQL语句设置方式:
EXEC sp_dboption '数据库名', 'autoshrink', 'TRUE'
6.如果想以后不让它日志增长得太大
企业管理器--服务器--右键数据库--属性--事务日志
--将文件增长限制为xM(x是你允许的最大数据文件大小)
--SQL语句的设置方式:
alter database 数据库名 modify file(name=逻辑文件名,maxsize=20)
7.--设置最小日志记录模式
alter database set recovery simple
--更新操作
--恢复日志记录模式
alter database set recovery full
========================猥琐的分割线==================================
经过一番试验,确实以上的办法实在没看到作用。。嗯嗯。。
看了下老外的BBS,找到了一个相对变通的办法,就是减少删除的数量,作循环。这样稍微好点。实现案例如下。
set rowcount 10
delete flow_step from flow_status inner join flow_step on flow_status.flow_id = flow_step.step_flow_id
where flow_status.flow_documentno like 'TNSH200710%'
/*If delete takes place than loop each time deleting 10,000 recs, loop until there's no record left to delete*/
while @@rowcount > 0
begin
delete flow_step from flow_status inner join flow_step on flow_status.flow_id = flow_step.step_flow_id
where flow_status.flow_documentno like 'TNSH200710%'
end
看上去应该可以写成procedure,嗯就先这样吧
查了下,发觉DELETE命令貌似没有什么without transaction之类的参数可选,你只要delete就会有log。
--当然,实际操作前,要先压缩日志及数据库文件大小
/*--特别注意
请按步骤进行,未进行前面的步骤,请不要做后面的步骤
否则可能损坏你的数据库.
--*/
1.清空日志
DUMP TRANSACTION 库名 WITH NO_LOG
2.截断事务日志:
BACKUP LOG 数据库名 WITH NO_LOG
3.收缩数据库文件(如果不压缩,数据库的文件不会减小
企业管理器--右键你要压缩的数据库--所有任务--收缩数据库--收缩文件
--选择日志文件--在收缩方式里选择收缩至XXM,这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了
--选择数据文件--在收缩方式里选择收缩至XXM,这里会给出一个允许收缩到的最小M数,直接输入这个数,确定就可以了
也可以用SQL语句来完成
--收缩数据库
DBCC SHRINKDATABASE(客户资料)
--收缩指定数据文件,1是文件号,可以通过这个语句查询到:select * from sysfiles
DBCC SHRINKFILE(1)
4.为了最大化的缩小日志文件(如果是sql 7.0,这步只能在查询分析器中进行)
a.分离数据库:
企业管理器--服务器--数据库--右键--分离数据库
b.在我的电脑中删除LOG文件
c.附加数据库:
企业管理器--服务器--数据库--右键--附加数据库
此法将生成新的LOG,大小只有500多K
或用代码:
下面的示例分离 pubs,然后将 pubs 中的一个文件附加到当前服务器。
a.分离
EXEC sp_detach_db @dbname = 'pubs'
b.删除日志文件
c.再附加
EXEC sp_attach_single_file_db @dbname = 'pubs',
@physname = 'c:\Program Files\Microsoft SQL Server\MSSQL\Data\pubs.mdf'
5.为了以后能自动收缩,做如下设置:
企业管理器--服务器--右键数据库--属性--选项--选择"自动收缩"
--SQL语句设置方式:
EXEC sp_dboption '数据库名', 'autoshrink', 'TRUE'
6.如果想以后不让它日志增长得太大
企业管理器--服务器--右键数据库--属性--事务日志
--将文件增长限制为xM(x是你允许的最大数据文件大小)
--SQL语句的设置方式:
alter database 数据库名 modify file(name=逻辑文件名,maxsize=20)
7.--设置最小日志记录模式
alter database set recovery simple
--更新操作
--恢复日志记录模式
alter database set recovery full
========================猥琐的分割线==================================
经过一番试验,确实以上的办法实在没看到作用。。嗯嗯。。
看了下老外的BBS,找到了一个相对变通的办法,就是减少删除的数量,作循环。这样稍微好点。实现案例如下。
set rowcount 10
delete flow_step from flow_status inner join flow_step on flow_status.flow_id = flow_step.step_flow_id
where flow_status.flow_documentno like 'TNSH200710%'
/*If delete takes place than loop each time deleting 10,000 recs, loop until there's no record left to delete*/
while @@rowcount > 0
begin
delete flow_step from flow_status inner join flow_step on flow_status.flow_id = flow_step.step_flow_id
where flow_status.flow_documentno like 'TNSH200710%'
end
看上去应该可以写成procedure,嗯就先这样吧
相关文章推荐
- SQL2005中因为删除大量数据,导致事务日志增大
- 分享工作中遇到的问题积累经验 事务日志太大导致insert不进数据
- 在进行INSERT INTO大量数据时,删除日志可以提交效率
- 通过日志恢复sql2005和sql2008误删除数据成功案列
- 大量日志数据库表高效删除
- sql server里执行delete或者update操作产生大量事务日志,导致空间不够,执行失败,能不能设置此类动作时不生成事务日志的
- 分享工作中遇到的问题积累经验 事务日志太大导致insert不进数据
- [置顶] ORACLE一次大量数据删除导致问题的处理
- [开发日志]SQL2008删除大量数据
- MYSQL 5.6 GTID模式下手工删除日志导致备库数据丢失
- 物理删除oracle数据文件(DBF文件)导致数据库ORA-01033的解决方法
- 使用复制存储过程执行解决“事务复制中的表大量更新导致无法及时同步”的问题
- 关于textarea标签输出数据库数据时出现大量空格导致格式不一致的问题
- iOS之UITableView中的cell因为重用机制导致新的cell的数据出现重复或者错乱
- 一次血的教训,阿里云rds mysql 数据库,本地化并日志恢复已删除的两天数据
- oracle 删除大量数据
- 利用事务日志来恢复Update、Delete误操作引起的数据丢
- 根据mysql数据库日志恢复删除数据
- Java项目删除了Jre System library导致大量错误的解决方案
- 数据日志删除 sql2008