您的位置:首页 > 数据库

导数中的最小化日志记录:测试和分析

2015-11-17 17:24 337 查看

测试和分析

依据上文件最小化日志的判断逻辑,对常见的BULK INSERT和INSERT INTO...SELECT做测试和分析
创建测试环境和基准
--创建表tb_source并插入10000条数据
use master
go
create database test;
alter database test set recovery bulk_logged with no_wait;
go
use test
go
create table tb_source (id int,val char(100));
insert into tb_source
select top(10000) ROW_NUMBER() over (order by sysdatetime()),'HeHe' from master..spt_values a,master..spt_values b
go
创建基准表tb_benchmark,将tb_source的数据导出到文件,再导入到基准表。然后获取最小化日志的统计做为测试基准。
create table tb_benchmark (id int,val char(100));
/**
CMD中导出数据:
C:\Users\Administrator>bcp test.dbo.tb_source out D:\ss\source.csv -S. -T -c
**/
--导入数据并并统计日志
create table tb_benchmark (id int,val char(100));
bulk insert tb_benchmark
from 'd:\ss\source.csv'
with (tablock) ;
SELECT COUNT(*)AS numrecords,
CAST((COALESCE(SUM([Log Record LENGTH]), 0))
/ 1024. / 1024. AS NUMERIC(12, 2)) AS size_mb
FROM sys.fn_dblog(NULL, NULL) AS D
WHERE AllocUnitName = 'dbo.tb_benchmark' OR AllocUnitName LIKE 'dbo.tb_benchmark.%';
SELECT Operation, Context,
AVG([Log Record LENGTH]) AS AvgLen, COUNT(*) AS Cnt
FROM sys.fn_dblog(NULL, NULL) AS D
WHERE AllocUnitName = 'dbo.tb_benchmark' OR AllocUnitName LIKE 'dbo.tb_benchmark.%'
GROUP BY Operation, Context, ROUND([Log Record LENGTH], -2)
ORDER BY AvgLen, Operation, Context;



从结果可以看出插入10000行,只产生了170条日志。没有大于行大小(>104)的日志记录。确定是最小化日志记录。

1.bulk insert非空堆表

前面的基准测试可以看到空堆表的insert,最小化日志记录成功。非空的话,向基准表再导入一次数据。



从结果看,最小日志也是成立的。

2. bulk insert空聚集表

create table tb_btree1 (id int ,val char(100))
create clustered index cix_tb_btree1
on  tb_btree1 (id)
go
bulk insert tb_btree1
from 'd:\ss\source.csv'
with (tablock)



这个最小化也是成立的,日志记录多于空堆表的情况。
使用TF-610,而不使用tablock:
create table tb_btree2 (id int ,val char(100))
create clustered index cix_tb_btree2
on  tb_btree2 (id)
go
dbcc traceon(610)
bulk insert tb_btree2
from 'd:\ss\source.csv'



这种情况下不并完全是最小化日志记录。从测试来看空聚集索引使用tablock产生的日志量会更少一些。这里为什么会有71行插入是完整日志记录的呢?一个表至少有一个数据页,向已有的数据页上插入行是完整日志记录,新分配的页是最小日志记录。至于为什么是71行,下面3.非空聚集表中一起分析。

3. bulk insert非空聚集表

先创建表tb_btree,然后向其中插入60条记录。观察完整日志记录的情况。
create table tb_btree (id int ,val char(100))
create clustered index cix_tb_btree
on  tb_btree (id)
go
declare @i int=0
while @i<60
begin
set @i=@i+1
insert into tb_btree values(@i,'HaHa')
end



插入60条记录,有64条日志记录。聚集索引日志60条,平均长度212(大于104)。
然后再向tb_tree中插入数据,对比日志情况。注意:导入数据我是从ID=61开始导入的。因为原表中有ID=[1,60]的行了,如果导入数据重复,会发生行移动和页拆分等操作,这样就会增加很多额外的日志,不便分析。
dbcc traceon(610)
bulk insert tb_btree
from 'd:\ss\source.csv'
with (ORDER(ID),FIRSTROW=61)



与前面对比,可以看出新插入9960行数据,只新增了913条日志。有意思的是,索引叶级页插入(LOP_INSERT_ROWS&LCX_CLUSTERED)增加了11条,这11条是完整日志记录的,其它行插入是最小化日志插入的。
这是为什么呢?
这是因为原来tb_btree中只有一个数据页,且只存放了60行数据。而这个数据页上最多只能存放71行数据。也就是,在已经存在的数据页中插入数据是完整日志记录的,新分配的数据页插入数据是最小化日志记录的
为什么最多只能存放71条数据?
直接通过DBCC PAGE查看对应数据页最直观。或者通过理论来计算:
通过dbcc showcontig ('tb_btree') with tableresults得到行大小为111。假设页上可以存N行数据,
则:页头+偏移矩阵+行容量<=8KB-->96+2*N+111*N<=8192-->N<=71.65-->N=71

4. INSERT INTO...WITH(TABLOCK)...SELECT,向堆表中插入数据

--空堆表的情况,确认是最小化日志。
create table tb_heap1 (id int ,val char(100)) ;
INSERT INTO tb_heap1 with(tablock) select * from tb_source;



--非空堆表,将上面的数据再插入一遍即可。确认是最小化日志。
INSERT INTO tb_heap1 with(tablock) select * from tb_source;



5. INSERT INTO...SELECT...ODER BY(...),向聚集表中插入数据

--空的聚集表
create  table tb_cix (id int ,val char(100))
create clustered index cix_tb_cix
on  tb_cix (id)
go
dbcc traceon(610)
insert into tb_cix select * from tb_source order by id



同样,已有的数据页上是完整日志记录,其它是最小化日志记录。
--非空聚集表
--先插入70行数据,是完整日志记录的。
create  table tb_cix2 (id int ,val char(100))
create clustered index cix_tb_cix2
on  tb_cix2 (id)
go
declare @i int=0
while @i<70
begin
set @i=@i+1;
insert into tb_cix2 values(@i,'HoHo')
end



--再从tb_source插入ID>70的9930行
dbcc traceon(610)
insert into tb_cix2 select * from tb_source where id>70 order by id



可以看到只新了一条完整日志的记录,其它是最小化日志记录的。

6. INSERT INTO...SELECT...ODER BY(...),并行导入聚集表

前文提到SQL 2008之后结合键范围锁,不会锁定整个表,只锁定某部分的键值区间,其它操作可以并行访问此区间外的数据。
这里我打开三个session,同时插入三个区间的数据[1,1000],[3000,5000],[7000,9000]
create  table tb_cix3 (id int ,val char(100))
create clustered index cix_tb_cix3
on  tb_cix3 (id)
go
--session 1
dbcc traceon(610)
insert into tb_cix3 select * from tb_source where id between 1 and 1000 order by id
--session 2
dbcc traceon(610)
insert into tb_cix3 select * from tb_source where id between 3000 and 5000 order by id
option (querytraceon 2332)
--session 3
dbcc traceon(610)
insert into tb_cix3 select * from tb_source where id between 7000 and 9000 order by id
option (querytraceon 2332)
并行导入最好用ETL工具实现,特别是数据排序这一步。我在测试时,踩到一个坑:
当第一个insert 完成后,其它的insert的oder by会失效,造成无法最小化日志。除了第一个被执行的insert外,其它的执行计划中不会有SORT操作符。只好使用TF-2332,强制数据修改操作进行排序,也就是querytraceon 2332。还有就是数据量太少,都是瞬间完成,不好控制并发。



7. 在SSIS实际导数中的一个应用简单例子

这是实际项目中导数Destination的设置。一个聚集表导到另一个聚集表,实现了最小化日志。目标实例启用了TF-610,FastLoadOptions设置为根据目标表聚集索引键进行排序。





内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  SQL Server Bulk