您的位置:首页 > 理论基础 > 计算机网络

sendfile原理,实现文件传输性能的提升

2012-02-15 09:50 274 查看
http://calmness.iteye.com/blog/378463

在apache,nginx,lighttpd等web服务器当中,都有一项sendfile相关的配置,在一些网上的资料都有谈到sendfile会提升文件传输性能,那sendfile到底是什么呢?它的原理又是如何呢? 

在传统的文件传输里面(read/write方式),在实现上其实是比较复杂的,需要经过多次上下文的切换,我们看一下如下两行代码: 

Java代码  


read(file, tmp_buf, len);      

       write(socket, tmp_buf, len);      

     
        以上两行代码是传统的read/write方式进行文件到socket的传输。 

当需要对一个文件进行传输的时候,其具体流程细节如下: 
1、调用read函数,文件数据被copy到内核缓冲区 
2、read函数返回,文件数据从内核缓冲区copy到用户缓冲区 
3、write函数调用,将文件数据从用户缓冲区copy到内核与socket相关的缓冲区。 
4、数据从socket缓冲区copy到相关协议引擎。 

以上细节是传统read/write方式进行网络文件传输的方式,我们可以看到,在这个过程当中,文件数据实际上是经过了四次copy操作: 

硬盘—>内核buf—>用户buf—>socket相关缓冲区—>协议引擎 

而sendfile系统调用则提供了一种减少以上多次copy,提升文件传输性能的方法。Sendfile系统调用是在2.1版本内核时引进的: 

Java代码  


sendfile(socket, file, len);  

运行流程如下: 
1、sendfile系统调用,文件数据被copy至内核缓冲区 
2、再从内核缓冲区copy至内核中socket相关的缓冲区 
3、最后再socket相关的缓冲区copy到协议引擎 

相较传统read/write方式,2.1版本内核引进的sendfile已经减少了内核缓冲区到user缓冲区,再由user缓冲区到socket相关缓冲区的文件copy,而在内核版本2.4之后,文件描述符结果被改变,sendfile实现了更简单的方式,系统调用方式仍然一样,细节与2.1版本的不同之处在于,当文件数据被复制到内核缓冲区时,不再将所有数据copy到socket相关的缓冲区,而是仅仅将记录数据位置和长度相关的数据保存到socket相关的缓存,而实际数据将由DMA模块直接发送到协议引擎,再次减少了一次copy操作。 

以上描述虽然简单,但实际情况会更加复杂,本文只希望以简单的方式大致上讲解sendfile的原理,并不奢望通过本文能够阐述出所有的细节,我也没这水平,希望此文对各位朋友有所帮助。 
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息