Linux下管道的实现机制
2017-05-27 10:57
197 查看
查看Linux下管道的默认大小可以使用命令ulimit -a
尽管命令ulimit -a看到管道大小8块,缓冲区的大小不是4 k,因为内核动态分配最大16“缓冲条目”,乘64 k
验证管道的容量:
管道是一种最基本的 IPC机制,由pipe函数创建: 调用pipe函数时在内核中开辟⼀一块缓冲区(称为管道)用于通信,它有⼀个读端一个写端,然后通 过filedes参数传出给用户程序两个⽂文件描述符,filedes[0]指向管道的读端,filedes[1]指向管道的 写端(很好记,就像0是标准输⼊入1是标准输出⼀一样)。所以管道在⽤用户程序看起来就像⼀个打开 的文件,通过read(filedes[0]);或者write(filedes[1]);向这个⽂文件读写数据其实是在读写内核缓冲 区。pipe函数调⽤用成功返回0,调⽤用失败返回-1。 从管道读数据是一次性操作,数据一旦被读,它就从管道中被抛弃,释放空间以便写更多的数据。
管道是有默认大小的,如果我们一直往这个缓冲区里一直写而不读取数据,那么到达了管道最大的容量就无法继续往里面写数据。通过这种方式来验证管道的容量
fcntl函数根据文件描述符来操作文件的特性
fcntl(pipefd[1], F_SETFL, flags | O_NONBLOCK); // 设置为非阻塞
· F_GETFL:获取fd的文件状态标志
F_SETFL:设置文件描述符的状态标志
O_NONBLOCK,如果read或者write没有可操作的数据则会返回-1或者错误
在Linux下管道并没有专门的数据结构,而是借助了文件系统的file结构和VFS的索引节点inode。通过将两个 file 结构指向同一个临时的VFS 索引节点,而这个 VFS 索引节点又指向一个物理页面而实现的。有点类似于页表的映射机制。
有两个 file 数据结构,但它们定义文件操作例程地址是不同的,其中一个是向管道中写入数据的例程地址,而另一个是从管道中读出数据的例程地址。这样,用户程序的系统调用仍然是通常的文件操作,而内核却利用这种抽象机制实现了管道这一特殊操作。
管道的读写
管道写函数通过将字节复制到 VFS 索引节点指向的物理内存而写入数据,而管道读函数则通过复制物理内存中的字节而读出数据。
在对管道进行写操作的时候必须满足:内存中有足够的空间来容纳要写的数据,此时写数据的时候不允许来读。
因此管道是自带同步与互斥机制的,通过文件描述符往里写数据的时候不允许此时读数据,通过文件描述符往外拿数据的时候不允许此时写数据。这是为了解决数据的二义性问题。
尽管命令ulimit -a看到管道大小8块,缓冲区的大小不是4 k,因为内核动态分配最大16“缓冲条目”,乘64 k
验证管道的容量:
管道是一种最基本的 IPC机制,由pipe函数创建: 调用pipe函数时在内核中开辟⼀一块缓冲区(称为管道)用于通信,它有⼀个读端一个写端,然后通 过filedes参数传出给用户程序两个⽂文件描述符,filedes[0]指向管道的读端,filedes[1]指向管道的 写端(很好记,就像0是标准输⼊入1是标准输出⼀一样)。所以管道在⽤用户程序看起来就像⼀个打开 的文件,通过read(filedes[0]);或者write(filedes[1]);向这个⽂文件读写数据其实是在读写内核缓冲 区。pipe函数调⽤用成功返回0,调⽤用失败返回-1。 从管道读数据是一次性操作,数据一旦被读,它就从管道中被抛弃,释放空间以便写更多的数据。
管道是有默认大小的,如果我们一直往这个缓冲区里一直写而不读取数据,那么到达了管道最大的容量就无法继续往里面写数据。通过这种方式来验证管道的容量
fcntl函数根据文件描述符来操作文件的特性
fcntl(pipefd[1], F_SETFL, flags | O_NONBLOCK); // 设置为非阻塞
· F_GETFL:获取fd的文件状态标志
F_SETFL:设置文件描述符的状态标志
O_NONBLOCK,如果read或者write没有可操作的数据则会返回-1或者错误
#include<sys/stat.h> #include<unistd.h> #include<fcntl.h> #include<stdio.h> #include<stdlib.h> #include<errno.h> #include<string.h> #include<signal.h> int main(int argc, char *argv[]) { int pipefd[2]; if (pipe(pipefd) == -1) perror("pipe error"); int ret; int count = 0; int flags = fcntl(pipefd[1], F_GETFL); fcntl(pipefd[1], F_SETFL, flags | O_NONBLOCK); // 设置为非阻塞 while (1) { ret = write(pipefd[1], "A", 1); if (ret == -1) { printf("err=%s\n", strerror(errno)); break; } count++; } printf("count=%d\n", count); //管道容量 return 0; }
在Linux下管道并没有专门的数据结构,而是借助了文件系统的file结构和VFS的索引节点inode。通过将两个 file 结构指向同一个临时的VFS 索引节点,而这个 VFS 索引节点又指向一个物理页面而实现的。有点类似于页表的映射机制。
有两个 file 数据结构,但它们定义文件操作例程地址是不同的,其中一个是向管道中写入数据的例程地址,而另一个是从管道中读出数据的例程地址。这样,用户程序的系统调用仍然是通常的文件操作,而内核却利用这种抽象机制实现了管道这一特殊操作。
管道的读写
管道写函数通过将字节复制到 VFS 索引节点指向的物理内存而写入数据,而管道读函数则通过复制物理内存中的字节而读出数据。
在对管道进行写操作的时候必须满足:内存中有足够的空间来容纳要写的数据,此时写数据的时候不允许来读。
因此管道是自带同步与互斥机制的,通过文件描述符往里写数据的时候不允许此时读数据,通过文件描述符往外拿数据的时候不允许此时写数据。这是为了解决数据的二义性问题。
相关文章推荐
- 深入分析Linux内核源码-Linux管道的实现机制
- Linux管道的实现机制
- Linux管道的实现机制
- Linux管道的实现机制
- Linux下的管道pipe----管道容量和实现机制
- Linux管道的实现机制
- Linux管道的实现机制
- Linux管道实现机制
- Linux下的管道容量及其实现机制
- Linux下的管道容量及其实现机制
- linux下管道的容量以及实现机制
- linux下管道的容量以及实现机制
- Linux管道的实现机制
- 7.1.1 Linux管道的实现机制
- Linux管道的实现机制
- 【嵌入式Linux学习七步曲之第五篇 Linux内核及驱动编程】Linux系统调用的实现机制分析
- 【嵌入式Linux学习七步曲之第五篇 Linux内核及驱动编程】Linux内核抢占实现机制分析
- Linux 2.6.10内核下PCI Express Native热插拔框架的实现机制
- Linux下的多线程机制的分析与实现
- Linux下的动态连接库及其实现机制