您的位置:首页 > 运维架构 > Linux

linux设备驱动归纳总结(六):3.中断下半部之工作队列

2011-11-02 17:39 411 查看
CU首页fh265>>博客 微博 相册 个人中心 好友 消息 [退出]随便看看

博文 博主 相册
投票 活动 发博文

公告:缅怀Dennis Ritchie活动开赛啦!

小白的博客——提升自已,分享别人

xiaobai.blog.chinaunix.net
好的女人可以不共享。好的技术绝对要共享!

首页 | 博文目录 | 相册 | 博客圈 | 关于我 | 留言

个人资料





diytvgy

微博论坛

发纸条打招呼加关注加好友

博客访问:74427

博文数量:42

博客积分:687

博客等级:中校

关注人气: 4

注册时间:2010-12-01 18:55:26

文章分类

全部博文(42)


linux内核相关知识(1)


闲话(3)


linux内核与设备驱动(34)


ubuntu(2)

未分类博文(2)

订阅我的博客

















好友





tekkama





小雅贝贝





luozhiy





Knivo





embedtek





sillybo





wang2kk





嵌入小凯





send_li





CU官方博





songtao





lxhhust

最近来访





fh265

1小时前





shenhai

10月30日





a275532

10月14日





Knivo

10月13日







10月13日





lxr215

10月10日





luozhiy

10月9日





chafe

10月8日





mournju

10月7日





zotozo

10月7日





high_way

10月7日





wangxin

10月4日

字体大小: 博文

linux设备驱动归纳总结(六):3.中断下半部之工作队列 (2011-01-24 21:06)转载

标签: linux 设备驱动 下半部 软中断 工作队列
分类: 6中断

linux设备驱动归纳总结(六):3.中断的上半部和下半部——工作队列

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

这节介绍另外一种的下半部实现——工作队列。相对于软中断/tasklet,工作对列运行在进程上下文,允许睡眠,接下来慢慢介绍。

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

1、工作队列的使用

按惯例,在介绍工作队列如何实现之前,先说说如何使用工作队列实现下半部。

步骤一、定义并初始化工作队列:

创建工作队列函数:

struct workqueue_struct *create_workqueue(const char *name)

函数传参是内核中工作队列的名称,返回值是workqueue_struct结构体的指针,该结构体用来维护一个等待队列。

我的代码如下:

/*6th_irq_3/4th/test.c*/

14 struct workqueue_struct *xiaobai_wq; //定义工作队列

33 xiaobai_wq = create_workqueue("xiaobai");

步骤二、定义并初始化work结构体:

内核使用结构体来维护一个加入工作队列的任务:

/*linux/workqueue.h*/

25 struct work_struct {

26 atomic_long_t data;

27 #define WORK_STRUCT_PENDING 0 /* T if work item pending execution */

28 #define WORK_STRUCT_FLAG_MASK (3UL)

29 #define WORK_STRUCT_WQ_DATA_MASK (~WORK_STRUCT_FLAG_MASK)

30 struct list_head entry;

31 work_func_t func; //这个是重点,下半部实现的处理函数指针就放在这

32 #ifdef CONFIG_LOCKDEP

33 struct lockdep_map lockdep_map;

34 #endif

35 };

同样有静态和动态两种方法:

静态定义并初始化work结构体:

/*linux/workqueue.h*/

72 #define DECLARE_WORK(n,
f) \

73 struct work_struct n = __WORK_INITIALIZER(n, f)

定义并初始化一个叫n的work_struct数据结构,它对应的的处理函数是f。

对应的动态初始化方法,该函数返回work_struct指针,所以需要先定义一个work_struct结构:

/*linux/workqueue.h*/

107 #define INIT_WORK(_work,
_func) \

108 do { \

109 (_work)->data = (atomic_long_t) WORK_DATA_INIT(); \

110 INIT_LIST_HEAD(&(_work)->entry); \

111 PREPARE_WORK((_work), (_func)); \

112 } while (0)

113 #endif

跟tasklet一样,在初始化的同时,需要将处理函数实现,代码如下:

/*6th_irq_3/4th/test.c*/

15 struct work_struct xiaobai_work; //定义work结构体

16

17 void xiaobai_func(struct work_struct *work) //处理函数

18 {

19 printk("hello xiaobai!\n"); //同样什么都没干,只是打印

20 }

34 INIT_WORK(&xiaobai_work, xiaobai_func); //初始化work结构体

步骤三、在中断处理函数中调度任务:

工作队列和worl结构体都已经实现了,接下来就可以调度了,使用一下函数:

/*kernel/workqueue.c*/

161 int queue_work(struct workqueue_struct *wq, struct work_struct *work)

将指定的任务(work_struct),添加到指定的工作队列中。同样的,调度并不代表处理函数能够马上执行,这由内核进程调度决定。

步骤四、在卸载模块时,刷新并注销等待队列:

刷新等待队列函数:

/*kernel/workqueue.c*/

411 void flush_workqueue(struct workqueue_struct *wq)

该函数会一直等待,知道指定的等待队列中所有的任务都执行完毕并从等待队列中移除。

注销等待队列:

/*kernel/workqueue.c*/

904 void destroy_workqueue(struct workqueue_struct *wq)

该函数是是创建等待队列的反操作,注销掉指定的等待队列。

四个步骤讲完,贴个代码:

/*6th_irq_3/4th/test.c*/

1 #include <linux/module.h>

2 #include <linux/init.h>

3

4 #include <linux/interrupt.h>

5 #include <linux/workqueue.h>

6

7 #define DEBUG_SWITCH 1

8 #if DEBUG_SWITCH

9 #define P_DEBUG(fmt, args...) printk("<1>" "<kernel>[%s]"fmt, __FUNCTI ON__, ##args)

10 #else

11 #define P_DEBUG(fmt, args...) printk("<7>" "<kernel>[%s]"fmt, __FUNCTI ON__, ##args)

12 #endif

13

14 struct workqueue_struct *xiaobai_wq;
//1.定义工作队列

15 struct work_struct xiaobai_work;
//2定义work结构体

16

17 void xiaobai_func(struct work_struct
*work) //2实现处理函数

18 {

19 printk("hello xiaobai!\n");

20 }

21

22 irqreturn_t irq_handler(int irqno, void *dev_id)

23 {

24 printk("key down\n");

25 queue_work(xiaobai_wq ,&xiaobai_work);
//3调度任务

26 return IRQ_HANDLED;

27 }

28 static int __init test_init(void) //模块初始化函数

29 {

30 int ret;

31

32 /*work*/

33 xiaobai_wq = create_workqueue("xiaobai");
//1初始化工作对列

34 INIT_WORK(&xiaobai_work, xiaobai_func);
//2初始化work结构体

35

36 ret = request_irq(IRQ_EINT1, irq_handler,

37 IRQF_TRIGGER_FALLING, "key INT_EINT1", NULL);

38 if(ret){

39 P_DEBUG("request irq failed!\n");

40 return ret;

41 }

42

43 printk("hello irq\n");

44 return 0;

45 }

46

47 static void __exit test_exit(void) //模块卸载函数

48 {

49 flush_workqueue(xiaobai_wq); //4刷新工作队列

50 destroy_workqueue(xiaobai_wq);
//4注销工作队列

51 free_irq(IRQ_EINT1, NULL);

52 printk("good bye irq\n");

53 }

54

55 module_init(test_init);

56 module_exit(test_exit);

57

58 MODULE_LICENSE("GPL");

59 MODULE_AUTHOR("xoao bai");

60 MODULE_VERSION("v0.1");

和以往的一样,下半部仅仅是打印,没实质操作,看效果:

[root: 4th]# insmod test.ko

hello irq

[root: 4th]# key down

hello xiaobai!

key down

hello xiaobai!

[root: 4th]# rmmod test

good bye irq

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

二、使用共享的工作队列

在内核中有一个默认的工作队列events,使用共享的工作队列可以省去创建和注销工作队列的步骤。当然,队列是共享的,用起来当然会不爽,如果有多个不同的任务都加入到这个工作对列中,每个任务调度的速度就会比较慢,肯定不如自己创建一个爽。不过,一般默认工作队列都能满足要求,不需要创建一个新的。

少了上面创建和注销等待队列两步,使用共享工作队列步骤相对少一点

步骤一、实现处理函数,定义并初始化work结构体:

这一步骤上一节介绍的步骤二完全一样,所以就不说了。

步骤二、调度任务:

默认工作队列的中任务的调度不需要指定工作对列,所以函数有所不同:

/*kernel/workqueue.c*/

620 int schedule_work(struct work_struct *work)

该函数会把work_struct结构体加入到默认工作对列events中。

上函数:

/*6th_irq_3/3rd/test.c*/

1 #include <linux/module.h>

2 #include <linux/init.h>

3

4 #include <linux/interrupt.h>

5 #include <linux/workqueue.h>

6

7 #define DEBUG_SWITCH 1

8 #if DEBUG_SWITCH

9 #define P_DEBUG(fmt, args...) printk("<1>" "<kernel>[%s]"fmt, __FUNCTI ON__, ##args)

10 #else

11 #define P_DEBUG(fmt, args...) printk("<7>" "<kernel>[%s]"fmt, __FUNCTI ON__, ##args)

12 #endif

13

14 struct work_struct xiaobai_work; //定义work结构体

15

16 void xiaobai_func(struct work_struct *work)

17 {

18 printk("hello xiaobai!\n");

19 }

20

21 irqreturn_t irq_handler(int irqno, void *dev_id) //中断处理函数

22 {

23 printk("key down\n");

24 schedule_work(&xiaobai_work);
//调度任务

25 return IRQ_HANDLED;

26 }

27 static int __init test_init(void) //模块初始化函数

28 {

29 int ret;

30

31 /*work*/

32 INIT_WORK(&xiaobai_work, xiaobai_func);
//初始化worl结构体

33

34 ret = request_irq(IRQ_EINT1, irq_handler,

35 IRQF_TRIGGER_FALLING, "key INT_EINT1", NULL);

36 if(ret){

37 P_DEBUG("request irq failed!\n");

38 return ret;

39 }

40

41 printk("hello irq\n");

42 return 0;

43 }

44

45 static void __exit test_exit(void) //模块卸载函数

46 {

47 free_irq(IRQ_EINT1, NULL);

48 printk("good bye irq\n");

49 }

50

51 module_init(test_init);

52 module_exit(test_exit);

53

54 MODULE_LICENSE("GPL");

55 MODULE_AUTHOR("xoao bai");

56 MODULE_VERSION("v0.1");

再看一下实现效果,效果和之前的一样:

[root: 3rd]# insmod test.ko

hello irq

[root: 3rd]# key down

hello xiaobai!

key down

hello xiaobai!

[root: 3rd]# rmmod test

good bye irq

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

三、工作队列的实现

在介绍工作队列的实现之前,必须要介绍什么是工作者线程和三个数据结构。

工作者线程,是指负责执行在内核队列中任务的内核线程。在工作队列中,有专门的工作者线程来处理加入到工作对列中的任务。工作对列对应的工作者线程可能不止一个,每个处理器有且仅有一个工作队列对应的工作者线程。当然,如果内核中两个工作对列,那每个处理器就分别有两个工作者线程。

在内核中有一个默认的工作队列events,对于单处理器的ARM9,有一个对应的工作者线程。

工作队列结构体workqueue_struct:

59 struct workqueue_struct {

60 struct cpu_workqueue_struct *cpu_wq;
//一个工作者线程对应一个该结构体

61 struct list_head list;

62 const char *name;

63 int singlethread;

64 int freezeable; /* Freeze threads during suspend */

65 int rt;

66 #ifdef CONFIG_LOCKDEP

67 struct lockdep_map lockdep_map;

68 #endif

69 };

工作对列workqueue_struct有一个成员cpu_workqueue_struct,每个工作者线程对应一个cpu_workqueue。所以,对于单处理器的ARM9,一个工作对列只有一个cpu_workqueue_struct。

结构体cpu_workqueue_struct:

41 struct cpu_workqueue_struct {

42

43 spinlock_t lock;

44 /*这是内核链表,所有分配在这个处理器的work_struct将通过链表连在一起,等待执行*/

45 struct list_head worklist;

46 wait_queue_head_t more_work;

47 struct work_struct *current_work;
//指向当前执行的work_struct

48

49 struct workqueue_struct *wq; //指向关联自己的工作队列

50 struct task_struct *thread; //指向对应的内核线程,即工作者线程

51

52 int run_depth; /* Detect run_workqueue() recursion depth */

53 } ____cacheline_aligned;

由上面知道,当我们调用queue_work来调度任务时,并不是把work_struct添加到等待队列中,而是会被分配到工作对列的成员cpu_workqueue_struct中。

work结构体work_struct:

25 struct work_struct {

26 atomic_long_t data;

27 #define WORK_STRUCT_PENDING 0 /* T if work item pending execution */

28 #define WORK_STRUCT_FLAG_MASK (3UL)

29 #define WORK_STRUCT_WQ_DATA_MASK (~WORK_STRUCT_FLAG_MASK)

30 struct list_head entry; //cpu_workqueue_struct通过这个成员,将wrok_struct连在一起

31 work_func_t func; //每个任务的处理函数

32 #ifdef CONFIG_LOCKDEP

33 struct lockdep_map lockdep_map;

34 #endif

35 };

可能上面讲得很乱,下面将来个图来讲解一下,双处理器的情况下:









xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

四、选择哪个来实现下半部

在2.6内核,提供三种实现中断下半部的方法,软中断、tasklet和工作队列,其中tasklet是基于软中断实现的,两者很相近。而工作队列完全不同,它是靠内核线程实现的。

有这样的一张表:





简单来说,软中断和tasklet优先级较高,性能较好,调度快,但不能睡眠。而工作队列是内核的进程调度,相对来说较慢,但能睡眠。所以,如果你的下半部需要睡眠,那只能选择动作队列。否则最好用tasklet。

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

五、总结

这节简单介绍了工作队列的使用和实现。其中,还有函数能够使指定工作队列的任务延时执行,相关的结构体和函数有:

struct delayed_work

DECLARE_DELAYED_WORK(n,f)

INIT_DELAYED_WORK(struct delayed_work *work, void (*function)(void *));

int queue_delayed_work(struct workqueue_struct *queue, struct delayed_work *work, unsigned
long delay);

schedule_delayed_work(struct delayed_work *work, unsigned long delay)

有兴趣自己看看,很简单。

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

源代码:

6th_irq_3(2).rar


分享到:新浪微博QQ空间开心网豆瓣人人网twitterfb

0



阅读(1119)评论 (0)收藏(0)举报打印

前一篇:linux设备驱动归纳总结(六):3.中断下半部之tasklet

发评论





























































验证码:

更换一张

关于我们 | 关于IT168 | 联系方式 | 广告合作 | 法律声明 | 免费注册
Copyright © 2001-2010 ChinaUnix.net All Rights Reserved 北京皓辰网域网络信息技术有限公司. 版权所有

感谢所有关心和支持过ChinaUnix的朋友们

京ICP证041476号 京ICP证060528号
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: