python 多线程编程并不能真正利用多核的CPU
2012-01-26 16:57
676 查看
昨天晚上在寝室写python多线程的时候,用了几个测试的程序,分别是递归方法求斐波那契数的值。分别采用单线程一个一个执行的方法和采用多线程调用的方法。观察所用的时间基本上差不多的。
然后我在每个函数内部加入sleep()函数以后,分别让它们睡零点几秒钟。这样一来,明显多线程执行所用的时间要少很多。
这时我突然好奇,想看看在用python多线程执行的时候,是否可以利用CPU多个核心呢?我的笔记本是i3处理器,双核,4线程(我至今不知道这里所指的4线程具体是什么意思,之前和老师交流过,猜测可能是在硬件上做了像我们软件执行的时候的躲进程这样类似的东西,但是不确定),反正在我的系统下的系统监视器里面可以看到有4个核的利用率频线。我就观察这种曲线的变化方式:当我每一个都是单线程地运行的时候。显示的画面中有一个CPU爆满;但是在多线程运行的时候,是每一个利用一些。
下面是系统监视器显示情况:
这是运行时间对比:
显然多线程运行的时候时间反而长了很多,虽然有上下文切换的时间损耗,但是若是能够利用多核的话也不至于那么慢,另外由系统监视器可以看出多线程的时候也没有把各个核利用率达到很高的一个水平。所以当时推断python的多线程并没有很多的利用多核CPU,其实之前也有听说过python对于多核CPU支持是个缺陷,现在是有真的体会,但是我只是凭自己的小实验,也不能有很打保证啊,也只是猜测,后来翻了一下《python参考手册》发现有这么一句话,看来是真的证实了我自己的猜想啊!!!
尽管是很低级的问题,但是对于初学的我来说,还是有很大的喜悦的。
下面是实验的代码:
fab.py:
myThread.py:
然后我在每个函数内部加入sleep()函数以后,分别让它们睡零点几秒钟。这样一来,明显多线程执行所用的时间要少很多。
这时我突然好奇,想看看在用python多线程执行的时候,是否可以利用CPU多个核心呢?我的笔记本是i3处理器,双核,4线程(我至今不知道这里所指的4线程具体是什么意思,之前和老师交流过,猜测可能是在硬件上做了像我们软件执行的时候的躲进程这样类似的东西,但是不确定),反正在我的系统下的系统监视器里面可以看到有4个核的利用率频线。我就观察这种曲线的变化方式:当我每一个都是单线程地运行的时候。显示的画面中有一个CPU爆满;但是在多线程运行的时候,是每一个利用一些。
下面是系统监视器显示情况:
这是运行时间对比:
显然多线程运行的时候时间反而长了很多,虽然有上下文切换的时间损耗,但是若是能够利用多核的话也不至于那么慢,另外由系统监视器可以看出多线程的时候也没有把各个核利用率达到很高的一个水平。所以当时推断python的多线程并没有很多的利用多核CPU,其实之前也有听说过python对于多核CPU支持是个缺陷,现在是有真的体会,但是我只是凭自己的小实验,也不能有很打保证啊,也只是猜测,后来翻了一下《python参考手册》发现有这么一句话,看来是真的证实了我自己的猜想啊!!!
尽管是很低级的问题,但是对于初学的我来说,还是有很大的喜悦的。
下面是实验的代码:
fab.py:
# -*- coding: utf-8 -*- from myThread import MyThread from time import ctime from time import sleep import sys def fib(x): # sleep(0.005) if x<2:return 1 return (fib(x-2) + fib(x-1)) def fac(x): # sleep(0.05) if x<2:return 1 return (fac(x-2)+fac(x-1)) def sum(x): # sleep(0.05) if x<2:return 1 return (sum(x-2)+sum(x-1)) funcs = [fib,fac,sum] n = 35 def main(): nfuncs = range(len(funcs)) sys.stdout.write('***SINGLE THREAD\n') for i in nfuncs: sys.stdout.write('starting %s at: %s\n' %(funcs[i].__name__,ctime())) print funcs[i](n) sys.stdout.write("%s finished at: %s\n"% (funcs[i].__name__,ctime())) sys.stdout.write('\n***MULTIPLE THREADS\n') threads = [] for i in nfuncs: t = MyThread(funcs[i],(n,),funcs[i].__name__) threads.append(t) for i in nfuncs: threads[i].start() for i in nfuncs: threads[i].join() print threads[i].getResult() sys.stdout.write('all done\n') if __name__ == '__main__': main()
myThread.py:
import threading from time import ctime import sys class MyThread(threading.Thread): def __init__(self,func,args,name=''): threading.Thread.__init__(self) self.name = name self.func = func self.args = args def getResult(self): return self.res def run(self): sys.stdout.write("starting %s at: %s\n" % (self.name,ctime())) self.res = apply(self.func,self.args) sys.stdout.write("%s finished at: %s\n" % (self.name,ctime()))
相关文章推荐
- python 多线程编程并不能真正利用多核的CPU
- python多线程为什么不能利用多核cpu
- python利用多核CPU实现mapreduce
- Parallel Python实现程序的并行多cpu多核利用【pp模块】 推荐
- Parallel Python实现python程序的并行及多cpu多核利用
- Python怎么利用多核cpu
- eventlet引发的学习-python如何利用多核CPU
- Nging利用多核cpu提高性能_配置参数worker_cpu_affinity
- 【转】如何利用多核CPU来加速你的Linux命令 — awk, sed, bzip2, grep, wc等
- python GIL 全局锁,多核cpu下的多线程性能究竟如何?
- python利用WMI等监控获取windows状态如CPU、内存、硬盘等信息
- java利用FutureTask、ExecutorService 在多核时代充分利用CPU运算
- 如何利用多核CPU来加速你的Linux命令 — awk, sed, bzip2, grep, wc等
- Kivy A to Z -- 通过绑定进程运行CPU提高Python程序在多核CPU平台上的性能
- Nging利用多核cpu提高性能_配置参数worker_cpu_affinity
- 如何利用多核CPU来加速你的Linux命令 — awk, sed, bzip2, grep, wc等
- 如何利用多核CPU来加速你的Linux命令 — awk, sed, bzip2, grep, wc等
- 如何利用多核CPU来加速你的Linux命令 — awk, sed, bzip2, grep, wc等
- 如何利用多核CPU来加速你的Linux命令 — awk, sed, bzip2, grep, wc等
- Python 利用WMI监控windows状态如CPU、内存、硬盘