您的位置:首页 > 理论基础 > 计算机网络

python3多进程,单线程,网络请求密集型操作速度对比

2017-12-02 17:08 495 查看
from multiprocessing import Pool
import requests
from requests.exceptions import ConnectionError
import time
 
def scrape(url):
    try:
        print(requests.get(url))
    except ConnectionError:
        print('Error Occured ', url)
    finally:
        print('URL ', url, ' Scraped')
 
 
if __name__ == '__main__':
    start = time.time()
    pool = Pool(3)
    urls = [
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/',
        'https://www.baidu.com',
        'http://www.meituan.com/',
        'http://blog.csdn.net/'
    ]
    pool.map(scrape, urls)
    print(time.time()-start)



import requests
from requests.exceptions import ConnectionError
import time

def scrape(url):
try:
print(requests.get(url))
except ConnectionError:
print('Error Occured ', url)
finally:
print('URL ', url, ' Scraped')

if __name__ == '__main__':
start = time.time()
urls = [
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/',
'https://www.baidu.com',
'http://www.meituan.com/',
'http://blog.csdn.net/'
]
for url in urls:
scrape(url)
print(time.time()-start)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  python 多进程