您的位置:首页 > 编程语言 > Python开发

Python实现简单爬虫功能--批量下载百度贴吧里的图片

2016-12-23 15:01 1036 查看
在上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材。

  我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度。如何批量的保存图片呢,Python几行代码就能搞定。

获取页面数据

http://tieba.baidu.com/p/2460150866 去查看

通过到前段查看工具。找到了图片的地址,如:src=”http://imgsrc.baidu.com/forum……jpg”pic_ext=”jpeg”



代码

# coding=utf-8

import urllib.request
import re

def downloadPage(url):
h = urllib.request.urlopen(url)
return h.read().decode('utf-8')

def downloadImg(content):
pattern = r'src="(.+?\.jpg)" pic_ext'
m = re.compile(pattern)
urls = re.findall(m, content)

for i, url in enumerate(urls):
urllib.request.urlretrieve(url, "%s.jpg" % (i,))

content = downloadPage("http://tieba.baidu.com/p/2460150866")
downloadImg(content)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  python 爬虫 图片