您的位置:首页 > 编程语言 > Python开发

学习小记 - Python爬虫 (3) 利用Python爬取wanimal所有图片

2016-12-30 00:07 796 查看
这是辆车…

本次调用urlretrieve()方法实现对媒体文件的本地存储,其他和之前类似。

from urllib.request import urlopen, urlretrieve
from bs4 import BeautifulSoup
from urllib.error import URLError, HTTPError
import requests

class Wanimal:

def __init__(self, page):
self.page = page
self.imgs = []

def getPage(self, page):
try:
html = urlopen("http://wanimal1983.org/page/"+str(page))
bsobj = BeautifulSoup(html, "html.parser")
return bsobj
except (URLError, HTTPError) as e:
print (e)
return None

def getImages(self, page):
print ("正在加载第%d页" % page)
bsobj = self.getPage(page)
imgTags = bsobj.findAll("div", {"class": "photo-sets"})
self.imgs = []
for imgTag in imgTags:
for img in imgTag.findAll("img"):
self.imgs.append(img)

def download(self):
for page in range(self.page):
self.getImages(page+1)
for i in range(len(self.imgs)):
print ("正在保存第%d个图片" % (i+1))
path = str(page)+'_'+str(i)+".jpg"
print (self.imgs[i].attrs["src"])
urlretrieve(self.imgs[i].attrs["src"], "wanimal/"+path)

w = Wanimal(100000)
print (w.imgs)
w.download()


由于Ubutun下不能全局翻墙(我不会><),本次代码在windows下运行。

代码跑起来咯~!



内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  python 爬虫