您的位置:首页 > 编程语言 > Python开发

Python爬取网页中的图片小试牛刀

2016-01-06 21:57 716 查看
Preface:以往爬取文本,这次需要爬取图片pdf,先上手一个例子,爬取pdf,先取得url,然后通过urllib.urlretrieve函数将url的网页内容远程下载到本地,第一个参数为url,第二个参数为文件名(代码中有误),第三个参数为回调函数,可以显示下载进度。另外,当需要爬取动态网站的图片时,用urllib.urlretrieve满足不了我们的要去需要"get",使用request.get()。

#=============================

示例:

图片:



代码

import urllib
def callback(a,b,c):
    per = 100.0*a*b/c
    if per >100:
        per = 100
    print "%.2f%%" %per

url = "http://mm.howkuai.com/wp-content/uploads/2016a/01/06/01.jpg"
fileName = "name.jpg"
urllib.urlretrieve(url, fileName)


效果



爬取网页中的文件:

参考:使用python批量下载网页中的文件

原作者的代码需要做些改变,因为源网页更改了。

待爬取的网站:



代码:

<span style="font-size:18px;">import urllib
import urllib2
from bs4 import BeautifulSoup
import re
import os

def DownloadFiles(url, targetPath):
    # Create directories if not exist
    if not os.path.exists(targetPath):
        os.makedirs(targetPath)
    # Get links
    headers = {"User-Agent": "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6"}
    req = urllib2.Request(url, headers=headers)
    content = urllib2.urlopen(req)
    content = content.read()
    soup = BeautifulSoup(content)
    fileList = soup.find_all('a', href=re.compile('.*.pdf'))
    # Download
    for fileLink in fileList:
        try:
            print("Downloading " + fileLink.string + "...")
            urllib.urlretrieve(url+fileLink.attrs['href'], targetPath + fileLink.string)
        except Exception, e:
            print e
    print("Task done!")
            
if __name__ == '__main__':
    url = 'http://www.stat.cmu.edu/~ryantibs/datamining/'
    targetPath = "mydir"
    DownloadFiles(url, targetPath)</span>


效果:



动态网页内容的爬取

对于简单的pdf、图片等用urllib.urlretrieve()函数可破,但是对于百度图片,这种json动态加载的图片,则是不行的。可参考lovenight的博客:Python-3-多线程下载百度图片搜索结果的分析。lovenight使用python3,但并不妨碍我们使用python2.7,需要修改几处:对于python2.7无urllib.parse.quote(),但是这在就是2.7中的urllib.quote();另外对于open()时有个encoding参数,导入codecs,采用codecs.open()有encoding参数,代替open()可破。对于单线程在python2.7中修改后可运行的程序如下:

#!/usr/bin/env python
# coding=utf-8

import json
import itertools
import urllib
import requests
import os
import re
import sys

str_table = {
    '_z2C$q': ':',
    '_z&e3B': '.',
    'AzdH3F': '/'
}

char_table = {
    'w': 'a',
    'k': 'b',
    'v': 'c',
    '1': 'd',
    'j': 'e',
    'u': 'f',
    '2': 'g',
    'i': 'h',
    't': 'i',
    '3': 'j',
    'h': 'k',
    's': 'l',
    '4': 'm',
    'g': 'n',
    '5': 'o',
    'r': 'p',
    'q': 'q',
    '6': 'r',
    'f': 's',
    'p': 't',
    '7': 'u',
    'e': 'v',
    'o': 'w',
    '8': '1',
    'd': '2',
    'n': '3',
    '9': '4',
    'c': '5',
    'm': '6',
    '0': '7',
    'b': '8',
    'l': '9',
    'a': '0'
}

# str 的translate方法需要用单个字符的十进制unicode编码作为key
# value 中的数字会被当成十进制unicode编码转换成字符
# 也可以直接用字符串作为value
char_table = {ord(key): ord(value) for key, value in char_table.items()}

# 解码图片URL
def decode(url):
    # 先替换字符串
    for key, value in str_table.items():
        url = url.replace(key, value)
    # 再替换剩下的字符
    return url.translate(char_table)

# 生成网址列表
def buildUrls(word):
    word = urllib.quote(word)
    url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=60"
    urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60))
    return urls

# 解析JSON获取图片URL
re_url = re.compile(r'"objURL":"(.*?)"')
def resolveImgUrl(html):
    imgUrls = [decode(x) for x in re_url.findall(html)]
    return imgUrls

def downImg(imgUrl, dirpath, imgName):
    filename = os.path.join(dirpath, imgName)
    try:
        res = requests.get(imgUrl, timeout=15)
        if str(res.status_code)[0] == "4":
            print(str(res.status_code), ":" , imgUrl)
            return False
    except Exception as e:
        print("抛出异常:", imgUrl)
        print(e)
        return False
    with open(filename, "wb") as f:
        f.write(res.content)
    return True

def mkDir(dirName):
    dirpath = os.path.join(sys.path[0], dirName)
    if not os.path.exists(dirpath):
        os.mkdir(dirpath)
    return dirpath

if __name__ == '__main__':
    print("欢迎使用百度图片下载脚本!\n目前仅支持单个关键词。")
    print("下载结果保存在脚本目录下的results文件夹中。")
    print("=" * 50)
    #word = input("请输入你要下载的图片关键词:\n")
    #word ="长者蛤"
    #word = "火影忍者"
    word = "婴儿摄影"
    dirpath = mkDir("results")

    urls = buildUrls(word)
    index = 0
    for url in urls:
        print("正在请求:", url)
        html = requests.get(url, timeout=10).content.decode('utf-8')
        imgUrls = resolveImgUrl(html)
        if len(imgUrls) == 0:  # 没有图片则结束
            break
        for url in imgUrls:
            if downImg(url, dirpath, str(index) + ".jpg"):
                index += 1
                print("已下载 %s 张" % index)


其多线程程序有的能跑有的不能,还未做深入分析,故先不呈现出来。

参考网站:

博客:Python-3-多线程下载百度图片搜索结果

博客:python爬虫抓取网页图片

博客:python——urllib模块
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: