一款真正可以用于爬百度图片的爬虫python代码,自己改进的!!
2017-09-20 15:44
501 查看
我用的pycharm,有三种注释方式:
1.用 一对""" 括起来要注释的代码块。
2.用一对'''括起来要注释的代码块。
3.选中要注释的代码,按下ctrl+/注释。
由于深度学习训练或者数据分析需要大量数据,其中获取数据的方法有很多,要么去各种比赛官网上下载,要么自己去下载,自己下载的最好方法就是使用爬虫技术,方便简单。下面是自己结合网上的一些爬虫代码修改的python代码,其可以无限制的爬百度图片,已经可以满足很多需求了。具体代码如下:
1.用 一对""" 括起来要注释的代码块。
2.用一对'''括起来要注释的代码块。
3.选中要注释的代码,按下ctrl+/注释。
由于深度学习训练或者数据分析需要大量数据,其中获取数据的方法有很多,要么去各种比赛官网上下载,要么自己去下载,自己下载的最好方法就是使用爬虫技术,方便简单。下面是自己结合网上的一些爬虫代码修改的python代码,其可以无限制的爬百度图片,已经可以满足很多需求了。具体代码如下:
#coding: utf-8 import os import re import urllib import urllib2 import itertools #迭代器 from string import maketrans import socket str_table = { '_z2C$q': ':', '_z&e3B': '.', 'AzdH3F': '/' } char_table = { 'w': 'a', 'k': 'b', 'v': 'c', '1': 'd', 'j': 'e', 'u': 'f', '2': 'g', 'i': 'h', 't': 'i', '3': 'j', 'h': 'k', 's': 'l', '4': 'm', 'g': 'n', '5': 'o', 'r': 'p', 'q': 'q', '6': 'r', 'f': 's', 'p': 't', '7': 'u', 'e': 'v', 'o': 'w', '8': '1', 'd': '2', 'n': '3', '9': '4', 'c': '5', 'm': '6', '0': '7', 'b': '8', 'l': '9', 'a': '0' } intab="wkv1ju2it3hs4g5rq6fp7eo8dn9cm0bla" outtab="abcdefghijklmnopqrstuvw1234567890" trantab = maketrans(intab, outtab) char_table = {ord(key): ord(value) for key, value in char_table.items()} def deCode(url): # 先替换字符串 for key, value in str_table.items(): url = url.replace(key, value) # 再替换剩下的字符 d=url.translate(trantab) return d def getMoreURL(word): word = urllib.quote(word) url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}" \ r"&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=30" urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=30)) #itertools.count 0开始,步长30,迭代 return urls def getHtml(url): page=urllib.urlopen(url) html=page.read() return html #解析图片url解码 def getImg(html): reg=r'"objURL":"(.*?)"' #正则 # 括号表示分组,将括号的内容捕获到分组当中 # 这个括号也就可以匹配网页中图片的url了 imgre=re.compile(reg) imageList=re.findall(imgre, html) imgUrls=[] for image in imageList: imgUrls.append(deCode(image)) l=len(imgUrls) print l return imgUrls def downLoad(urls,path): global index for url in urls: print("Downloading:", url) try: res = urllib2.Request(url) except: print"request error!" continue try: response = urllib2.urlopen(res ,data=None, timeout=15) #超时处理 except: #抓取代码执行产生的所有错误。 # if hasattr(e,'code'): # error_status = e.code # print(error_status, "未下载成功:", url) # continue # elif hasattr(e,'reason'): # print( "time out", url) # continue continue #对抛出的错误不进行处理,重新爬取下一帧图片 filename = os.path.join(path, str(index) + ".jpg") print "start" try: #下载数据代码可能会因为网速、图像数据大等原因导致代码一直卡死,加上socket就是限制下载时间,如果超过设定 #时间仍无响应则抛弃此帧图片 socket.setdefaulttimeout(5.0) retval=urllib.urlretrieve(url,filename) #直接将远程数据下载到本地。 except: #抓取代码执行产生的所有错误,主要错误有下载的图像数据小于原始图像数大小,抛出异常。 print "time_caoshi" retval=None continue print "end" index += 1 # urllib.urlretrieve(url[, filename[, reporthook[, data]]]) # 参数说明: # url:外部或者本地url # filename:指定了保存到本地的路径(如果未指定该参数,urllib会生成一个临时文件来保存数据); # reporthook:是一个回调函数,当连接上服务器、以及相应的数据块传输完毕的时候会触发该回调。我们可以利用这个回调函数来显示当前的下载进度。 # data:指post到服务器的数据。该方法返回一个包含两个元素的元组(filename, headers),filename表示保存到本地的路径,header表示服务器的响应头。 if index-1==1000: break if __name__ == '__main__': keyWord="番茄" #这是百度图片搜索里的关键字 index = 1 Savepath = "D:\TestDownload" urls=getMoreURL(keyWord) #这里把中文关键字进行编码 for url in urls: downLoad(getImg(getHtml(url)),Savepath) if index-1>1000: break
相关文章推荐
- 一个可以用于在百科搜索大量关键词的python爬虫
- Python实现日志自动记录功能(一个思路代码,详细可以自己扩展)
- 自己根据示例代码改写的可以用于Text-to-Speech的类库
- 改进的Python贴吧爬虫代码
- 上班无聊,可以自己学习下别的知识或看看自己以前写的代码有没有好的改进的地方
- Python20行代码爬虫Sample
- python基础===【爬虫】爬虫糗事百科首页图片代码
- 运维学python之爬虫高级篇(四)Item Pipeline介绍(附爬取网站获取图片到本地代码) 推荐
- 支持添加事件的jQuery日历代码_可用于提醒自己做事情
- 转载:将自己写的Python代码打包放到PyPI上
- python编写爬虫获取区域代码-递归获取所有子页面
- 只有lua才能编译出小于200K的代码吗?NO! Python 也可以。
- Python天气预报采集器实现代码(网页爬虫)
- python爬虫入门教程之点点美女图片爬虫代码分享
- python爬虫时http协议以及实现代码
- 1f12可以查看最终的静态html页面,和JavaScript源代码 ,那自己写js源码不就泄露了吗 2由JavaScript代码暴露,重新认识”前端“和”后端“
- Python开发爬虫完整代码解析
- Python爬取SDUTOJ比赛提交代码及批量提交(爬虫(伪))
- 一段访客代码,也可以用于加锁的操作
- Python代码怎样动起来?(还是自己译的)