python3爬取指定百度贴吧页面并保存成本地文档(批量爬取贴吧页面数据)
2018-01-21 22:31
555 查看
首先我们创建一个python文件, tieba.py,我们要完成的是,输入指定百度贴吧名字与指定页面范围之后爬取页面html代码,我们首先观察贴吧url的规律,比如:
百度贴吧LOL吧第一页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0
第二页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50
第三页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100
发现规律了吧,贴吧中每个页面不同之处,就是url最后的pn的值,其余的都是一样的,我们可以抓住这个规律(kw表示贴吧名,采用url编码)。
清楚了url规则,我们便可以利用urllib进行批量式数据爬取,代码如下:
控制台结果如下:
百度贴吧LOL吧第一页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0
第二页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50
第三页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100
发现规律了吧,贴吧中每个页面不同之处,就是url最后的pn的值,其余的都是一样的,我们可以抓住这个规律(kw表示贴吧名,采用url编码)。
清楚了url规则,我们便可以利用urllib进行批量式数据爬取,代码如下:
# -*- coding:utf-8 -*- from urllib import request as urllib2 from urllib import parse import random def loadPage(url, page): ''' 根据url获取服务器响应文件 url:需要爬取的url ''' print('---------正在下载页面%d-------' % page) ua_list = [ "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1", "Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1", "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11", "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11", "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11" ] header = random.choice(ua_list) request = urllib2.Request(url) request.add_header('User-Agent', header) response = urllib2.urlopen(request) html = response.read() return html def write(html, page): ''' 将html文件写入本地 :param html: 服务器响应文件内容 :return: ''' data = html file_name = 'tieba{}.txt'.format(page) print('---------正在保存文件%s-------'%file_name) # 运用with open as语句使代码更加简洁 避免写异常处理和文件关闭语句 with open(file_name,'w',encoding='utf-8') as file: file.write(data.decode()) print('---------success!---------') def tiebaSpider(url, kw, begin, end): ''' 爬取贴吧信息 ''' words = { 'kw':kw } kw = parse.urlencode(words) url = url % (kw) for page in range(begin, end + 1): pn = ((page-1)*50) ful_url = url + str(pn) html = loadPage(url, page) write(html, page) if __name__ == '__main__': kw = input('请输入爬取贴吧名:') beginPage = int(input('请输入起始页:')) endPage = int(input('请输入结束页:')) url = r'http://tieba.baidu.com/f?%s&pn=' tiebaSpider(url, kw, beginPage, endPage)
控制台结果如下:
请输入爬取贴吧名:河南 请输入起始页:1 请输入结束页:3 ---------正在下载页面1------- ---------正在保存文件tieba1.txt------- ---------success!--------- ---------正在下载页面2------- ---------正在保存文件tieba2.txt------- ---------success!--------- ---------正在下载页面3------- bfe0 ---------正在保存文件tieba3.txt------- ---------success!--------- Process finished with exit code 0
相关文章推荐
- Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法
- MATLAB中批量从txt文件中读取指定行的数据保存为txt文件
- Python监控进程性能数据并绘图保存为PDF文档
- PB 利用timer()函数实现定时将数据窗口以excel文档保存至指定地方
- python脚本编程:批量下载指定页面图片
- 【python爬虫】百度贴吧帖子图片批量保存爬虫
- Python监控进程性能数据并画图保存为PDF文档
- javaweb开发jsp页面一次性保存多条数据,批量保存数据!
- python执行某一目录下所有.py结尾的文件,并将执行结果保存到log.txt文档。一般用于批量执行测试。
- 根据对象批量获取页面数据迭代保存到集合中
- 如何通过C++,实现多个文档内字符(数据)批量提取与保存
- 批量清理指定数据库中所有数据--SqlServer
- python 批量修改/替换数据
- 用客户端脚本提示用户在离开编辑页面之前进行数据保存
- python批量改动指定文件夹文件名称
- 利用Python做数据分析(一)--批量读取数据
- 第三百四十二节,Python分布式爬虫打造搜索引擎Scrapy精讲—爬虫数据保存
- python第一个爬虫小程序以及遇到问题解决(中文乱码)+批量爬取网页并保存至本地
- python读文件指定行的数据
- Python3 官方文档翻译 - 5 数据结构