您的位置:首页 > 编程语言 > Python开发

Python爬虫爬取内涵吧段子案例系列之八

2017-07-20 19:11 267 查看

不多说,直接上代码

# 爬取内涵吧段子的案例
import re
import requests

class Duanzi(object):
def __init__(self):
self.baseURL = 'http://www.neihan8.com/article/index'
self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko'}
# 表示页码,默认为第一页
self.page = 1
# 用来匹配每一页的每条段子, re.S 表示启用DOTALL模式( .也可以匹配换行符)
# .* 贪心算法(尽可能多匹配 .)
# .*? 非贪心算法(尽可能少匹配 .)
self.pattern_page = re.compile(r'<div class="desc">(.*?)</div>', re.S)

# self.pattern_page = re.compile(r'<div class="f18 mb20">(.*?)</div>', re.S)
# &(.*?); 表示匹配 HTML实体字符 如: 
# <(.*?)> 表示匹配所有的标签 如:<p> <\br>
# \s 匹配空白字符、换行符,但是不包括全角空格
# " " 表示匹配全角空格
self.pattern_content = re.compile(r'&(.*?);|<(.*?)>|\s| >')

def loadpage(self):
'''抓取每一页所有的段子'''
print("正在抓取第%s页段子" % self.page)
if self.page==1:
# 处理每一页的url地址
url = self.baseURL +'.html'
else:
# 处理每一页的url地址
url = self.baseURL + '_'+str(self.page) + '.html'

# 网页默认编码为gbk,发送请求,返回相应数据
html_gbk = requests.get(url, headers=self.headers).content
# 将gbk编码的网页转化为utf8
# html = html_gbk.decode('gbk').encode('utf-8')
html = html_gbk.decode('utf8')
# 匹配文本,获取所有段子的列表
content_list = self.pattern_page.findall(html)
self.write_page(content_list)

def write_page(self, content_list):
'''把每一页的段子内容写入到磁盘文件中'''
print("正在写入第%s页的段子内容" % self.page)
# 切记这里的a是追加模式
with open('duanzi.txt', 'a') as f:
for content in content_list:
# 匹配内容,去除无用的字符
content2 = self.pattern_content.sub("", content)
f.write(content2)
f.write('\n\n')

def duanzi_spider(self):
while True:
command = input("亲!请按回车键继续爬虫(按q键退出...):")
if command == 'q':
break

self.loadpage()
self.page += 1

if __name__ == '__main__':
duanzi = Duanzi()
duanzi.duanzi_spider()
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  python 爬虫