Python爬虫实现网页信息抓取功能示例【URL与正则模块】
2017-05-18 11:34
1321 查看
本文实例讲述了Python爬虫实现网页信息抓取功能。分享给大家供大家参考,具体如下:
首先实现关于网页解析、读取等操作我们要用到以下几个模块
import urllib import urllib2 import re
我们可以尝试一下用readline方法读某个网站,比如说百度
def test(): f=urllib.urlopen('http://www.baidu.com') while True: firstLine=f.readline() print firstLine
下面我们说一下如何实现网页信息的抓取,比如说百度贴吧
我们大概要做几件事情:
首先获取网页及其代码,这里我们要实现多页,即其网址会改变,我们传递一个页数
def getPage(self,pageNum): try: url=self.baseURL+self.seeLZ+'&pn='+str(pageNum) #创建request对象 request=urllib2.Request(url) response=urllib2.urlopen(request) #print 'URL:'+url return response.read() except Exception,e: print e
之后我们要获取小说内容,这里咱们分为标题和正文。标题每页都有,所以我们获取一次就好了。
我们可以点击某网站,按f12查看他的标题标签是如何构造的,比如说百度贴吧是<title>…………
那我们就匹配
reg=re.compile(r'<title>(.*?)。')来抓取这个信息
标题抓取完我们要开始抓去正文了,我们知道正文会有很多段,所以我们要循环的去抓取整个items,这里我们注意
对于文本的读写操作,一定要放在循环外。同时加入一些去除超链接、<br>等机制
最后,我们在主函数调用即可
完整代码:
# -*- coding:utf-8 -*- import sys reload(sys) sys.setdefaultencoding('utf8') #爬虫之网页信息抓取 #需要的函数方法:urllib,re,urllib2import urllib import urllib2 import re#测试函数->读取 #def test(): # f=urllib.urlopen('http://www.baidu.com') # while True: # firstLine=f.readline() # print firstLine #针对于百度贴吧获取前十页楼主小说文本内容 class BDTB: def __init__(self,baseUrl,seeLZ): #成员变量 self.baseURL=baseUrl self.seeLZ='?see_lz='+str(seeLZ) #获取该页帖子的代码def getPage(self,pageNum): try: url=self.baseURL+self.seeLZ+'&pn='+str(pageNum) #创建request对象 request=urllib2.Request(url) response=urllib2.urlopen(request) #print 'URL:'+url return response.read() except Exception,e: print e#匹配标题 def Title(self): html=self.getPage(1) #compile提高正则匹配效率 reg=re.compile(r'<title>(.*?)。') #返回list列表 items=re.findall(reg,html) f=open('output.txt','w+') item=('').join(items) f.write('\t\t\t\t\t'+item.encode('gbk')) f.close() #匹配正文 def Text(self,pageNum): html=self.getPage(pageNum) #compile提高正则匹配效率 reg=re.compile(r'"d_post_content j_d_post_content ">(.*?)</div>') #返回list列表 items=re.findall(reg,html) f=open('output.txt','a+') #[1:]切片,第一个元素不需要,去掉。 for i in items[1:]: #超链接去除 removeAddr=re.compile('<a.*?>|</a>') #用""替换 i=re.sub(removeAddr,"",i) #<br>去除 i=i.replace('<br>','') f.write('\n\n'+i.encode('gbk')) f.close() #调用入口 baseURL='http://tieba.baidu.com/p/4638659116' bdtb=BDTB(baseURL,1) print '爬虫正在启动....'.encode('gbk') #多页 bdtb.Title() print '抓取标题完毕!'.encode('gbk') for i in range(1,11): print '正在抓取第%02d页'.encode('gbk')%i bdtb.Text(i) print '抓取正文完毕!'.encode('gbk')
PS:这里再为大家提供2款非常方便的正则表达式工具供大家参考使用:
JavaScript正则表达式在线测试工具:
http://tools.jb51.net/regex/javascript
正则表达式在线生成工具:
http://tools.jb51.net/regex/create_reg
更多关于Python相关内容可查看本站专题:《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python Socket编程技巧总结》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
您可能感兴趣的文章:
- python爬虫实战之爬取京东商城实例教程
- python制作爬虫爬取京东商品评论教程
- python爬虫框架scrapy实战之爬取京东商城进阶篇
- python利用urllib实现爬取京东网站商品图片的爬虫实例
- Python爬虫实现爬取京东手机页面的图片(实例代码)
- Python 3实战爬虫之爬取京东图书的图片详解
- python爬虫获取京东手机图片的图文教程
- Python爬虫框架Scrapy实战之批量抓取招聘信息
- python抓取网页图片示例(python爬虫)
- 简单的抓取淘宝图片的Python爬虫
- 编写Python爬虫抓取暴走漫画上gif图片的实例分享
- Python爬虫实现抓取京东店铺信息及下载图片功能示例
相关文章推荐
- Python使用Selenium模块实现模拟浏览器抓取淘宝商品美食信息功能示例
- Python爬虫实现抓取京东店铺信息及下载图片功能示例
- 爬虫requests库简单抓取页面信息功能实现(Python)
- Python简单实现网页内容抓取功能示例
- Python3.4编程实现简单抓取爬虫功能示例
- python——爬虫实现网页信息抓取
- Python实现可获取网易页面所有文本信息的网易网络爬虫功能示例
- Python实现的手机号归属地相关信息查询功能示例
- Python 网络爬虫 009 (编程) 通过正则表达式来获取一个网页中的所有的URL链接,并下载这些URL链接的源代码
- python3实现网络爬虫(5)--模拟浏览器抓取网页
- 汪海Python爬虫(一)抓取网页的含义和URL基本构成
- python3实现网络爬虫(7)-- 使用ip代理抓取网页
- Python爬虫之抓取豆瓣信息 全部网页显示
- Python网页抓取正则表达式应用练习-爬取基金信息
- python使用fcntl模块实现程序加锁功能示例
- python实现简单爬虫功能的示例
- C# 使用 Abot 实现 爬虫 抓取网页信息 源码下载
- Python 网络爬虫 009 (编程) 通过正则表达式来获取一个网页中的所有的URL链接,并下载这些URL链接的源代码
- Python实现抓取网页信息(一)
- Node.js实现的简易网页抓取功能示例