网易页面的网络爬虫,获取网易页面的所有文本信息
2016-07-06 15:40
531 查看
#coding=utf-8 #--------------------------------------- # 程序:网易爬虫 # 作者:ewang # 日期:2016-7-6 # 语言:Python 2.7 # 功能:获取网易页面中的文本信息并保存到TXT文件中。 #--------------------------------------- import string import urllib2 import re import os class WangYi_Spider: #申明相关属性 def __init__(self): #给wangyiUrl属性赋值 self.wangyiUrl="http://www.163.com/" #用来保存页面中文字信息 self.pageinfor=[] print u'已经启动网易爬虫,爬爬...' #初始化加载页面并将其转码存储 def wangyi(self): #读取页面的原始信息并将其从gbk转码 Page=urllib2.urlopen(self.wangyiUrl).read().decode('gbk') #获取页面标题 title=self.find_title(Page) print u'网页名称:'+title #获取页面中文本信息 self.save_infor(title) #查找页面标题 def find_title(self,page): #匹配<title>xxxx</title> myTitle=re.search(r'<title>(.*?)</title>',page,re.S) #初始化标题名为暂无标题 title=u'暂无标题' #如果标题存在把标题赋值给title if myTitle: #(.*?)这称作一个group,组是从1开始 title=myTitle.group(1) else: print u'爬虫报告:无法加载网页标题...' return title #保存页面信息 def save_infor(self,title): #加载页面文本信息到数组中 self.get_infor() #创建并打开本地文件 f=open(title+'.txt','w+') #把获取的页面信息写入文件中 f.writelines(self.pageinfor) #关闭打开的文件 f.close() print u'爬虫报告:文件'+title+'.txt'+u'已经下载:'+os.getcwd() print u'按任意键退出...' raw_input() #获取页面源码并将其存储到数组中 def get_infor(self): #获取页面中的源码 page=urllib2.urlopen(self.wangyiUrl).read() #把页面中的内容gbk解码然后获取页面中所有的文本信息 self.deal_infor(page.decode('gbk')) #从页面代码中获取所需文信息 def deal_infor(self,page): #获取<em >XXX</em>的文本信息XXX emTagItems=re.findall("<em.*?>(\W+?)</em>",page,re.S) #获取<span>XXXX</a>的文本信息XXXX spanTagItems=re.findall("<span>(\W+?)</span>",page,re.S) #获取<a .*>XXXX</a>的文本信息XXXX aTagItems=re.findall("<a.*?>(\W+?)</a>",page,re.S) #把em tag中获取的文本信息添加到数组pageinfor中 for emItem in emTagItems: #对获取的文本信息用gbk进行编码 self.pageinfor.append(emItem.encode('gbk')+'\n') #把span tag中获取的文本信息添加到数组pageinfor中 for spanItem in spanTagItems: #对获取的文本信息用gbk进行编码 self.pageinfor.append(spanItem.encode('gbk')+'\n') #把a tag中获取的文本信息添加到数组pageinfor中 for aItem in aTagItems: #对获取的文本信息用gbk进行编码 self.pageinfor.append(aItem.encode('gbk')+'\n') #------------程序入口处---------------- print u"""#--------------------------------------- # 程序:网易爬虫 # 作者:ewang # 日期:2016-7-6 # 语言:Python 2.7 # 功能:获取网易页面中的文本信息并保存到TXT文件中 #-------------------------------------------------- """ wangyiSpider=WangYi_Spider() wangyiSpider.wangyi()
相关文章推荐
- 【HttpClient学习与实战】1.使用httpClient实现get与post信息传输
- iOS Http请求获取响应头文件 与添加头文件
- 人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function?
- What is the difference between SSL, TLS, and HTTPS?
- http常用状态码说明
- 处理HTTP响应(响应码、响应头、请求重定向、自动刷新/跳转)
- tomcat 增加https安全协议访问
- 网络编程之HttpClient
- 网络编程之HttpURLConnection
- Centos7 最小化安装出现无法使用网络的问题
- HTTP Live Streaming直播(iOS直播)技术分析与实现
- 自己实现HTTP协议
- HTTP android 4.0 找不到相关包
- Android监听网络状态变化与WIFI移动网的判别
- CloudDB——构建云化网络统一融合数据层
- App Transport Security has blocked a cleartext HTTP (http://) resource load since it is insecure. Te
- Apache与Nginx网络模型
- flume之Http Source
- 读书笔记-java网络编程-7URLConnection-缓存
- abp项目中无法使用HttpContext.Current.Session[""]的问题