python网络爬虫(二):世界上最简单的web浏览器
2016-01-20 16:34
274 查看
在coursera上python课程,刚好看到以前也学过的python网络程序这一部分。
上一篇文章是利用python的socket包来实现TCP/IP网络程序,本篇我们可以采用一个更成熟的包:urllib。
抓取网页并打印原始html格式内容的代码如下(默认抓取某英文网址网页内容):
如果我们对网页中的某些特定元素比如链接网址感兴趣,可以使用正则表达式来筛选出特定内容,代码如下所示:
然而,在抓取中文网页时还会面临乱码问题,下一篇我们会尝试用BeautifulSoup来解决!
上一篇文章是利用python的socket包来实现TCP/IP网络程序,本篇我们可以采用一个更成熟的包:urllib。
抓取网页并打印原始html格式内容的代码如下(默认抓取某英文网址网页内容):
# !/user/bin/python2.7 # -*- coding : utf-8 -*- author = 'Meditator_hkx' import urllib import re url = raw_input("Please enter an address you want to scrape:") if len(url) < 1:url = 'http://mininet.org/' data = urllib.urlopen(url).read() print data显示在cmd窗口所抓取到的网页内容如下图所示:
如果我们对网页中的某些特定元素比如链接网址感兴趣,可以使用正则表达式来筛选出特定内容,代码如下所示:
# !/user/bin/python2.7 # -*- coding : utf-8 -*- author = 'Meditator_hkx' import urllib import re url = raw_input("Please enter an address you want to scrape:") if len(url) < 1:url = 'http://mininet.org/' data = urllib.urlopen(url).read() links = re.findall('"(http:.+?)"',data) for link in links: print link打印链接如下所示:
然而,在抓取中文网页时还会面临乱码问题,下一篇我们会尝试用BeautifulSoup来解决!
相关文章推荐
- httpClient多线程请求
- android基础(五)网络数据解析方法
- 模式识别之bpnn---神经网络训练
- iOS 【原生API NSURLConnection 网络请求】
- windows操作系统自带的TCP端口转发命令
- Nginx基础入门之nginx网络连接配置项说明
- OkHttp缓存功能的应用
- 揭开网络编程常见API的面纱【下】
- 揭开网络编程常见API的面纱【上】
- Linux网络编程:原始套接字的魔力【续】
- 0120-网络编程
- Linux网络编程:原始套接字的魔力【下】
- Linux网络编程:原始套接字的魔力【上】
- Ubuntu Nginx下配置网站ssl实现https访问
- Ubuntu Nginx下配置网站ssl实现https访问
- HTTP协议详解
- iOS应用架构谈(三):网络层设计方案
- android网络编程 四(android-async-http)
- Android实时监听网络状态
- http 安全验证