您的位置:首页 > 编程语言 > Python开发

python爬虫

2016-05-20 11:24 357 查看
经过一周的尝试,终于把一个能够一直爬取网页的爬虫写出来了。

 

写爬虫之前,要先确定爬虫的结构,在进行模块化的编写;

一个简单爬虫需要什么? 

需要把网页下载下来, 需要把网页中的数据解析出来, 需要把网页内部的链接加入到待爬取的队列中, 然后把数据储存下来!

确定了需要的东西,我们就可以开始编写爬虫了;

首先定义四个模块,DataStore

由于我将url和data全部在数据库中储存着, 这样就可以只需要三个模块完成就可以了,UrlDownloader,  UrlParser, DataStore。

 

好,现在开始编写爬虫。

开始编写主函数, 这是我的主函数SpiderMain;

 


这是我在pycharm里面编写的, 在外部运行的话,不需要



只需要



其中这三个.py文件与主函数在同一文件夹下

开始写三个模块的东西

1.UrlDownloader

其中herder和安装cookie是为了模拟浏览器访问, urllib.request.urlopen这个函数中, 加入的timeout参数是为了规定访问一个网页的最长时间如果还没访问到就直接跳出

 


2.UrlParser



解析器用的是正则表达式和lxml, 关于lxml的安装,这里不说

这个爬虫解析的是百度百科的词条,以及他的描述



爬取别的网页时,编写对应的正则,或者直接用解析器就可以了

3.DataStore



其中__init__()是初始化数据库的参数,  add_new_url是添加一个url, 是爬虫起始的url, add_new_urls

是添加多个url, 此时需要判断待添加的url是否已经爬过,或者说已经添加的待爬取的队列, 如果两者都没有, 加入待爬取的队列

Add_new_data就是把获得的内容存下来, gets_urls_numbers是获取待爬取的url有多少, 太多的话就不用往里面添加了, get_data_numbers是为了获取数据的数量, get_new_url 是从待爬取的url队列中拿出一个,爬取并将它加入到已爬取的队列中, close是关闭数据库
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: