您的位置:首页 > 理论基础 > 计算机网络

Python3 大型网络爬虫实战 — 给 scrapy 爬虫项目设置为防反爬

2016-12-06 00:09 886 查看
原博文链接:http://www.aobosir.com/blog/2016/12/06/python3-large-web-crawler-scrapy-project-Anti-reptile-settings/

开发环境

Python第三方库:lxml、Twisted、pywin32、scrapy

Python 版本:python-3.5.0-amd64

PyCharm软件版本:pycharm-professional-2016.1.4

电脑系统:Windows 10 64位

如果你还没有搭建好开发环境,请到这篇博客

所有的设置都是在scrapy爬虫项目中的
settings.py
文件中进行设置。

Step 1 . 设置爬虫不遵循
robots.txt
协议

# Obey robots.txt rules
ROBOTSTXT_OBEY = False




想要了解什么是
robots.txt
协议,请访问这篇博客:解析 robots.txt 文件

Step 2 . 设置取消Cookies

# Disable cookies (enabled by default)
COOKIES_ENABLED = False




Cookies

简单的说,Cookie就是服务器暂存放在你计算机上的一笔资料,好让服务器用来辨认你的计算机。当你在浏览网站的时候,Web服务器会先送一小小资料放在你的计算机上,Cookie 会帮你在网站上所打的文字或是一些选择,都记录下来。当下次你再光临同一个网站,Web服务器会先看看有没有它上次留下的Cookie资料,有的话,就会依据Cookie里的内容来判断使用者,送出特定的网页内容给你。

Step 3 . 设置用户代理值(
USER_AGENT


# Crawl responsibly by identifying yourself (and your website) on the user-agent
USER_AGENT = 'Mozilla/xxx (Windows xxx; Winxx; xxx) AppleWebKit/xxx (KHTML, like Gecko) Chrome/xxxx Safari/xxx'




这个 用户代理可以在浏览器里面找到:

随便浏览一个网页,按F12 -> Network -> F5,随便点击一项,你都能看到有 User-agent 这一项,将这里面的内容拷贝就可以。



Step 4 . 设置IP

对于这一步,如果你没有做什么违法的事情,可以不用设置。仅仅上面的三个步骤,就可以将那些具有反爬虫机制的网站可以正常爬取了。

请访问:http://www.aobosir.com/
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
相关文章推荐