您的位置:首页 > 编程语言 > Python开发

Python requests获取网页常用方法解析

2020-04-11 07:05 826 查看

这篇文章主要介绍了Python requests获取网页常用方法解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下

主要记录使用 requests 模块获取网页源码的方法

class Crawler(object):
"""
采集类
"""
def __init__(self, base_url):
self._base_url = base_url
self._cookie = None
self._getCookie()

def _getCookie(self):
"""
获取站点cookie
:return:
"""
try:
res = requests.get(self._base_url)
res.raise_for_status()
# TODO response.cookies获取到的是一个cookiejar对象,需要使用requests.utils.dict_from_cookiejar来
# TODO 将cookiejar对象转换为一个字典,这个字典后续使用的时候,在请求时直接传入就可以了,
# 如 requests.get(url, cookies=cookies)
self._cookie = requests.utils.dict_from_cookiejar(res.cookies)
print self._cookie
except Exception as e:
print e

def get_html_text(self, url, **kwargs):
"""
爬取网页的通用代码框架
:param url:
:param method:
:param kwargs:
:return:
"""
try:
kwargs.setdefault('cookies', self._cookie)
res = requests.get(url, **kwargs)
# TODO 若响应状态码不是200, 抛出 HTTPError 异常
res.raise_for_status()
res.encoding = res.apparent_encoding
# print requests.utils.dict_from_cookiejar(res.cookies)
return res.text
except Exception as e:
print traceback.print_exc()
return

以上就是本文的全部内容,希望对大家的学习有所帮助

您可能感兴趣的文章:

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  Python requests 网页