python爬虫基础教程:requests库(二)代码实例
2019-04-11 09:16
791 查看
get请求
简单使用
import requests ''' 想要学习Python?Python学习交流群:973783996满足你的需求,资料都已经上传群文件,可以自行下载! ''' response = requests.get("https://www.baidu.com/") #text返回的是unicode的字符串,可能会出现乱码情况 # print(response.text) #content返回的是字节,需要解码 print(response.content.decode('utf-8')) # print(response.url) #https://www.baidu.com/ # print(response.status_code) #200 # print(response.encoding) #ISO-8859-1
添加headers和params
import requests params = { 'wd':'python' } headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36' } response = requests.get("https://www.baidu.com/s",params=params,headers=headers) #content返回的是字节,需要解码 with open('baidu.html','w',encoding='utf-8') as f: f.write(response.content.decode('utf-8'))
POST请求
爬去拉钩网职位信息
import requests url = "https://www.lagou.com/jobs/positionAjax.json?city=%E5%8C%97%E4%BA%AC&needAddtionalResult=false" data = { 'first':'true', 'pn':1, 'kd':'python' } headers = { "User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36", "Referer":"https://www.lagou.com/jobs/list_python?city=%E5%8C%97%E4%BA%AC&cl=false&fromSearch=true&labelWords=&suginput=" } response = requests.post(url,data=data,headers=headers) # print(response.text) print(type(response.text)) #<class 'str'> print(type(response.json())) #<class 'dict'> print(response.json()) #获取为字典的形式
使用代理
import requests proxy = {'http':'115.210.31.236.55:9000'} response = requests.get("https://www.baidu.com/",proxies=proxy) print(response.content.decode('utf-8'))
session登录
# _*_ coding:utf-8 _*_ import requests # 1. 创建session对象,可以保存Cookie值 ssion = requests.session() # 2. 处理 headers headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'} # 3. 需要登录的用户名和密码 data = {"email":"158xxxxxxxx", "password":"pythonxxxxxxx"} # 4. 发送附带用户名和密码的请求,并获取登录后的Cookie值,保存在ssion里 ssion.post("http://www.renren.com/PLogin.do", data = data) # 5. ssion包含用户登录后的Cookie值,可以直接访问那些登录后才可以访问的页面 response = ssion.get("http://zhibo.renren.com/news/108") # 6. 打印响应内容 print(response.text)
以上所述是小编给大家介绍的python爬虫基础教程:requests库(二)详解整合,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对脚本之家网站的支持!
您可能感兴趣的文章:
相关文章推荐
- Python爬虫基础实例教程
- 【教程】记录:python基础爬虫代码(下载妹子福利图片)
- python 解析html基础 HTMLParser库,方法,及代码实例
- python爬虫之requests库实例代码
- 【Heritrix基础教程之4】开始一个爬虫抓取的全流程代码分析
- python爬虫入门教程之糗百图片爬虫代码分享
- 【Heritrix基础教程之4】开始一个爬虫抓取的全流程代码分析
- python爬虫实战之爬取京东商城实例教程
- Python爬虫教程——入门一之爬虫基础了解
- Python基础(二、代码调试方式dir,help,print函数,pycharm破解教程)
- Apache Shiro+SpringMVC+Hibernate Search+Hibernate+Bootstrap企业信息管理系统基础框架搭建整合实例代码教程
- Python基础爬虫实战实例----爬取1000个Python百度百科词条及相关词条的标题和简介
- Python爬虫实现爬取京东手机页面的图片(实例代码)
- Python基础教程代码与注释P34 2.3 列表 2.3.1 list函数 2.3.2 基本的列表操作
- python 爬虫基础知识,返回值为json数据的 爬虫原代码
- Python基础教程代码与注释P82 5.6 列表推导式——轻量级循环
- 零基础:21天搞定Python分布爬虫视频教程
- python面向对象多线程爬虫爬取搜狐页面的实例代码
- 零基础的我是这样开始写Python爬虫的(附代码)
- python_慕课\Python开发简单爬虫\5-3 Python爬虫urlib2实例代码.py