【用Python写爬虫】获取html的方法【四】:使用urllib下载文件
2008-06-12 16:35
1426 查看
# -*- coding: UTF-8 -*-
import urllib
url = 'http://blog.csdn.net'
path = 'C://temp//csdn.net.html'
urllib.urlretrieve(url,path)
import urllib
url = 'http://blog.csdn.net'
path = 'C://temp//csdn.net.html'
urllib.urlretrieve(url,path)
相关文章推荐
- 【用Python写爬虫】获取html的方法【一】:使用urllib
- 【用Python写爬虫】获取html的方法【一】:使用urllib
- 【用Python写爬虫】获取html的方法【三】:使用cPAMIE
- 【用Python写爬虫】获取html的方法【二】:使用pycurl
- mac os平台使用python爬虫自动下载巨潮网络文件
- 【Python3.6爬虫学习记录】(六)urllib详细使用方法(header,代理,超时,认证,异常处理)
- 和我一起使用Python的bottle来实现文件的上传和下载(使用post方法)
- python中如何使用requests模块下载文件并获取进度提示?
- python的【爬虫】:使用urllib爬取wiki文章,使用beautifulSoup解析html
- 爬虫技术(六)-- 使用HtmlAgilityPack获取页面链接(附c#代码及插件下载)
- 数据爬虫(二):python爬虫中urllib库详解,parse和request使用方法
- python3 下载文件urllib使用
- python 使用 urllib.urlretrieve()下载网络图片,在本地打开提示文件损坏无法打开
- python网络爬虫之使用scrapy下载文件
- 解决Python爬虫在爬资源过程中使用urlretrieve函数下载文件不完全且避免下载时长过长陷入死循环,并在下载文件的过程中显示下载进度
- 使用Python脚本获取指定格式文件列表的方法
- [python爬虫]获取html中文乱码时的方法
- python使用urllib下载ftp文件
- 爬虫技术 -- 进阶学习(九)使用HtmlAgilityPack获取页面链接(附c#代码及插件下载)