您的位置:首页 > 理论基础 > 计算机网络

[No00006B]方便的网络下载工具wget 可下载网站目录下的所有文件(可下载整个网站)

2015-12-19 19:39 645 查看
wget是linux下命令行的下载工具,功能很强大,它能完成某些下载软件所不能做的,比如如果你想下载一个网页目录下的所有文件,如何做呢?
网络用户有时候会遇到需要下载一批文件的情况,有时甚至需要把整个网站下载下来或者制作网站的镜像。在Windows下的用户都比较熟悉 Teleport,webzip等等网站下载工具,实际上AIX中也完全可以做到这样的功能,那就是利用wget工具。wget是一个命令行工具,用来下载网络文件或者整个网站,它具有自动重试、断点续传、支持代理服务器等等强大的功能。它可以完全替代ftp客户端。wget是在Linux下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括Windows在内的各个平台上。
wget虽然功能强大,但是使用起来还是比较简单的,基本的语法是:wget [参数列表] URL。下面就结合具体的例子来说明一下wget的用法。
1、下载整个http或者ftp站点。
wget http://place.your.url/here 这个命令可以将http://place.your.url/here 首页下载下来。使用-x会强制建立服务器上一模一样的目录,如果使用-nd参数,那么服务器上下载的所有内容都会加到本地当前目录。
wget -r http://place.your.url/here 这个命令会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。这个命令一定要小心使用,因为在下载的时候,被下载网站指向的所有地址同样会被下载,因此,如果这个网站引用了其他网站,那么被引用的网站也会被下载下来!基于这个原因,这个参数不常用。可以用-l number参数来指定下载的层次。例如只下载两层,那么使用-l 2。
要是您想制作镜像站点,那么可以使用-m参数,例如:
wget -m http://place.your.url/here 这时wget会自动判断合适的参数来制作镜像站点。此时,wget会登录到服务器上,读入robots.txt并按robots.txt的规定来执行。
2、断点续传。
当文件特别大或者网络特别慢的时候,往往一个文件还没有下载完,连接就已经被切断,此时就需要断点续传。wget的断点续传是自动的,只需要使用-c参数,例如:
wget -c http://the.url.of/incomplete/file 使用断点续传要求服务器支持断点续传。-t参数表示重试次数,例如需要重试100次,那么就写-t 100,如果设成-t 0,那么表示无穷次重试,直到连接成功。-T参数表示超时等待时间,例如-T 120,表示等待120秒连接不上就算超时。
3、批量下载。
如果有多个文件需要下载,那么可以生成一个文件,把每个文件的URL写一行,例如生成文件download.txt,然后用命令:
wget -i download.txt
这样就会把download.txt里面列出的每个URL都下载下来。(如果列的是文件就下载文件,如果列的是网站,那么下载首页)
4、选择性的下载。
可以指定让wget只下载一类文件,或者不下载什么文件。例如:
wget -m –reject=gif http://target.web.site/subdirectory 表示下载http://target.web.site/subdirectory,但是忽略gif文件。–accept=LIST 可以接受的文件类型,–reject=LIST拒绝接受的文件类型。
5、密码和认证。
wget只能处理利用用户名/密码方式限制访问的网站,可以利用两个参数:
–http-user=USER设置HTTP用户
–http-passwd=PASS设置HTTP密码
对于需要证书做认证的网站,就只能利用其他下载工具了,例如curl。
6、利用代理服务器进行下载。
如果用户的网络需要经过代理服务器,那么可以让wget通过代理服务器进行文件的下载。此时需要在当前用户的目录下创建一个.wgetrc文件。文件中可以设置代理服务器:
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
分别表示http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使用:
–proxy-user=USER设置代理用户
–proxy-passwd=PASS设置代理密码
这两个参数。使用参数–proxy=on/off 使用或者关闭代理。

介绍一下wget的参数:
--active-ftp 使用主动传输模式
--bind-address=ADDRESS 指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)
--cookies=off 不使用 cookies.
--cut-dirs=NUMBER 忽略 NUMBER层远程目录
--cut-dirs=NUMBER 忽略 NUMBER层远程目录HTTP 选项
--delete-after 在现在完毕后局部删除文件
--egd-file=FILE 指定EGD socket的文件名
--egd-file=FILE 指定EGD socket的文件名下载
--exclude-domains=LIST 分号分隔的不被接受的域的列表
--exclude-domains=LIST拒绝的域名
--follow-ftp 只下载FTP链接,跟踪HTML文档中的FTP链接
--follow-tags=LIST 分号分隔的被跟踪的HTML标签的列表
--header=STRING 在headers中插入字符串 STRING
--http-passwd=PASS 设定http密码为 PASS.如果Web服务器需要指定用户名和口令,用这两项来设定;
--http-user=USER 设定HTTP用户名为 USER.
--ignore-length 忽略 `Content-Length"头域
--limit-rate=RATE 限定下载输率目录
--load-cookies=FILE 在开始会话前从文件 FILE中加载cookie
--no-http-keep-alive 关闭 HTTP活动链接 (永远链接).
--passive-ftp 使用被动传输模式 (缺省值).
--progress=TYPE 设定进程条标记
--proxy-passwd=PASS 设定代理的密码为 PASS,如果代理服务器需要输入用户名和口令,使用这两个选项
--proxy-user=USER 设定代理的用户名为 USER
--random-wait 在下载之间等待0...2*WAIT秒
--referer=URL 在HTTP请求中包含 `Referer: URL"头
--retr-symlinks 在递归的时候,将链接指向文件(而不是目录)递归下载
--save-cookies=FILE 在会话结束后将 cookies保存到 FILE文件中FTP 选项
--spider 不下载任何东西
--sslcertfile=FILE 可选客户端证书
--sslcertkey=KEYFILE 可选客户端证书的KEYFILE
--waitretry=SECONDS 在重新链接之间等待1...SECONDS秒
-A, –accept=列表 接受的文件样式列表,以逗号分隔。
-B, –base=URL 使用 -F -i 文件选项时,在相对链接前添加指定的 URL。
-C, --cache=on/off 允许/不允许服务器端的数据缓存(默认是使用的)
-D, --domains=LIST 分号分隔的被接受域的列表
-E, –html-extension 将所有 MIME 类型为 text/html 的文件都加上 .html 扩展文件名。
-F, –force-html 以 HTML 方式处理输入文件。
-G, –ignore-tags=列表 要忽略的 HTML 标记,以逗号分隔。
-H, --span-hosts 当递归时转到外部主机
-I, --include-directories=LIST 允许目录的列表
-K, --backup-converted 在转换文件X之前,将之备份为 X.orig
-L 递归时不进入其他主机
-L, --relative 仅仅跟踪相对链接
-N, --timestamping只下载比本地新的文件
-O --output-document=FILE下载文件保存为别的文件名
-P, --directory-prefix=PREFIX 将文件保存到目录 PREFIX/...
-Q [byetes]:限制下载文件的总大小最多不能超过多少,比如"-Q2k"表示不能超过2K字节,"-Q3m"表示最多不能超过3M字节,如果数字后面什么都不加,就表示是以字节为单位,比如"-Q200″表示最多不能超过200字节;
-Q, –quota=大小 配置接收数据的限额大小。
-R, --reject=LIST拒绝接受的文件类型
-S, –server-response 显示服务器回应消息。
-T [number of seconds]:超时时间,指定多长时间远程服务器没有响应就中断连接,开始下一次尝试。比如"-T120″表示如果120秒以后远程服务器没有发过来数据,就重新尝试连接。如果网络速度比较快,这个时间可以设置的短些,相反,可以设置的长一些,一般最多不超过900,通常也不少于60,一般设置在 120左右比较合适;
-T, --timeout=SECONDS 设定响应超时的秒数
-U, --user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSION.
-V, --version 显示wget的版本后退出
-X, --exclude-directories=LIST 不被包含目录的列表
-Y on/off:通过/不通过代理服务器进行连接;默认是on
-Y, –proxy=on/off 打开或关闭代理服务器。
-a, --append-output=FILE 把记录追加到FILE文件中,将日志消息追加到指定文件的末端。
-b 让wget在后台运行,记录文件写在当前目录下"wget-log"文件中;
-b, --background 启动后转入后台执行
-c 断点续传,这也是个非常有用的设置,特别当下载比较大的文件的时候,如果中途意外中断,那么连接恢复的时候会从上次没传完的地方接着传,而不是又从头开始,使用这一项需要远程服务器也支持断点续传,一般来讲,基于UNIX/Linux的Web/FTP服务器都支持断点续传;
-c, --continue 接着下载没下载完的文件
-d, --debug 打印调试输出
-e, --execute=COMMAND 执行`.wgetrc"格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc记录和输入文件
-g, --glob=on/off 打开或关闭文件名的 globbing机制,设置是否展开有通配符的文件名。
-h, --help显示软件帮助信息;
-i, --input-file=FILE 下载在FILE文件中出现的URLs
-k 把绝对链接转为相对链接,这样下载之后的网页方便浏览
-k, --convert-links 转换非相对链接为相对链接
-l [depth]:下载远程服务器目录结构的深度,例如"-l 5″下载目录深度小于或者等于5以内的目录结构或者文件;
-l, --level=NUMBER 最大递归深度 (inf 或 0 代表无穷).
-m 做站点镜像时的选项,如果你想做一个站点的镜像,使用这个选项,它将自动设定其他合适的选项以便于站点镜像;
-m, –mirror 等效于 -r -N -l inf -nr 的选项。
-nH 不创建以目标主机域名为目录名的目录,将目标主机的目录结构直接下到当前目录下;
-nH, –no-host-directories 不创建含有远程主机名称的目录。
-nc, --no-clobber 不要覆盖存在的文件或使用.#前缀,不更改已经存在的文件,也不使用在文件名后
-nd –no-directories 不创建目录。
-np 只下载目标站点指定目录及其子目录的内容。这也是一个非常有用的选项,我们假设某个人的个人主页里面有一个指向这个站点其他人个人主页的连接,而我们只想下载这个人的个人主页,如果不设置这个选项,甚至–有可能把整个站点给抓下来,这显然是我们通常不希望的;
-np, --no-parent 不要追溯到父目录
-nr, --dont-remove-listing 不移走 `.listing"文件
-nv, --non-verbose 关掉冗长模式,但不是安静模式
-o, --output-file=FILE 把记录写到FILE文件中
-p 下载网页所需要的所有文件
-p, --page-requisites 下载显示HTML文件的所有图片递归下载中的包含和不包含(accept/reject),下载所有显示完整网页所需的文件,例如图像。
-q, –quiet 安静模式(不输出信息)。
-r 在本机建立服务器端目录结构;表示递归下载,会下载所有的链接,不过要注意的是,不要单独使用这个参数,因为如果你要下载的网站也有别的网站的链接,wget也会把别的网站的东西下载 下来,所以要加上 -np这个参数,表示不下载别的站点的链接. -k表示将下载的网页里的链接修改为本地链接.-p获得所有显示网页所需的元素,比如图片什么的.
-r, --recursive 递归下载-下载整个网站、目录(小心使用)
-s, --save-headers 保存HTTP头到文件
-t [nuber of times]:尝试次数,当wget无法与服务器建立连接时,尝试连接多少次。比如"-t120″表示尝试120次。当这一项为"0″的时候,指定尝试无穷多次直到连接成功为止,这个设置非常有用,当对方服务器突然关机或者网络突然中断的时候,可以在恢复正常后继续下载没有传完的文件;
-t, --tries=NUMBER 设定最大尝试链接次数(0 表示无限制).
-v, --verbose 冗长模式(这是缺省设置)详细输出模式(默认)。
-w [number of seconds]:在两次尝试之间等待多少秒,比如"-w 100″表示两次尝试之间等待100秒;
-w, --wait=SECONDS 两次尝试之间间隔SECONDS秒
-x 与"-nd"设置刚好相反,创建完整的目录结构,例如"wget -nd http://www.baidu.com"将创建在当前目录下创建"www.baidu.com"子目录,然后按照服务器实际的目录结构一级一级建下去,直到所有的文件都传完为止; -x, --force-directories 强制创建目录

代码:
  $ wget –help
  GNU Wget 1.9.1,非交互式的网络文件下载工具。
  用法: wget [选项]… [URL]…
  长选项必须用的参数在使用短选项时也是必须的。
启动:
  -V, –version 显示 Wget 的版本并且退出。
  -h, –help 打印此帮助。
  -b, -background 启动后进入后台操作。
  -e, -execute=COMMAND 运行'.wgetrc'形式的命令。
日志记录及输入文件:
  -o, –output-file=文件 将日志消息写入到指定文件中。
  -a, –append-output=文件 将日志消息追加到指定文件的末端。
  -d, –debug 打印调试输出。
  -q, –quiet 安静模式(不输出信息)。
  -v, –verbose 详细输出模式(默认)。
  -nv, –non-verbose 关闭详细输出模式,但不进入安静模式。
  -i, –input-file=文件 下载从指定文件中找到的 URL。
  -F, –force-html 以 HTML 方式处理输入文件。
  -B, –base=URL 使用 -F -i 文件选项时,在相对链接前添加指定的 URL。
下载:
  -t, –tries=次数 配置重试次数(0 表示无限)。
  –retry-connrefused 即使拒绝连接也重试。
  -O –output-document=文件 将数据写入此文件中。
  -nc, –no-clobber 不更改已经存在的文件,也不使用在文件名后
  添加 .#(# 为数字)的方法写入新的文件。
  -c, –continue 继续接收已下载了一部分的文件。
  –progress=方式 选择下载进度的表示方式。
  -N, –timestamping 除非远程文件较新,否则不再取回。
  -S, –server-response 显示服务器回应消息。
  –spider 不下载任何数据。
  -T, –timeout=秒数 配置读取数据的超时时间 (秒数)。
  -w, –wait=秒数 接收不同文件之间等待的秒数。
  –waitretry=秒数 在每次重试之间稍等一段时间 (由 1 秒至指定的 秒数不等)。
  –random-wait 接收不同文件之间稍等一段时间(由 0 秒至 2*WAIT 秒不等)。
  -Y, –proxy=on/off 打开或关闭代理服务器。
  -Q, –quota=大小 配置接收数据的限额大小。
  –bind-address=地址 使用本机的指定地址 (主机名称或 IP) 进行连接。
  –limit-rate=速率 限制下载的速率。
  –dns-cache=off 禁止查找存于高速缓存中的 DNS。
  –restrict-file-names=OS 限制文件名中的字符为指定的 OS (操作系统) 所允许的字符。
目录:
  -nd –no-directories 不创建目录。
  -x, –force-directories 强制创建目录。
  -nH, –no-host-directories 不创建含有远程主机名称的目录。
  -P, –directory-prefix=名称 保存文件前先创建指定名称的目录。
  –cut-dirs=数目 忽略远程目录中指定数目的目录层。
HTTP 选项:
  –http-user=用户 配置 http 用户名。
  –http-passwd=密码 配置 http 用户密码。
  -C, –cache=on/off (不)使用服务器中的高速缓存中的数据 (默认是使用的)。
  -E, –html-extension 将所有 MIME 类型为 text/html 的文件都加上 .html 扩展文件名。
  –ignore-length 忽略"Content-Length"文件头字段。
  –header=字符串 在文件头中添加指定字符串。
  –proxy-user=用户 配置代理服务器用户名。
  –proxy-passwd=密码 配置代理服务器用户密码。
  –referer=URL 在 HTTP 请求中包含"Referer:URL"头。
  -s, –save-headers 将 HTTP 头存入文件。
  -U, –user-agent=AGENT 标志为 AGENT 而不是 Wget/VERSION。
  –no-http-keep-alive 禁用 HTTP keep-alive(持久性连接)。
  –cookies=off 禁用 cookie。
  –load-cookies=文件 会话开始前由指定文件载入 cookie。
  –save-cookies=文件 会话结束后将 cookie 保存至指定文件。
  –post-data=字符串 使用 POST 方法,发送指定字符串。
  –post-file=文件 使用 POST 方法,发送指定文件中的内容。
HTTPS (SSL) 选项:
  –sslcertfile=文件 可选的客户段端证书。
  –sslcertkey=密钥文件 对此证书可选的"密钥文件"。
  –egd-file=文件 EGD socket 文件名。
  –sslcadir=目录 CA 散列表所在的目录。
  –sslcafile=文件 包含 CA 的文件。
  –sslcerttype=0/1 Client-Cert 类型 0=PEM (默认) / 1=ASN1 (DER)
  –sslcheckcert=0/1 根据提供的 CA 检查服务器的证书
  –sslprotocol=0-3 选择 SSL 协议;0=自动选择,
  1=SSLv2 2=SSLv3 3=TLSv1
FTP 选项:
  -nr, –dont-remove-listing 不删除".listing"文件。
  -g, –glob=on/off 设置是否展开有通配符的文件名。
  –passive-ftp 使用"被动"传输模式。
  –retr-symlinks 在递归模式中,下载链接所指示的文件(连至目录则例外)。
递归下载:
  -r, –recursive 递归下载。
  -l, –level=数字 最大递归深度(inf 或 0 表示无限)。
  –delete-after 删除下载后的文件。
  -k, –convert-links 将绝对链接转换为相对链接。
  -K, –backup-converted 转换文件 X 前先将其备份为 X.orig。
  -m, –mirror 等效于 -r -N -l inf -nr 的选项。
  -p, –page-requisites 下载所有显示完整网页所需的文件,例如图像。
  –strict-comments 打开对 HTML 备注的严格(SGML)处理选项。
递归下载时有关接受/拒绝的选项:
  -A, –accept=列表 接受的文件样式列表,以逗号分隔。
  -R, –reject=列表 排除的文件样式列表,以逗号分隔。
  -D, –domains=列表 接受的域列表,以逗号分隔。
  –exclude-domains=列表 排除的域列表,以逗号分隔。
  –follow-ftp 跟随 HTML 文件中的 FTP 链接。
  –follow-tags=列表 要跟随的 HTML 标记,以逗号分隔。
  -G, –ignore-tags=列表 要忽略的 HTML 标记,以逗号分隔。
  -H, –span-hosts 递归时可进入其它主机。
  -L, –relative 只跟随相对链接。
  -I, –include-directories=列表 要下载的目录列表。
  -X, –exclude-directories=列表 要排除的目录列表。
  -np, –no-parent 不搜索上层目录。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: