评论

收藏

[Linux] 举例说明Linux中使用wget进行下载的方法

服务系统 服务系统 发布于:2021-11-26 14:29 | 阅读数:412 | 评论:0

这篇文章主要介绍了举例说明Linux中使用wget进行下载的方法,wget支持http和ftp网络传输,需要的朋友可以参考下
使用举例:
1、下载单个文件

代码如下:
$ wget http://osmond.cn/cdbe/CDBE.zip
2、以续传方式后台下载单个文件
代码如下:
$ wget -bc http://ftp.hostrino.com/pub/centos/5.0/isos/i386/CentOS-5.0-i386-bin-
3、只下载单一HTML文件,确保影响着页面显示的所有元素均被下载,并重新建立链接
代码如下:
$ wget -p -k http://osmond.cn/cdbe/manual/index.html
4.下载www.xxx.org/pub/path/整个目录
代码如下:
wget -c -r -np -k -L -p www.xxx.org/pub/path/
在下载时。有用到外部域名的图片或连接。如果需要同时下载就要用-H参数。
代码如下:
wget -np -nH -r --span-hosts www.xxx.org/pub/path/
-c 断点续传
    -r 递归下载,下载指定网页某一目录下(包括子目录)的所有文件
    -nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录
    -np 递归下载时不搜索上层目录,如wget -c -r www.xxx.org/pub/path/
    没有加参数-np,就会同时下载path的上一级目录pub下的其它文件
    -k 将绝对链接转为相对链接,下载整个站点后脱机浏览网页,最好加上这个参数
    -L 递归时不进入其它主机,如wget -c -r www.xxx.org/
    如果网站内有一个这样的链接:
    www.yyy.org,不加参数-L,就会像大火烧山一样,会递归下载www.yyy.org网站
    -p 下载网页所需的所有文件,如图片等
    -A 指定要下载的文件样式列表,多个样式用逗号分隔
    -i 后面跟一个文件,文件内指明要下载的URL
5、下载整个网站做本地镜像网站 http://www.xyz.edu.cn 的内容

代码如下:
$ wget –m –l4 -t0 http://www.xyz.edu.cn
或者
代码如下:
wget -r -p -np -k http://dsec.pku.edu.cn/~usr_name/
6、只下载网站指定的目录,避免向远程主机的其他目录扩散,并拒绝下载gif和jpg文件
代码如下:
$ wget -r –L -R gif,jpg http://www.xyz.edu.cn/doc/
7、递归下载 http://www.xyz.edu.cn 下的 blog 和 wiki 目录并将文件后缀存为html
代码如下:
$ wget -r -k -p -np -E -I blog,wiki http://www.xyz.edu.cn
8、递归下载 http://ayo.freshrpms.net/redhat/9/i386/updates/RPMS 的所有文件到当前目录
代码如下:
$ wget -r -nH -nd http://ayo.freshrpms.net/redhat/9/i386/updates/RPMS
9、批量下载(首先将每个要下载文件的URL写一行,生成文件 download.txt)
代码如下:
$ wget -i download.txt -o download.log
10、使用代理下载
代码如下:
$ wget -Y -i download.txt -o download.log
代理可以在环境变量或wgetrc文件中设定
如何设置代理
代码如下:
# 在环境变量中设定代理
export PROXY=http://214.97.161.94:80/
# 在~/.wgetrc中设定代理
http_proxy = http://214.97.161.94:80/
ftp_proxy = http://214.97.161.94:80/
11.* 在不稳定的网络上下载一个部分下载的文件,以及在空闲时段下载

代码如下:
wget -t 0 -w 31 -c http://dsec.pku.edu.cn/BBC.avi -o down.log &
# 或者从filelist读入要下载的文件列表
wget -t 0 -w 31 -c -B ftp://dsec.pku.edu.cn/linuxsoft -i filelist.txt -o
down.log &
关注下面的标签,发现更多相似文章