• <output id="aynwq"><form id="aynwq"><code id="aynwq"></code></form></output>

    <mark id="aynwq"><option id="aynwq"></option></mark>
  • <mark id="aynwq"><option id="aynwq"></option></mark><label id="aynwq"><dl id="aynwq"></dl></label>
  • 學習啦 > 學習電腦 > 操作系統 > Linux教程 > 什么是wget命令

    什么是wget命令

    時間: 若木635 分享

    什么是wget命令

    wget

    wget是一個命令行工具——是歷史上最快的單線程傳輸工具,用于下載網站/批量文件,支持HTTP和FTP。 它的任務就是獲取互聯網。首先,基本上所有的面向個人計算機的Linux都帶 wget。

    wget是一個從網絡上自動下載文件的自由工具。它支持HTTP,HTTPS和FTP協議,可以使用HTTP代理.

    所謂的自動下載是指,wget可以在用戶退出系統的之后在后臺執行。這意味這你可以登錄系統,啟動一個wget下載任務,然后退出系統,wget將在后臺執行直到任務完成,相對于其它大部分瀏覽器在下載大量數據時需要用戶一直的參與,這省去了極大的麻煩。

    wget可以跟蹤HTML頁面上的鏈接依次下載來創建遠程服務器的本地版本,完全重建原始站點的目錄結構。這又常被稱作"遞歸下載"。在遞歸下載的時候,wget遵循Robot Exclusion標準(/robots.txt). wget可以在下載的同時,將鏈接轉換成指向本地文件,以方便離線瀏覽。

    wget非常穩定,它在帶寬很窄的情況下和不穩定網絡中有很強的適應性.如果是由于網絡的原因下載失敗,wget會不斷的嘗試,直到整個文件下載完畢。如果是服務器打斷下載過程,它會再次聯到服務器上從停止的地方繼續下載。這對從那些限定了鏈接時間的服務器上下載大文件非常有用

    命令格式

     wget [options] [URL]

    用wget做站點鏡像

     wget -r -p -np -k [url]

    # 或者

     wget -m [url] 

    在不穩定的網絡上下載一個部分下載的文件,以及在空閑時段下載

     wget -t 0 -w 31 -c [url] -o down.log &

    從filelist讀入要下載的文件列表

     wget -t 0 -w 31 -c -B [url] -i filelist.txt -o down.log & 

    上面的代碼還可以用來在網絡比較空閑的時段進行下載。我的用法是:在mozilla中將不方便當時下載的URL鏈接拷貝到內存中然后粘貼到文件filelist.txt中,在晚上要出去系統前執行上面代碼的第二條。

    使用代理下載

     wget -Y on -p -k [url]

    代理可以在環境變量或wgetrc文件中設定

    在環境變量中設定代理

     export PROXY=http://211.90.168.94:8080/

    在~/.wgetrc中設定代理

     http_proxy = http://proxy.yoyodyne.com:18023/ ftp_proxy = http://proxy.yoyodyne.com:18023/

    wget示例

    如果我們想下載ftp里面某個目錄里面的所有文件,

     wget -r ftp://10.8.8.8/movie/ 

    呵呵,等吧!下完了,發覺有些不對勁,怎么出來個10.8.8.8的目錄,進去看看,又是一個movie,哦,wget將目錄結構和網站標題都給記錄下來了,不要??沒有問題!比如說還是這個例子

     wget -r -nd ftp://10.8.8.8/movie/ 

    結果什么目錄都沒有了,faint!怎么會這樣?呵呵,你如果想要這樣就讓它這樣吧,否則使用

     wget -r -nH ftp://10.8.8.8/movie/ 

    恩?movie也不要?OK,那就這樣

     wget -r -nH --cut-dirs=1 ftp://10.8.8.8/movie/ 

    斷線了?超時了? 加個 -c 繼續

     wget -c -r -nH --cut-dirs=1 ftp://10.8.8.8/movie/ 

    我們下載這里面所有的宏包,呵呵

     wget -r -k http://www.ctan.org/tex-archive/macros/latex/ 

    -k表示將連接轉換為本地連接。但是現在同樣有上面的問題啊,那就把你需要的加上吧,另外也許你根本不需要向下走那么多層,比如,我們就要到第二層,那么

     wget -r -l2 -k http://www.ctan.org/tex-archive/macros/latex/ 

    現在新的問題是,由于網頁有一個排序功能,很討厭,因為下載的時候把網頁重復了好多次,那么我們可使用-A和-R開關控制下載類型,并且可以使用通配符,呵呵,現在隨心所欲了吧

     wget -r -R ".htm\?*" -k http://www.ctan.org/tex-archive/macros/latex/ 

    這次沒有那種網頁了吧?-R的意義在于拒絕下載匹配類型的文件,-A表示僅僅接受的文件類型,如-A "*.gif"將僅下載gif圖片,如果有多個允許或者不允許,可以使用,分開。

    那么,我們現在在使用代理服務器,怎么辦呢?呵呵,很高興你選擇了wget,你可以使用它的配置文件,環境變量來利用代理。這里推薦使用環境變量,如在 bash里面我們可以把天天用的proxy加到.bash_profile里面,這是Linux標準寫法(很多軟件都用的,什么apt-get,yum等等)

     export http_proxy=http://10.20.30.40:8080/ 

    然后,proxy就默認打開了,如果需要暫時關閉,可以使用

     wget --proxy=off -r -k http://www.ctan.org/tex-archive/macros/latex/ 

    當然,寫一個.wgetrc文件也可以,該文件可以從/usr/local/etc里面找到,里面有很詳細的注釋,我就不多說了。

    下載網頁的時候比較麻煩的事情是,有的網頁被同時指向了很多遍,那么為了避免多次下載,我們使用

     wget -nc -r -k http://www.ctan.org/tex-archive/macros/latex/ 

    可以避免這件事情。為了不被有的連接指向非http://www.ctan.org/tex-archive/macros/latex/ 內層目錄,我們還應該加上

     wget -nc -np -r -k http://www.ctan.org/tex-archive/macros/latex/ 

    避免下載非該目錄里面的文件,這也避免了到不同的host上面去。當然,如果你希望有這個功能,在多個host之間跳來跳去的下載,可以使用

     wget -nc -np -H -r -k http://www.ctan.org/tex-archive/macros/latex/ 

    使得可以在多個host之間span,同時-I和-X可以使得我們僅僅跟蹤某些目錄或者不跟蹤某些目錄。如果某些HTML里面你需要的東西不是由這種東西作出來的,你就得使用--follow-tags和--ignore-tags了。

    嘿,我有個文件里面都是連接,怎么辦?要是不是html你只需要

     wget -i your.file 

    如果是,那也不繁

     wget -F -i your.file 

    下面是補充:

    wget -m ftp://ipaddress/*

    -m 做站點鏡像時的選項,如果你想做一個站點的鏡像,使用這個選項,它將自動設定其他合適的選項以便于站點鏡像;等價于 -r -N -l inf -nr.

    參數類型

    啟動

    1. -V, --version 顯示wget的版本后退出
    2. -h, --help 打印語法幫助
    3. -b, --background 啟動后轉入后臺執行
    4. -e, --execute=COMMAND 執行`.wgetrc'格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrc

    記錄和輸入文件

    1. -o, --output-file=FILE 把記錄寫到FILE文件中
    2. -a, --append-output=FILE 把記錄追加到FILE文件中
    3. -d, --debug 打印調試輸出
    4. -q, --quiet 安靜模式(沒有輸出)
    5. -v, --verbose 冗長模式(這是缺省設置)
    6. -nv, --non-verbose 關掉冗長模式,但不是安靜模式
    7. -i, --input-file=FILE 下載在FILE文件中出現的URLs
    8. -F, --force-html 把輸入文件當作HTML格式文件對待
    9. -B, --base=URL 將URL作為在-F -i參數指定的文件中出現的相對鏈接的前綴
    10. --sslcertfile=FILE 可選客戶端證書
    11. --sslcertkey=KEYFILE 可選客戶端證書的KEYFILE
    12. --egd-file=FILE 指定EGD socket的文件名

    下載

    1. --bind-address=ADDRESS 指定本地使用地址(主機名或IP,當本地有多個IP或名字時使用)
    2. -t, --tries=NUMBER 設定最大嘗試鏈接次數(0 表示無限制).
    3. -O --output-document=FILE 把文檔寫到FILE文件中
    4. -nc, --no-clobber 不要覆蓋存在的文件或使用.#前綴
    5. -c, --continue 接著下載沒下載完的文件
    6. --progress=TYPE 設定進程條標記
    7. -N, --timestamping 不要重新下載文件除非比本地文件新
    8. -S, --server-response 打印服務器的回應
    9. --spider 不下載任何東西
    10. -T, --timeout=SECONDS 設定響應超時的秒數
    11. -w, --wait=SECONDS 兩次嘗試之間間隔SECONDS秒
    12. --waitretry=SECONDS 在重新鏈接之間等待1...SECONDS秒
    13. --random-wait 在下載之間等待0...2*WAIT秒
    14. -Y, --proxy=on/off 打開或關閉代理
    15. -Q, --quota=NUMBER 設置下載的容量限制
    16. --limit-rate=RATE 限定下載輸率

    目錄

    1. -nd --no-directories 不創建目錄
    2. -x, --force-directories 強制創建目錄
    3. -nH, --no-host-directories 不創建主機目錄
    4. -P, --directory-prefix=PREFIX 將文件保存到目錄 PREFIX/...
    5. --cut-dirs=NUMBER 忽略 NUMBER層遠程目錄

    HTTP 選項

    1. --http-user=USER 設定HTTP用戶名為 USER.
    2. --http-passwd=PASS 設定http密碼為 PASS.
    3. -C, --cache=on/off 允許/不允許服務器端的數據緩存 (一般情況下允許).
    4. -E, --html-extension 將所有text/html文檔以.html擴展名保存
    5. --ignore-length 忽略 `Content-Length'頭域
    6. --header=STRING 在headers中插入字符串 STRING
    7. --proxy-user=USER 設定代理的用戶名為 USER
    8. --proxy-passwd=PASS 設定代理的密碼為 PASS
    9. --referer=URL 在HTTP請求中包含 `Referer: URL'頭
    10. -s, --save-headers 保存HTTP頭到文件
    11. -U, --user-agent=AGENT 設定代理的名稱為 AGENT而不是 Wget/VERSION.
    12. --no-http-keep-alive 關閉 HTTP活動鏈接 (永遠鏈接).
    13. --cookies=off 不使用 cookies.
    14. --load-cookies=FILE 在開始會話前從文件 FILE中加載cookie
    15. --save-cookies=FILE 在會話結束后將 cookies保存到 FILE文件中

    FTP 選項

    1. -nr, --dont-remove-listing 不移走 `.listing'文件
    2. -g, --glob=on/off 打開或關閉文件名的 globbing機制
    3. --passive-ftp 使用被動傳輸模式 (缺省值).
    4. --active-ftp 使用主動傳輸模式
    5. --retr-symlinks 在遞歸的時候,將鏈接指向文件(而不是目錄)

    遞歸下載

    1. -r, --recursive 遞歸下載--慎用!
    2. -l, --level=NUMBER 最大遞歸深度 (inf 或 0 代表無窮).
    3. --delete-after 在現在完畢后局部刪除文件
    4. -k, --convert-links 轉換非相對鏈接為相對鏈接
    5. -K, --backup-converted 在轉換文件X之前,將之備份為 X.orig
    6. -m, --mirror 等價于 -r -N -l inf -nr.
    7. -p, --page-requisites 下載顯示HTML文件的所有圖片

    遞歸下載中的包含和不包含(accept/reject)

    1. -A, --accept=LIST 分號分隔的被接受擴展名的列表
    2. -R, --reject=LIST 分號分隔的不被接受的擴展名的列表
    3. -D, --domains=LIST 分號分隔的被接受域的列表
    4. --exclude-domains=LIST 分號分隔的不被接受的域的列表
    5. --follow-ftp 跟蹤HTML文檔中的FTP鏈接
    6. --follow-tags=LIST 分號分隔的被跟蹤的HTML標簽的列表
    7. -G, --ignore-tags=LIST 分號分隔的被忽略的HTML標簽的列表
    8. -H, --span-hosts 當遞歸時轉到外部主機
    9. -L, --relative 僅僅跟蹤相對鏈接
    10. -I, --include-directories=LIST 允許目錄的列表
    11. -X, --exclude-directories=LIST 不被包含目錄的列表
    12. -np, --no-parent 不要追溯到父目錄
     
    75574 主站蜘蛛池模板: 女人是男人的未来的人| 国产老熟女网站| 亚洲欧美精品一中文字幕| 美国式禁忌矿桥矿网第11集| 国产色婷婷五月精品综合在线| 中文字幕国产在线| 欧美另类xxxxx极品| 亚洲精品无码人妻无码| 色噜噜久久综合伊人一本| 国产精品夜间视频香蕉| 一级毛片完整版免费播放一区| 极品丰满美女国模冰莲大尺度| 人妻无码一区二区三区四区| 色综合久久综合网观看| 国产精品日本一区二区不卡视频| 一区二区三区视频观看| 日本成人免费网站| 亚洲免费网站观看视频| 男女肉粗暴进来动态图| 国产亚洲精品自在久久| 拍拍拍无挡视频免费观看1000| 少妇粉嫩小泬喷水视频| 久久男人资源站| 欧美日韩中文在线视频| 免费无码又爽又刺激网站| 精品国产三级a∨在线观看| 国产又大又长又粗又硬的免费视频 | 亚洲男女内射在线播放| 波多野结衣一区| 亚洲色图视频在线观看| 美国一级毛片免费视频观看| 啦啦啦中文在线观看日本| 99任你躁精品视频| 国产精品美女久久久久AV福利 | 国产日本韩国不卡在线视频| _妓院_一钑片_免看黄大片| 挺进男同的屁股眼o漫画| 久久综合九色综合97免费下载| 日韩精品无码人妻一区二区三区| 亚洲国产精品成人久久| 爱情岛永久免费|