wgetはウェブサイト全体(サブディレクトリ全体)または特定のディレクトリをダウンロードします

wgetはウェブサイト全体(サブディレクトリ全体)または特定のディレクトリをダウンロードします

wgetコマンドを使用して、親ディレクトリの下のサブディレクトリ全体をダウンロードします。

親ディレクトリの下のサブディレクトリ全体をダウンロードするには、wget コマンドを使用します。コマンドは次のとおりです。

wget -r --level=0 -E --ignore-length -x -k -p -erobots=off -np -N http://www.remote.com/remote/presentation/dir

リモート サーバーのフォルダー全体がコンピューターの現在のファイル ディレクトリにダウンロードされます。

wget を使用してディレクトリ内のすべてのファイルをダウンロードする方法

wget -r -np -nH -R index.html http://url/including/files/you/want/to/download/

各パラメータの意味:

-r : すべてのサブディレクトリを走査する
-np: 上位のサブディレクトリには移動しない
-nH : ホスト名フォルダにファイルを保存しない
-R index.html : index.html ファイルをダウンロードしない

wgetはウェブサイト全体または特定のディレクトリをダウンロードします

特定のディレクトリ内のすべてのファイルをダウンロードする必要があります。コマンドは以下のとおりです

wget -c -r -np -k -L -p www.xxx.org/pub/path/

ダウンロード中。外部ドメインへの画像またはリンクがあります。同時にダウンロードする必要がある場合は、-H パラメータを使用する必要があります。

wget -np -nH -r --span-hosts www.xxx.org/pub/path/

-c ダウンロードを再開する
-r 再帰ダウンロード、指定されたウェブページのディレクトリ(サブディレクトリを含む)内のすべてのファイルをダウンロードします
-ndは再帰的にダウンロードするときに階層ごとにディレクトリを作成せず、すべてのファイルを現在のディレクトリにダウンロードします。
-np は、wget -c -r www.xxx.org/pub/path/ のように再帰的にダウンロードするときに上位ディレクトリを検索しません。
-np パラメータを指定しないと、上記のパスの pub ディレクトリにある他のファイルも同時にダウンロードされます。
-k は絶対リンクを相対リンクに変換します。サイト全体をダウンロードし、Web ページをオフラインで閲覧するには、このパラメータを追加するのが最適です。
-L は、wget -c -r www.xxx.org/ などの再帰時に他のホストを入力しません。
ウェブサイトに次のようなリンクがある場合:
www.yyy.org の場合、-L パラメータを指定しないと、山を燃やす火のように www.yyy.org の Web サイトが再帰的にダウンロードされます。
-p 画像など、Web ページに必要なすべてのファイルをダウンロードします。
-A はダウンロードするファイルパターンリストを指定します。複数のパターンはカンマで区切られます。
-i の後には、ダウンロードする URL を指定するファイルが続きます。

他にもネットで調べた使い方があるので、今後の参考にして頂けるようここに記しておきます。

wgetの一般的な使い方

wget の使用形式

使用方法: wget [オプション]… [URL]…

* wget を使用してサイトをミラーリングします。
wget -r -p -np -k http://dsec.pku.edu.cn/~usr_name/
# または
wget -m http://www.tldp.org/LDP/abs/html/

* 不安定なネットワーク上で部分的にダウンロードされたファイルをダウンロードし、アイドル時間にダウンロードする

wget -t 0 -w 31 -c http://dsec.pku.edu.cn/BBC.avi -o down.log &

# または、filelistからダウンロードするファイルのリストを読み取ります

wget -t 0 -w 31 -c -B ftp://dsec.pku.edu.cn/linuxsoft -i filelist.txt -o
ダウンログ &

上記のコードは、ネットワークが比較的アイドル状態のときにダウンロードするためにも使用できます。私の使い方は、mozilla で、その時点でダウンロードするのが不便な URL リンクをメモリにコピーして、filelist.txt ファイルに貼り付け、夜間にシステムを離れる前に上記のコードの 2 行目を実行することです。

* プロキシを使用してダウンロードする
wget -Y on -p -k https://sourceforge.net/projects/wvware/

プロキシは環境変数またはwgetrcファイルで設定できます。

# 環境変数にプロキシを設定する
エクスポートPROXY=http://211.90.168.94:8080/
# ~/.wgetrc でプロキシを設定する
http_proxy = http://proxy.yoyodyne.com:18023/
ftp_proxy = http://proxy.yoyodyne.com:18023/

さまざまなwgetオプションのリスト

* 起動する

-V, --version wgetのバージョンを表示して終了する
-h, --help 構文ヘルプを表示する
-b, --background 起動後、バックグラウンドで実行
-e, --execute=コマンド
`.wgetrc' 形式でコマンドを実行します。wgetrc 形式については、/etc/wgetrc または ~/.wgetrc を参照してください。

* ファイルの記録と入力

-o, --output-file=FILE レコードをFILEファイルに書き込む
-a, --append-output=FILE FILEファイルにレコードを追加する
-d, --debug デバッグ出力を印刷する
-q, --quiet クワイエットモード(出力なし)
-v, --verbose 詳細モード(これがデフォルト設定です)
-nv、--non-verbose は詳細モードをオフにしますが、静音モードはオフにしません
-i, --input-file=FILE FILE に表示されている URL をダウンロードします
-F, --force-html 入力ファイルを HTML 形式のファイルとして扱う
-B, --base=URL -F -i パラメータで指定されたファイル内に表示される相対リンクのプレフィックスとして URL を使用します --sslcertfile=FILE オプションのクライアント証明書 --sslcertkey=KEYFILE オプションのクライアント証明書 KEYFILE
–egd-file=FILE はEGDソケットのファイル名を指定します

* ダウンロード

--bind-address=アドレス
ローカルアドレス(ホスト名またはIP、ローカルに複数のIPまたは名前がある場合に使用)を指定します
-t, --tries=NUMBER 接続試行の最大回数を設定します (0 は無制限を意味します)。
-O -​​-output-document=FILE ドキュメントをFILEファイルに書き込む
-nc, --no-clobber 既存のファイルを上書きしない、または .# プレフィックスを使用しない
-c, --continue 未完了のファイルのダウンロードを続行します --progress=TYPE 進行状況バーのマークを設定します
-N, --timestamping ローカルファイルより新しいファイル以外は再ダウンロードしない
-S, --server-response サーバーの応答を印刷 --spider 何もダウンロードしない
-T, --timeout=SECONDS 応答タイムアウトを秒単位で設定します
-w, --wait=SECONDS 試行間隔を SECONDS 秒待機 --waitretry=SECONDS 再接続間隔を 1...SECONDS 秒待機 --random-wait ダウンロード間隔を 0...2*WAIT 秒待機
-Y, --proxy=on/off プロキシをオンまたはオフにする
-Q, --quota=NUMBER ダウンロード容量制限を設定する --limit-rate=RATE ダウンロード速度を制限する

* 目次

-nd –no-directories ディレクトリを作成しない
-x, --force-directories ディレクトリの強制作成
-nH, --no-host-directories ホストディレクトリを作成しない
-P, --directory-prefix=PREFIX ファイルをディレクトリ PREFIX/… に保存します
--cut-dirs=NUMBER リモートディレクトリのNUMBERレベルを無視します

* HTTPオプション

–http-user=USER HTTPユーザー名をUSERに設定します。
–http-passwd=PASS http パスワードを PASS に設定します。
-C, --cache=on/off サーバー側のデータキャッシュを有効/無効にします (通常は有効)。
-E, --html-extension すべての text/html ドキュメントを .html 拡張子で保存します --ignore-length `Content-Length' ヘッダーフィールドを無視します --header=STRING 文字列 STRING をヘッダーに挿入します
–proxy-user=USER プロキシユーザー名をUSERに設定する
–proxy-passwd=PASS プロキシパスワードをPASSに設定する
--referer=URL HTTPリクエストに「Referer: URL」ヘッダーを含める
-s, --save-headers HTTPヘッダーをファイルに保存する
-U, --user-agent=AGENT は、エージェント名を Wget/VERSION ではなく AGENT に設定します。
--no-http-keep-alive HTTP キープアライブ接続 (永続的な接続) を無効にします。
--cookies=off クッキーを使用しません。
--load-cookies=FILE セッションを開始する前にファイル FILE からクッキーをロードします
--save-cookies=FILE セッション終了後に FILE にクッキーを保存します

* FTPオプション

-nr, --dont-remove-listing `.listing' ファイルを削除しない
-g, --glob=on/off ファイル名のグロビング メカニズムをオンまたはオフにします --passive-ftp パッシブ転送モードを使用します (デフォルト)。
--active-ftp アクティブ転送モードを使用する --retr-symlinks 再帰時に、リンクをファイル(ディレクトリではない)にポイントする

* 再帰ダウンロード

-r, –recursive 再帰ダウンロード - 注意して使用してください。
-l, --level=NUMBER 最大再帰深度 (inf または 0 は無限)。
--delete-after 完了後にファイルを部分的に削除します
-k, --convert-links 非相対リンクを相対リンクに変換する
-K, --backup-converted ファイルXを変換する前に、X.origとしてバックアップします
-m, --mirror は -r -N -l inf -nr と同等です。
-p, --page-requisites HTMLファイルに表示されているすべての画像をダウンロードします

* 再帰ダウンロードへの包含と除外(承認/拒否)

-A, --accept=LIST 受け入れ可能な拡張子のセミコロンで区切られたリスト
-R, --reject=LIST 受け入れられない拡張子のセミコロンで区切られたリスト
-D, --domains=LIST セミコロンで区切られた承認済みドメインのリスト --exclude-domains=LIST セミコロンで区切られた除外ドメインのリスト --follow-ftp HTML ドキュメント内の FTP リンクをたどります --follow-tags=LIST セミコロンで区切られたたどる HTML タグのリスト
-G, --ignore-tags=LIST 無視される HTML タグのセミコロンで区切られたリスト
-H, --span-hosts 再帰時に外部ホストへ移動
-L, --relative 相対リンクのみをたどる
-I, --include-directories=LIST 許可されたディレクトリのリスト
-X, --exclude-directories=LIST 含めないディレクトリのリスト
-np, --no-parent 親ディレクトリまで遡らない

これで、wget を使用して Web サイト全体 (サブディレクトリ全体) または特定のディレクトリをダウンロードする方法についての説明は終わりです。ディレクトリ内のすべてのファイル コンテンツをダウンロードする wget の詳細については、123WORDPRESS.COM の以前の記事を検索するか、以下の関連記事を引き続き参照してください。今後とも 123WORDPRESS.COM をよろしくお願いいたします。

以下もご興味があるかもしれません:
  • Linuxのwgetコマンドの詳細な説明
  • Linux の curl コマンドと wget コマンドの紹介と比較
  • vbs と wget を組み合わせてウェブサイトの画像をダウンロードする
  • Windows システムで wget スケジュール タスク スクリプトを構成する
  • dos は wget.exe を使用して、ウイルス対策ソフトウェアのアップグレードをより自動化します。
  • wget を使用してウェブサイトを再帰的にミラーリングする
  • Linuxのwgetコマンドの詳細な説明
  • Linux の wget コマンドの詳細な紹介

<<:  ウェブデザインレイアウトの理解

>>:  Vue でユーザー権限に基づいてルートを動的に追加する方法

推薦する

JavaScript進捗管理の詳しい説明

目次序文質問原理テスト序文プログラムを作成するときに、読み込みの進行状況やアップロードの進行状況など...

vue+element で動的スキニングを実装するためのサンプルコード

プロジェクトのテーマがすべての人の美的感覚を満足できないこともあります。このとき、スキン変更機能は非...

40 CSS/JSスタイルと機能的な技術処理

1-ドロップダウン選択ボックスのスタイル設定 - ドロップダウン リストを変更します。 2- <...

JS配列の一般的な方法とテクニックを学び、マスターになりましょう

目次splice() メソッドjoin() メソッド逆() メソッドevery() メソッド削減()...

MySQLテーブル内の重複データをクエリする方法

hk_test(ユーザー名、パスワード) に値を挿入 ('qmf1', '...

nginx 設定チュートリアルにおける add_header の落とし穴の詳細な説明

序文add_header は、headers モジュールで定義されたディレクティブです。名前が示すよ...

fastdfs+nginxクラスタ構築の実装

1. fastdfs の紹介1. fastdfsとは何かFastdfs は軽量のオープンソース分散フ...

Dockerイメージの作成、保存、読み込み方法

イメージを作成する方法は 3 つあります。既存のイメージに基づいてコンテナを作成する、ローカル テン...

JavaScript配列の一般的なメソッドの概要

目次1. はじめに2. フィルター() 3. マップ() 4. ソート() 5. 減らす() 6. ...

Docker View プロセス、メモリ、カップ消費量

Docker プロセス、メモリ、カップ消費量を表示dockerコンテナを起動し、dockerinsp...

VMware 仮想マシンの 3 つのネットワーク方式と原則 (概要)

1. ブリッジ: デフォルトでは VMnet0 が使用されます1. 原則:ブリッジは、それぞれ 2...

Vueソースコード解析における仮想DOMの詳しい説明

なぜ仮想DOMが必要なのでしょうか?仮想 DOM はブラウザのパフォーマンス問題を解決するために設計...

MySQL 8.0 のデフォルトのデータディレクトリを変更する (設定なしの簡単な操作)

使用シナリオ: Alibaba Cloud を使用しており、データディスクを別途購入しました (大容...

Apache ab を使用して HTTP パフォーマンス テストを実行する

MacにはApache環境が付属していますターミナルを開き、sudo apachectl -v と入...

CSS3アニメーションを使用した簡単な指クリックアニメーションの実装例

この記事では主に、CSS3 アニメーションで簡単な指クリックアニメーションを実装する例を紹介し、皆さ...