ウェブサイトから壊れたリンクのリストを取得する方法

DiarioLinuxで発見した、強力なツールを使用してWebサイト内の壊れたリンク(完全)を検出する興味深い方法 wgetの.

これはLinuxで非常に簡単に実行できます。 私はターミナルを開いて書いた:

wget --spider --no-parent -r -o log.txt http://yourweb.com

ここで、各パラメーターの操作は次のとおりです。

–スパイダー:あなたが彼らに言うウェブを通り抜けますが、何もダウンロードしません。 歩くだけ。
--r:Googleロボットのように再帰的🙂
--oファイル:画面に表示されるコマンドの実行出力
–no-parent:ディレクトリ名をパラメータとして渡す場合、親ディレクトリに移動しないようにします。

完了するまでに長い時間がかかる場合があります(Webサイト全体または指定したディレクトリをスキャンするため)。 壊れたリンクのリストはlog.txt(最後の部分)にあります

wgetについてもっと知りたい場合は、私が書きました

男wget

コメントを最初に

コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

*

*

  1. データの責任者:MiguelÁngelGatón
  2. データの目的:SPAMの制御、コメント管理。
  3. 正当化:あなたの同意
  4. データの伝達:法的義務がある場合を除き、データが第三者に伝達されることはありません。
  5. データストレージ:Occentus Networks(EU)がホストするデータベース
  6. 権利:いつでも情報を制限、回復、削除できます。