Локальная копия сайта, скачиваем сайт целиком

Скачать сайт целиком очень просто, для этого можно использовать утилиту wget. После скачивания сайт можно просматривать его в автономном режиме.

Для скачивания сайта целиком необходимо сделать следующее:

1. Задайте папку для скачивания:

cd /home/имя пользователя/Загрузки/

Можно указать другую папку, главное чтобы она была заранее создана.

2. Скачайте сайт в указанную ранее папку:

wget -r -k -l 7 -p -E -nc адрес сайта

Например:

wget -r -k -l 7 -p -E -nc http://ualinux.com

Сайт будет скачать в указанную Вами папку, для запуска главной страницы запустите index.html

Используемые параметры:

  • -r  указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы.
  • -k  используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме).
  • -p  указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.).
  • -l  определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5). В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло можно использовать параметр -l.
  • -E добавлять к загруженным файлам расширение .html.
  • -nc при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз.
Поделитесь с друзьями

Добавить комментарий

0 комментариев
Вбудовані Відгуки
Переглянути всі коментарі
0
Ми любимо ваші думки, будь ласка, прокоментуйте.x