coding

Скачиваем любой сайт к себе на компьютер.

19 декабря 2016 г.

Иногда бывает нужно сделать копию какого-то сайта или посмотреть как что-то работает, да мало ли что. С помощью стандартной утилиты wget (стандартной для Linux) можно слить любой сайт, правда только в статике, т.е. серверная часть скачана не будет.

Итак, в терминале набираем:

$ wget -r -k -l 7 -p -E -nc http://site.com/

и в директорию site.com будет загружена локальная копия сайта http://site.com. Чтобы открыть главную страницу сайта нужно открыть файл index.html.

Что же мы написали:
  -r — указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы.
  -k — используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме).
  -p — указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.).
  -l — определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5, в примере мы установили 7). В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло можно использовать параметр -l.
  -E — добавлять к загруженным файлам расширение .html.
  -nc — при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз.

Просмотров - 588

Оставить комментарий

Комментарий будет размещен на сайте после прохождения модерации.

Комментарии

Еще не оставлено ни одного комментария.