ВСЯ ИНФОРМАЦИЯ СОЗДАНА В ОЗНАКОМИТЕЛЬНЫХ ЦЕЛЯХ!АВТОР НЕ НЕСЁТ ОТВЕТСТВЕННОСТЬ ЗА ВАШИ ДЕЙСТВИЯ!
Привет всем,сегодня я бы хотел рассказать о такой утилите как wget. Данная программа может слить сайт полностью со скриптами,иконками и т.д
Для этого нам понадобится:
1.Программа wget http://gnuwin32.sourceforge.net/packages/wget.htm
2.Интернет
3.Сайт который будем сливать
Для начала мы заходим в Мой компьютер,нажимаем правой кнопкой мыши и выбираем свойства. Далее слева с краю выбираем Дополнительные параметры системы.
Далее мы находим строку Path и нажимаем изменить вот так:
Далее ставим ; и после этого пишем путь wget и потом опять ставим ; вот путь:
Далее открываем cmd и пишем такую команду: wget -r -k -l 7 -p -E -nc http://ваш сайт
-r указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы
-k используется для того, чтобы wget преобразовывал все ссылки в скаченных файлах таким образом, чтобы они ссылались на локальную копию
-p указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css, js и т.д.)
-l определяет максимальную глубину вложенности страниц, которые wget должен скачивать (по умолчанию значение равно 5, а в примере мы используем 7). Так как в большинстве случаев сайты имеют страницы с большой степенью вложенности и wget в этом случае может просто "утонуть", скачивая новые страницы. А чтобы этого не произошло мы указываем ограничение.
-E добавлять к загружаемым файлам расширение .html
-nc при использовании данного параметра существующие файлы не будут заново перезаписаны. Это удобно в том случае, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз
И всё,если всё хорошо то программа запуститься и сохранит сайт в папку пользователи
вот что получилось:
Все удачи,всем пока!
Привет всем,сегодня я бы хотел рассказать о такой утилите как wget. Данная программа может слить сайт полностью со скриптами,иконками и т.д
Для этого нам понадобится:
1.Программа wget http://gnuwin32.sourceforge.net/packages/wget.htm
2.Интернет
3.Сайт который будем сливать
Для начала мы заходим в Мой компьютер,нажимаем правой кнопкой мыши и выбираем свойства. Далее слева с краю выбираем Дополнительные параметры системы.



-r указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы
-k используется для того, чтобы wget преобразовывал все ссылки в скаченных файлах таким образом, чтобы они ссылались на локальную копию
-p указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css, js и т.д.)
-l определяет максимальную глубину вложенности страниц, которые wget должен скачивать (по умолчанию значение равно 5, а в примере мы используем 7). Так как в большинстве случаев сайты имеют страницы с большой степенью вложенности и wget в этом случае может просто "утонуть", скачивая новые страницы. А чтобы этого не произошло мы указываем ограничение.
-E добавлять к загружаемым файлам расширение .html
-nc при использовании данного параметра существующие файлы не будут заново перезаписаны. Это удобно в том случае, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз
И всё,если всё хорошо то программа запуститься и сохранит сайт в папку пользователи
вот что получилось:
