- Регистрация
- 08.12.17
- Сообщения
- 21
- Реакции
- 6
- Репутация
- 18
Привет всем!!! С наступающим!!!
Попробуем сделать статическую копию сайта при помощи wget.
В первую очередь нужно скачать саму программку под Windows, под LInux работает без проблем а вот с виндой проблемка. Идем
Создаем папку в program files с названием wget и распаковываем туда архив с прогой.
Теперь нужно прописать PATH в переменных средах вашего ПК. Копируем ссылку к wget (C:\Program Files\wget) и вставляем в самый конец переменной Path:
Далее заходим в консоль и проверяем работоспособность. пишем wget должны увидеть примерно такой результат:
Теперь можно приступать к копированию сайтов. Вот пример команды которой пользуюсь я wget -r -l 10 -k -np
Расписал что к чему
-l 10 - Уровень вложености
-r - Рекурсивная загрузка
-k - Конвертирует ссылки в локальные
-p - Загружать все файлы, которые нужны для отображения HTML страниц.
-np - Не подниматься выше начального адреса при рекурсивной загрузке no repeat
Есть еще много возможностей у данной проги. Можно эмулировать любой браузер или выставить задержку между запросами.
Напишите в консоль wget --help и фантазируйте.
Кому было полезно от "+" в карму не откажусь.
Спрашивайте если не получилось что-то.
Попробуем сделать статическую копию сайта при помощи wget.
В первую очередь нужно скачать саму программку под Windows, под LInux работает без проблем а вот с виндой проблемка. Идем
You must be registered for see links
и качаем самую последнюю версию ( на сегодня
You must be registered for see links
1). Создаем папку в program files с названием wget и распаковываем туда архив с прогой.
Теперь нужно прописать PATH в переменных средах вашего ПК. Копируем ссылку к wget (C:\Program Files\wget) и вставляем в самый конец переменной Path:
You must be registered for see links
Далее заходим в консоль и проверяем работоспособность. пишем wget должны увидеть примерно такой результат:
You must be registered for see links
Теперь можно приступать к копированию сайтов. Вот пример команды которой пользуюсь я wget -r -l 10 -k -np
You must be registered for see links
Расписал что к чему
-l 10 - Уровень вложености
-r - Рекурсивная загрузка
-k - Конвертирует ссылки в локальные
-p - Загружать все файлы, которые нужны для отображения HTML страниц.
-np - Не подниматься выше начального адреса при рекурсивной загрузке no repeat
Есть еще много возможностей у данной проги. Можно эмулировать любой браузер или выставить задержку между запросами.
Напишите в консоль wget --help и фантазируйте.
Кому было полезно от "+" в карму не откажусь.
Спрашивайте если не получилось что-то.