Дополнительно
Как я могу загрузить весь веб-сайт?
Как загрузить все страницы с веб-сайта?
Подойдет любая платформа.
354
20
Как загрузить все страницы с веб-сайта?
Подойдет любая платформа.
HTTRACK работает как чемпион для копирования содержимого всего сайта. Этот инструмент может даже захватить части, необходимые для того, чтобы сайт с активным кодом работал в автономном режиме. Я поражен тем, что он может скопировать в автономном режиме.
Эта программа сделает все, что вы от нее потребуете.
Счастливой охоты!
Wget - это классический инструмент командной строки для решения подобных задач. Он поставляется с большинством систем Unix/Linux, и вы можете получить его для Windows тоже. На Mac проще всего установить Homebrew (
brew install wget
).Вы сделаете примерно следующее:
Для получения более подробной информации смотрите Руководство по Wget и его примеры, или, например, эти:
wget: Легкая загрузка целых веб-сайтов.
Примеры и скрипты Wget
Использовать wget:
Нужным объяснить:
Вы должны взглянуть на фотоальбом, расширение Firefox. Он имеет углубленный режим съемки.
Менеджер закачек интернет имеет сайта утилита граббер с большим количеством опций - которая позволяет полностью загрузить любой сайт вы хотите, как вы этого хотите.
Вы можете установить ограничение на размер страницы/файлы для скачивания
Вы можете установить количество филиалов посетить
Вы можете изменить скрипты/всплывающие окна/вести дубликатов
Вы можете указать домен, только в домене все страницы/файлы совещание необходимые параметры будут загружены
Ссылки могут быть преобразованы в автономные ссылки для просмотра
У вас есть шаблоны, которые позволяют выбрать параметры для вас
Однако программное обеспечение не является бесплатным - увидеть, если она соответствует вашим потребностям, используйте пробную версию.
itsucks - что'ы название программы!
Я'обращусь к онлайн-буферизации, которую используют браузеры...
Как правило, большинство браузеров используют кэш браузера для хранения файлов, которые вы загружаете с веб-сайта, чтобы вам не приходилось загружать статичные изображения и контент снова и снова. При некоторых обстоятельствах это может значительно ускорить работу. Вообще говоря, кэш браузера ограничен фиксированным размером, и когда он достигнет этого предела, он удалит самые старые файлы в кэше.
Интернет-провайдеры обычно имеют кэш-серверы, которые хранят копии часто посещаемых сайтов, таких как ESPN и CNN. Это избавляет их от необходимости посещать эти сайты каждый раз, когда кто-то в их сети заходит на них. Это может значительно сократить количество дублированных запросов к внешним сайтам провайдера.
Мне нравится оффлайн Эксплорер.<БР/> Это'ы условно, но это's очень хороший и простой в использовании.
Я не занимаюсь этим много лет, но есть еще несколько утилит там. Вы могли бы хотеть попробовать веб-змеи. Я считаю, что я использовал его лет назад. Я вспомнил сразу, когда я прочитал Ваш вопрос.
Я согласен с Stecy. Пожалуйста, не забивайте свой сайт. Очень Плохо.
WebZip это также хороший продукт.
Попробуйте Бэкстрит Браузер.
Создан downthemall - это дополнения Firefox, которые позволят скачать все содержимое (аудио или видео файлы, к примеру) для конкретной веб-страницы в один клик. Это не'т скачать весь сайт, но это может быть вещь, вопрос был ищу.
Телепорт Pro другое бесплатное решение, которое позволит копировать любые файлы и от того, что ваша цель (также есть платная версия, которая позволит вам тянуть больше страниц контента).
Для Linux и OS Х: я написал хапнуть-сайт для архивирования целых веб-сайтов [ВАКР](http://www.archiveteam.org/index.php?title=The_WARC_Ecosystem файлы). Эти файлы ВАРК может быть просматривать или извлечен. хапнуть-сайт позволяет вам контролировать, какие URL-адреса, чтобы пропустить с помощью регулярных выражений, и они могут быть изменены для обхода работает. Он также поставляется с обширной набор по умолчанию для игнорирования ненужных URL-адреса.
Есть веб-панель для мониторинга пролезает, а также дополнительные параметры для пропуска видео или ответы, превышающие определенный размер.
Сила команды wget
В то время как через wget уже упоминался этот ресурс и командной строки был настолько незаметным, что я думал, что это заслуживает упоминания:
с wget -П /путь/к/назначения/каталог/ -mpck --юзер-агент=" и" по-е роботы=выключить-подождать 1 -е https://www.example.com/
См. этот код объяснить на explainshell
Сохранить страницу мы
Отличное расширение для Chrome и Firefox, которое загружает большинство/все веб-страницы'ов и сохраняет его непосредственно в
.HTML-файл
.Расширение Гугл Хром
Дополнение Для Firefox
Я заметил, что на странице фотогалерея я попробовал его на, это спасло эскизы, но не полные образы. Или, может, просто не Javascript, чтобы открыть полноценные эскизы.
Но, он работал лучше, чем через wget, PDF, и т. д. Отличное простое решение для большинства людей's потребности.
Почтенный FreeDownloadManager.org тоже есть эта функция.
Бесплатный менеджер загрузки его в двух формах, в двух формах: сайт Explorer и сайт Spider:
Я считаю, обозреватель сайта полезно, чтобы увидеть, какие папки, чтобы включить/исключить прежде чем пытаться загрузить весь сайт, особенно когда есть все скрывается на сайте, что вы Don'т хочу скачать к примеру форум.
Вы можете использовать ниже бесплатный онлайн-инструментов, которые сделают zip-файл все содержимое входит в этот URL
скачать HTTracker он будет загружать сайты очень простых шага к следующему.
ссылка для скачивания:http://ВСП.вышла.ком/страницы/2/
видео, что помочь может помочь вам :https://www.youtube.com/watch?v=7IHIGf6lcL4
Firefox может сделать это изначально (по крайней мере ФФ 42 можно). Просто использовать и"Сохранить и"