Качалка сайтов целиком: Cкачать WebTransporter 3.42 (Windows)

7 утилит для скачивания сайта в офлайн

Порой бывает, что нам необходимо изучить какой-либо ресурс в режиме офлайн. Ситуации могут быть разные: отсутствие подключения к интернету, сайт либо его домен переезжает, ведутся ремонтные работы. Или конкретный ресурс вам очень привлекателен своим содержанием, но нет гарантий его долговременного существования в сети. Но, как известно, выход есть всегда. Представляем вашему вниманию лучшие сервисы для загрузки любого сайта и дальнейшего его изучения в офлайн-режиме.

HTTrack

Этот сервис относится к бесплатным. В его функцию входит загрузка любого сайта для работы с последним без подключения к интернету. Технология основана на перекачке всех данных на ваш винчестер. В указанном вами месте будут сохранены все html-странички, изображения, видео (то есть весь полезный контент).

Программа HTTrack скопирует структурное расположение составляющих сайта. По окончании процедуры вам необходимо через свой браузер открыть файлы, скопированные на жёсткий диск. Также через некоторое время вы можете обновить состояние сайта при подключении к интернету, если знаете, что за это время на ресурсе что-то изменилось. Следует отметить, что загрузки, прерванные в момент копирования, догружаются автоматически. Программу можно настроить на свой лад, следуя встроенным инструкциям.

Скачать

GetLeft

Данный софт удобен тем, что начинает скачивание сайта с определёнными вами настройками при указании его адреса. Во время перекачки данных GetLeft автоматически произведёт коррекцию страниц и замену ссылок на относительные. Вы сможете на закачанном сайте переходить по ссылкам, как при подключении к интернету. Кроме того, изучив структуру сайта и его карту распределения страниц, вы можете отказаться от загрузки некоторых файлов либо разделов. Эта программа отлично работает со средними либо с многостраничными ресурсами при условии исключения больших файлов. Также тут имеется поддержка 14 языков.

Скачать

Cyotek Webcopy

Данная программа подходит для полной и раздельной закачки сайта, чтобы в последующем пользоваться им без подключения к сети. Весь процесс перекачки начинается со сканирования, после чего ссылки изображений, медиафайлов, статей и прочего переназначаются для сохранности структуры на жёстком диске. Программа, изучив код сайта и расположение ссылок в его строении, такую же структуру сохраняет на ваш винчестер. Cyotek Webcopy полностью бесплатен, обладает понятным и удобным интерфейсом.

Скачать

SiteSucker

Данное приложение функционирует только на системе Mac. Его назначением является копирование структуры и контента сайта в автоматическом режиме. После ввода и подтверждения интересующего вас URL в точности копируется всё, что касается рабочего ресурса. Все данные сохраняются в определённом документе, доступном для сопутствующих программ в любое время.

Стоит также отметить, что при закачке ресурса можно определить конечный язык его отображения. Перекачанный таким образом сайт будет уже на удобном для вас языке без изменения структуры, расположения мультимедиа файлов и без привязки к интернет-соединению. В арсенале программы имеются следующие языки: английский, французский, немецкий, итальянский, португальский и испанский.

Скачать

GrabzIt

Программа отличается от остальных своей возможностью извлечения информации (работает даже с документами PDF). Всё начинается с определения закачиваемого сайта либо нужных разделов, данных, а также места их распаковки на компьютере. Потом следует обозначить способ упаковки. В программе имеется свой специальный браузер, который позволяет скопировать абсолютно все данные (как динамические, так и статические) без нарушения какой-либо их составляющей. Преимуществом данной программы является то, что после распаковки страниц и файлов мультимедиа вы сможете пользоваться всем функционалом сайта, будто он открыт в интернете.

Скачать

Teleport Pro

Этот инструмент позиционируется как сборщик данных из сети. Его прямым назначением является проникновение на запароленные сайты. Он способен фильтровать файлы по типу и производить поиск по ключевым фразам. Teleport без труда осилит сайт любого размера. Посредством многостороннего сканирования он поэтапно обрабатывает все данные. Это позволяет снизить время обработки конкретного сайта.

К функциям программы также относится поиск файлов по ключевикам на заданном ресурсе. Перекачка возможна полностью либо частями с сохранением всех работающих ссылок, файлов любого размера и типа, с любым способом взаимодействия программного кода и элементов дизайна.

Скачать

Fresh WebSuction

Программа разработана как браузер для Windows. Но в её функцию входит не только просмотр интернет-порталов. Это также загрузчик последних вариантов страниц сайта для просмотра их в офлайн-режиме. Располагаться они будут на диске компьютера. Выбор элементов загрузки неограничен. Весь контент частично либо полностью будет доступен в автономном режиме.

Скачать




Теги:
Windows
macOS
android
web
HTTrack
GetLeft
Cyotek Webcopy
SiteSucker
GrabzIt
Teleport Pro
Fresh WebSuction

Новинки IT-индустрии, обзоры и тесты компьютеров и комплектующих

  • ПК и комплектующие
    • Настольные ПК и моноблоки
    • Портативные ПК
    • Серверы
    • Материнские платы
    • Корпуса
    • Блоки питания
    • Оперативная память
    • Процессоры
    • Графические адаптеры
    • Жесткие диски и SSD
    • Оптические приводы и носители
    • Звуковые карты
    • ТВ-тюнеры
    • Контроллеры
    • Системы охлаждения ПК
    • Моддинг
    • Аксессуары для ноутбуков
  • Периферия
    • Принтеры, сканеры, МФУ
    • Мониторы и проекторы
    • Устройства ввода
    • Внешние накопители
    • Акустические системы, гарнитуры, наушники
    • ИБП
    • Веб-камеры
    • KVM-оборудование
  • Цифровой дом
    • Сетевые медиаплееры
    • HTPC и мини-компьютеры
    • ТВ и системы домашнего кинотеатра
    • Технология DLNA
    • Средства управления домашней техникой
  • Гаджеты
    • Планшеты
    • Смартфоны
    • Портативные накопители
    • Электронные ридеры
    • Портативные медиаплееры
    • GPS-навигаторы и трекеры
    • Носимые гаджеты
    • Автомобильные информационно-развлекательные системы
    • Зарядные устройства
    • Аксессуары для мобильных устройств
  • Фото и видео
    • Цифровые фотоаппараты и оптика
    • Видеокамеры
    • Фотоаксессуары
    • Обработка фотографий
    • Монтаж видео
  • Программы и утилиты
    • Операционные системы
    • Средства разработки
    • Офисные программы
    • Средства тестирования, мониторинга и диагностики
    • Полезные утилиты
    • Графические редакторы
    • Средства 3D-моделирования
  • Мир интернет
    • Веб-браузеры
    • Поисковые системы
    • Социальные сети
    • «Облачные» сервисы
    • Сервисы для обмена сообщениями и конференц-связи
    • Разработка веб-сайтов
    • Мобильный интернет
    • Полезные инструменты
  • Безопасность
    • Средства защиты от вредоносного ПО
    • Средства управления доступом
    • Защита данных
  • Сети и телекоммуникации
    • Проводные сети
    • Беспроводные сети
    • Сетевая инфраструктура
    • Сотовая связь
    • IP-телефония
    • NAS-накопители
    • Средства управления сетями
    • Средства удаленного доступа
  • Корпоративные решения
    • Системная интеграция
    • Проекты в области образования
    • Электронный документооборот
    • «Облачные» сервисы для бизнеса
    • Технологии виртуализации

Наш канал на Youtube

Архив изданий

1999123456789101112
2000123456789101112
2001123456789101112
2002123456789101112
2003123456789101112
2004123456789101112
2005123456789101112
2006123456789101112
2007123456789101112
2008123456789101112
2009123456789101112
2010123456789101112
2011123456789101112
2012123456789101112
2013123456789101112
  • О нас
  • Размещение рекламы
  • Контакты

Популярные статьи

Моноблок HP 205 G4 22 AiO — одно из лучших решений для офисной и удаленной работы

В настоящем обзоре мы рассмотрим модель моноблока от компании HP, которая является признанным лидером в производстве компьютеров как для домашнего использования, так и для офисов. Моноблок HP 205 G4 22 — модель нового семейства, которая построена на базе процессоров AMD последнего поколения и отличается неплохой производительностью вкупе с привлекательной ценой

Logitech G PRO X Superlight — легкая беспроводная мышь для профессиональных киберспортсменов

Швейцарская компания Logitech G представила беспроводную игровую мышь Logitech G PRO X Superlight. Новинка предназначена для профессиональных киберспортсменов, а слово Superlight в ее названии указывает на малый вес этой модели, который не превышает 63 г. Это почти на четверть меньше по сравнению с анонсированным пару лет тому назад манипулятором Logitech G PRO Wireless

Материнская плата для домашнего майнинга ASRock h210 Pro BTC+

Как показало недавнее исследование Кембриджского университета — количество людей, которые пользуются сегодня криптовалютами, приближается к размеру населения небольшой страны и это только начало, мир меняется. Поэтому компания ASRock разработала и выпустила в продажу весьма необычную материнскую плату — h210 PRO BTC+, которую мы и рассмотрим в этом обзоре

Верхняя панель клавиатуры Rapoo Ralemo Pre 5 Fabric Edition обтянута тканью

Компания Rapoo анонсировала в Китае беспроводную клавиатуру Ralemo Pre 5 Fabric Edition. Новинка выполнена в формате TKL (без секции цифровых клавиш) и привлекает внимание оригинальным дизайном. Одна из отличительных особенностей этой модели — верхняя панель, обтянутая тканью с меланжевым рисунком

Изогнутый экран монитора MSI Optix MAG301 CR2 обеспечит максимальное погружение в игру

Линейку компьютерных мониторов MSI пополнила модель Optix MAG301 CR2, адресованная любителям игр. Она оборудована ЖК-панелью типа VA со сверхширокоформатным (21:9) экраном изогнутой формы (радиус закругления — 1,5 м). Его размер — 29,5 дюйма по диагонали, разрешение — 2560×1080 пикселов

Комплект SilverStone MS12 позволяет превратить SSD типоразмера M.2 2280 в портативный накопитель

Каталог продукции компании SilverStone пополнил комплект MS12. Он позволяет создать портативный накопитель на базе стандартного SSD типоразмера M.2 2280 с интерфейсом PCI Express

SSD-накопители ADATA XPG Spectrix S20G сочетают производительность с эффектным дизайном

Компания ADATA Technology анонсировала твердотельные накопители серии XPG Spectrix S20G. Они предназначены для оснащения игровых ПК и, как утверждают их создатели, сочетают высокую производительность и эффектный внешний вид

Видеокарта ASUS GeForce RTX 3070 Turbo оснащена системой охлаждения с одним центробежным вентилятором

Линейку видеоадаптеров ASUS на базе графических процессоров NVIDIA пополнила модель GeForce RTX 3070 Turbo (заводской индекс TURBO-RTX3070-8G), предназначенная для оснащения игровых ПК. Одной из особенностей новинки является конструкция системы охлаждения

КомпьютерПресс использует

Как загрузить весь веб-сайт для чтения в автономном режиме

Несмотря на то, что в наши дни Wi-Fi доступен везде, тем не менее время от времени вы можете оказаться без него. И когда вы это сделаете, могут быть веб-сайты, которые вы хотели бы сохранить, чтобы иметь к ним доступ в автономном режиме — возможно, для исследований, развлечения или даже просто для потомков.

Довольно просто сохранить отдельные веб-страницы для чтения в автономном режиме, но что, если вы хотите загрузить весь веб-сайт? Не волнуйтесь, это проще, чем вы думаете. Но не верьте нам на слово. Вот несколько отличных инструментов, которые вы можете использовать для загрузки любого веб-сайта для чтения в автономном режиме — без каких-либо проблем.

1. Веб-копия

WebCopy от Cyotek берет URL-адрес веб-сайта и сканирует его на наличие ссылок, страниц и мультимедиа. По мере нахождения страниц он рекурсивно ищет дополнительные ссылки, страницы и мультимедиа, пока не будет обнаружен весь веб-сайт. Затем вы можете использовать параметры конфигурации, чтобы решить, какие части загружать в автономном режиме.

Что интересно в WebCopy, так это то, что вы можете настроить несколько проектов, каждый из которых имеет свои собственные настройки и конфигурации. Это упрощает повторную загрузку многих сайтов в любое время; каждый, таким же образом каждый раз.

Один проект может копировать множество веб-сайтов, поэтому используйте их по организованному плану (например, проект «Технический» для копирования технических сайтов).

Как загрузить весь веб-сайт с помощью WebCopy

  1. Установите и запустите приложение.
  2. Перейдите к File > New , чтобы создать новый проект.
  3. Введите URL-адрес в поле Веб-сайт .
  4. Измените поле Сохранить папку на место, где вы хотите сохранить сайт.
  5. Поиграйте с Project > Rules… (подробнее о правилах WebCopy).
  6. Перейдите к Файл > Сохранить как… , чтобы сохранить проект.
  7. Нажмите Копировать на панели инструментов, чтобы начать процесс.

После завершения копирования вы можете использовать вкладку Результаты для просмотра состояния каждой отдельной страницы и/или медиафайла. На вкладке Errors показаны все проблемы, которые могли возникнуть, а на вкладке Skiped показаны файлы, которые не были загружены. Но самое главное Карта сайта , которая показывает полную структуру каталогов веб-сайта, обнаруженную WebCopy.

Чтобы просмотреть веб-сайт в автономном режиме, откройте проводник и перейдите к сохраненной папке, которую вы ранее указали. Откройте index.html (или иногда index.htm ) в выбранном вами браузере, чтобы начать просмотр. Как видите, это сильно отличается от сохранения отдельных веб-страниц через приложения, еще одна практика, которая также слишком распространена в наши дни.

Загрузка: WebCopy для Windows (бесплатно)

2. HTTrack

HTTrack более известен, чем WebCopy, и, возможно, лучше, поскольку он имеет открытый исходный код и доступен на платформах, отличных от Windows. Интерфейс немного неуклюжий и оставляет желать лучшего, однако он работает хорошо, так что пусть это вас не смущает.

Как и WebCopy, он использует подход, основанный на проектах, который позволяет копировать несколько веб-сайтов и упорядочивать их. Вы можете приостанавливать и возобновлять загрузку, а также обновлять скопированные веб-сайты, повторно загружая старые и новые файлы.

Как загрузить полный веб-сайт с помощью HTTrack

  1. Установите и запустите приложение.
  2. Нажмите Next , чтобы начать создание нового проекта.
  3. Дайте проекту имя, категорию, базовый путь, затем нажмите Next .
  4. Выберите Загрузить веб-сайт(ы) для действия, затем введите URL-адрес каждого веб-сайта в поле Веб-адреса , по одному URL-адресу в строке. Вы также можете сохранить URL-адреса в файле TXT и импортировать его, что удобно, когда вы хотите повторно загрузить те же сайты позже. Нажмите Следующий .
  5. Настройте параметры, если хотите, затем нажмите Готово .

После того, как все загружено, вы можете нормально просматривать сайт, просто перейдя туда, где были загружены файлы, и открыв index.html или index.htm в браузере.

Как использовать HTTrack с Linux

Если вы являетесь пользователем Ubuntu, вот как вы можете использовать HTTrack для сохранения всего веб-сайта:

  1. Запуск терминала и введите следующую команду:
     sudo apt-get install httrack 
  2. Он запросит ваш пароль Ubuntu (если вы его установили). Введите его и нажмите Введите . Терминал загрузит инструмент через несколько минут.
  3. Наконец, введите эту команду и нажмите Введите . Для этого примера мы загрузили популярный веб-сайт Brain Pickings.
     httrack https://www.brainpickings.org/ 
  4. Это загрузит весь веб-сайт для чтения в автономном режиме.

Здесь вы можете заменить URL-адрес веб-сайта на URL-адрес любого веб-сайта, который вы хотите загрузить. Например, если вы хотите загрузить всю Британскую энциклопедию, вам нужно настроить команду так:

.

 httrack https://www.britannica.com/ 

Скачать: HTTrack для Windows и Linux | Android (бесплатно)

3. SiteSucker

Если вы работаете на Mac, лучшим вариантом будет SiteSucker . Этот простой инструмент копирует целые веб-сайты, сохраняет ту же структуру и включает все соответствующие медиафайлы (например, изображения, PDF-файлы, таблицы стилей).

Он имеет чистый и простой в использовании интерфейс — вы буквально вставляете URL-адрес веб-сайта и нажимаете Введите .

Одной из его отличных функций является возможность сохранить текущую загрузку в файл, а затем использовать этот файл для повторной загрузки тех же файлов и структуры в будущем (или на другом компьютере). Эта функция также позволяет SiteSucker приостанавливать и возобновлять загрузку.

SiteSucker стоит около 5 долларов и не поставляется с бесплатной версией или бесплатной пробной версией, что является его самым большим недостатком. Для последней версии требуется macOS 11 Big Sur или выше. Старые версии SiteSucker доступны для старых систем Mac, но некоторые функции могут отсутствовать.

Загрузить : SiteSucker для iOS | Mac (4,99 долл. США)

4. Wget

Wget — это утилита командной строки, которая может извлекать все типы файлов по протоколам HTTP и FTP. Поскольку веб-сайты обслуживаются через HTTP, а большинство файлов веб-медиа доступны через HTTP или FTP, это делает Wget отличным инструментом для загрузки целых веб-сайтов.

Wget поставляется в комплекте с большинством систем на базе Unix. Хотя Wget обычно используется для загрузки отдельных файлов, его также можно использовать для рекурсивной загрузки всех страниц и файлов, найденных на начальной странице:

 wget -r -p https://www.makeuseof.com 

В зависимости от размера загрузка всего веб-сайта может занять некоторое время.

Однако некоторые сайты могут обнаруживать и предотвращать то, что вы пытаетесь сделать, потому что копирование веб-сайта может стоить им большой пропускной способности. Чтобы обойти это, вы можете замаскироваться под веб-браузер с помощью строки пользовательского агента:

 wget -r -p -U Mozilla https://www.thegeekstuff.com 

Если вы хотите быть вежливым, вы также должны ограничьте скорость загрузки (чтобы не перегружать полосу пропускания веб-сервера) и сделайте паузу между каждой загрузкой (чтобы не перегружать веб-сервер слишком большим количеством запросов):

 wget -r -p -U Mozilla --wait=10 --limit-rate=35K https://www. thegeekstuff.com 

Как использовать Wget на Mac

На Mac можно установить Wget с помощью одной команды Homebrew: brew install wget .

  1. Если у вас еще не установлен Homebrew, загрузите его с помощью этой команды:
     /usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/ install)" 
  2. Затем установите Wget с помощью этой команды:
     brew install wget 
  3. После завершения установки Wget вы можете загрузить веб-сайт с помощью этой команды: вместо этого нужно будет использовать эту портированную версию. Загрузите и установите приложение и следуйте инструкциям, чтобы завершить загрузку с сайта.

    5. Teleport Pro

    Получить Teleport Pro. Шутки в сторону. Хотя последняя версия приложения была выпущена еще в 2015 году, оно работает так же хорошо, как и тогда.

    Помимо простой загрузки всего веб-сайта, приложение также содержит множество других функций и хитростей. Например, когда вы загружаете и устанавливаете приложение, в главном меню приложения вы увидите следующие опции на выбор:

    • Создать копию веб-сайта на жестком диске.
    • Дублировать весь веб-сайт вместе со структурой каталогов.
    • Поиск на сайте определенных типов файлов.
    • Поиск веб-сайта по заданным ключевым словам.
    • Навигация по всем сайтам, связанным с центральным сайтом.

    Эти и множество других подобных функций делают это приложение удобной программой для вашего инструментария. Единственным недостатком, который мы обнаружили, было ограничение на бесплатную версию. Используя незарегистрированную версию, вы можете скопировать только 500 страниц в одном проекте. Более того, вы можете использовать его всего 40 раз, после чего вам придется приобрести премиум-версию.

    Скачать: Teleport Pro для Windows (бесплатная пробная версия, доступна платная версия)

    Простая загрузка целых веб-сайтов

    Теперь, когда вы знаете, как загружать весь веб-сайт, вы никогда не останетесь без чтения, даже если у вас нет доступа в Интернет.

    Но помните: чем больше сайт, тем больше загрузка. Поэтому мы не рекомендуем загружать большие сайты, такие как MUO, потому что вам потребуются тысячи МБ для хранения всех медиафайлов, которые используют такие сайты.

    Как загрузить весь веб-сайт?

    спросил

    Изменено
    5 месяцев назад

    Просмотрено
    1,0 м раз

    Как загрузить все страницы с веб-сайта?

    Подойдет любая платформа.

    • скачать
    • веб-сайт
    • веб-сайт

    9

    HTTRACK отлично справляется с копированием содержимого всего сайта. Этот инструмент может даже взять части, необходимые для того, чтобы веб-сайт с активным содержимым кода работал в автономном режиме. Я поражен тем, что он может воспроизводить в автономном режиме.

    Эта программа сделает все, что вам нужно.

    Удачной охоты!

    18

    Wget — классический инструмент командной строки для такого рода задач. Он поставляется с большинством систем Unix/Linux, и вы также можете получить его для Windows. На Mac установить Homebrew проще всего ( brew install wget ).

    Вы должны сделать что-то вроде:

     wget -r --no-parent http://site.com/songs/
     

    Дополнительные сведения см. в Руководстве по Wget и его примерах, или, например. эти:

    • wget: Легко загружать сайты целиком

    • Примеры и сценарии Wget

    14

    Используйте wget:

     wget -m -p -E -k www.example.com
     

    Объяснение параметров:

     -m, --mirror Включает рекурсию и отметку времени, устанавливает бесконечность
                              глубина рекурсии и сохраняет списки каталогов FTP. 
    -p, --page-requisites Получить все изображения и т. д., необходимые для отображения HTML-страницы.
    -E, --adjust-extension Сохранять файлы HTML/CSS с расширениями .html/.css.
    -k, --convert-links Ссылки в загруженном HTML указывают на локальные файлы.
    -np, --no-parent Не подниматься в родительский каталог при извлечении
                            рекурсивно. Это гарантирует, что только файлы ниже
                            будет загружена определенная иерархия. Требуется косая черта
                            в конце каталога, например. пример.com/foo/.
     

    19

    Вам следует взглянуть на ScrapBook, расширение для Firefox. Есть режим глубокого захвата.

    2

    Internet Download Manager имеет утилиту Site Grabber с множеством опций, которая позволяет вам полностью загружать любой веб-сайт так, как вы хотите.

    1. Вы можете установить ограничение на размер загружаемых страниц/файлов

    2. Вы можете установить количество сайтов филиалов для посещения

    3. Вы можете изменить поведение скриптов/попапов/дубликатов

    4. Можно указать домен, только под этим доменом будут загружаться все страницы/файлы, отвечающие требуемым параметрам

    5. Ссылки могут быть преобразованы в автономные ссылки для просмотра

    6. У вас есть шаблоны, которые позволяют выбрать указанные выше настройки за вас

    Однако это программное обеспечение не является бесплатным — посмотрите, подходит ли оно вам, используйте ознакомительную версию.

    Мне нравится Offline Explorer.
    Это условно-бесплатная программа, но она очень хороша и проста в использовании.

    1

    Teleport Pro — еще одно бесплатное решение, которое скопирует любые файлы из любого источника (у него также есть платная версия, которая позволит вам извлекать больше страниц контента).

    Попробуйте BackStreet Browser.

    Это бесплатный, мощный автономный браузер. Высокоскоростной, многопоточный
    программа для скачивания и просмотра сайта. Делая несколько одновременных
    запросов сервера, BackStreet Browser может быстро загружать целые
    веб-сайт или часть сайта, включая HTML, графику, Java-апплеты,
    звук и другие определяемые пользователем файлы, а также сохраняет все файлы в вашем
    жесткий диск либо в исходном формате, либо в виде сжатого ZIP-файла
    и смотреть офлайн.

    Для Linux и OS X: я написал сайт захвата для архивирования целых веб-сайтов в файлы WARC. Эти файлы WARC можно просматривать или извлекать. Grab-site позволяет вам контролировать, какие URL-адреса пропускать, используя регулярные выражения, и их можно изменить во время сканирования. Он также поставляется с обширным набором значений по умолчанию для игнорирования нежелательных URL-адресов.

    Существует веб-панель для мониторинга сканирования, а также дополнительные параметры для пропуска видеоконтента или ответов, превышающих определенный размер.

    Хотя wget уже упоминался, этот ресурс и командная строка были настолько бесшовными, что я подумал, что они заслуживают упоминания:
    wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/

    См. этот код объяснено на объяснительной оболочке

    Вы можете использовать приведенные ниже бесплатные онлайн-инструменты, которые создадут zip-файл со всем содержимым, включенным в этот URL-адрес

    • http://web2zip.com/
    • https://www6. waybackmachinedownloader.com/website-downloader-online/

    Cyotek WebCopy тоже неплохой вариант.
    В моей ситуации при попытке загрузить сайт DokuWiki в настоящее время отсутствует поддержка CSRF/SecurityToken.
    Вот почему я на самом деле выбрал Offline Explorer, как уже говорилось в ответе выше.

    В моем случае я хотел скачать не весь сайт, а только
    поддомен, включая все его субдомена.

    В качестве примера я попробовал:

     wget -E -k -m -np -p https://www.mikedane.com/web-development/html/index.html
     

    , который работал просто отлично.

    По моему опыту, не всегда получаются все поддомены или
    PDF:s, но я сделал полнофункциональную копию, которая отлично работает
    не в сети.

    Вот значения флагов, которые я использовал, согласно
    справочная страница Linux:

    -E   – к локальному имени файла будет добавлен суффикс .html.
    -k   — преобразует ссылки, чтобы сделать их пригодными для локального просмотра.
    -m    — включает рекурсию и отметку времени, бесконечную глубину рекурсии. скачанный
    -p   — загрузить все файлы, необходимые для правильного отображения страниц

    Веб-сайт A1. Еще один вариант — загрузить для Windows и Mac. Инструмент существует уже почти 15 лет и постоянно обновляется. Он имеет отдельные параметры фильтрации сканирования и загрузки, каждый из которых поддерживает сопоставление шаблонов для «ограничить» и «исключить».

    1

    Почтенный FreeDownloadManager.org также имеет эту функцию.

    Free Download Manager имеет две формы в двух формах: Site Explorer и Site Spider:

    Site Explorer
    Site Explorer позволяет просматривать структуру папок
    веб-сайт и легко загружать необходимые файлы или папки.
    HTML Spider
    Вы можете загружать целые веб-страницы или даже целые веб-сайты с помощью HTML
    Паук.

Leave a Comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *