Не искаш просто да си създадеш статия или индивидуалното изображение, което искашцяло уеб сайт. Какъв е най-лесният начин да ги изцеждате?
Днешната сесия за въпроси и отговори ни идва с любезното съдействие на SuperUser - подразделение на Stack Exchange - обединяване на уеб сайтове с въпроси и отговори.
Изображението е налице като тапет в GoodFon.
Въпроса
Reader на SuperUser Джо има проста молба:
How can I download all pages from a website?
Any platform is fine.
Всяка страница, без изключение. Джо е на мисия.
Отговорът
Доставчикът на SuperUser Axxmasterr предлага препоръка за приложение:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Можем с удоволствие да препоръчваме HTTRACK. Това е зряло приложение, което изпълнява задачата. А архивистите на платформи, които не са на Windows? Друг сътрудник, Jonik, предлага още един зрял и мощен инструмент:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
За повече подробности вижте ръководството на Wget и неговите примери или разгледайте ги:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Имате ли нещо, което да добавите към обяснението? Звучи в коментарите. Искате ли да прочетете повече отговори от други потребители на Stack Exchange? Вижте цялата тема на дискусията тук.