Jak mohu stáhnout celý web?
Nechcete jen chcete článek nebo individuální obrázek, který chcete Celý webová stránka. Jaký je nejjednodušší způsob, jak to všechno sifonovat?
Dnešní zasedání Otázky a odpovědi nás přichází s laskavým svolením SuperUser - podřízené rozdělení Stack Exchange, které je založeno na komunitě prostřednictvím skupin webových stránek.
Obrázek je k dispozici jako tapeta na GoodFon.
Otázka
Čtečka SuperUser Joe má jednoduchý požadavek:
Jak mohu stáhnout všechny stránky z webových stránek?
Každá platforma je v pořádku.
Každá stránka, bez výjimky. Joe je na misi.
Odpověď
Doprovod SuperUser Axxmasterr nabízí doporučení pro aplikaci:
http://www.httrack.com/
HTTRACK funguje jako šampion pro kopírování obsahu celého webu. Tento nástroj může dokonce uchopit kusy potřebné k tomu, aby web s aktivním kódovým obsahem pracoval offline. Jsem ohromen na věci, které lze replikovat offline.
Tento program udělá vše, co od něj potřebujete.
Šťastný lov!
Srdečně můžeme doporučit HTTRACK. Je to zralá aplikace, která dělá tuto práci. A co archiváři na platformách jiných než Windows? Jiný přispěvatel Jonik navrhuje další zralý a výkonný nástroj:
Wget je klasický nástroj příkazového řádku pro tento druh úkolu. Dodává se s většinou systémů Unix / Linux a můžete je získat také pro Windows (k dispozici je i 1.13.4).
Udělali byste něco jako:
wget -r - ne-nadřazený http://site.com/songs/
Další podrobnosti naleznete v příručce Wget Manual a jejích příkladech, nebo si je můžete prohlédnout:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Musíte něco přidat k vysvětlení? Vypadněte v komentářích. Chcete se dozvědět více odpovědí od ostatních uživatelů technologie Stack Exchange? Podívejte se na celý diskusní příspěvek zde.