Non vuoi solo un articolo o un'immagine individuale, vuoi iltotale sito web. Qual è il modo più semplice per sifonarti tutto?
La sessione di domande e risposte di oggi ci viene fornita per gentile concessione di SuperUser, una suddivisione di Stack Exchange, un raggruppamento di domande e risposte basato sulla comunità.
Immagine disponibile come sfondo a GoodFon.
La domanda
Il lettore SuperUser Joe ha una semplice richiesta:
How can I download all pages from a website?
Any platform is fine.
Ogni pagina, nessuna eccezione. Joe è in missione.
La risposta
Il collaboratore di SuperUser Axxmasterr offre una raccomandazione per l'applicazione:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Possiamo tranquillamente raccomandare HTTRACK. È un'applicazione matura che fa il lavoro. Che dire degli archivisti su piattaforme non Windows? Un altro contributore, Jonik, suggerisce un altro strumento maturo e potente:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
Per maggiori dettagli, vedi Wget Manual e i suoi esempi, o dai uno sguardo a questi:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Hai qualcosa da aggiungere alla spiegazione? Sound off nei commenti. Vuoi leggere più risposte dagli altri utenti di Stack Exchange esperti di tecnologia? Controlla la discussione completa qui.