Hvordan kan jeg laste ned et helt nettsted?

Hvordan kan jeg laste ned alle sidene fra et nettsted?

Alle plattformer kan brukes.

Løsning

HTTRACK fungerer som en mester for å kopiere innholdet på et helt nettsted. Dette verktøyet kan til og med hente de delene som trengs for å få et nettsted med aktivt kodeinnhold til å fungere offline. Jeg er forbløffet over alt det kan kopiere offline.

Dette programmet vil gjøre alt du trenger av det.

God jakt!

Kommentarer (13)

Wget er et klassisk kommandolinjeverktøy for denne typen oppgaver. Det følger med de fleste Unix/Linux-systemer, og du kan også få det for Windows. På en Mac er Homebrew den enkleste måten å installere det på (brew install wget).

Du gjør noe sånt som:

wget -r --no-parent http://site.com/songs/

For mer informasjon, se Wget Manual og dens eksempler, eller f.eks. disse:

Kommentarer (10)

Jeg vil ta for meg nettbufringen som nettlesere bruker...

Vanligvis bruker de fleste nettlesere en nettleserbuffer for å holde på filene du laster ned fra et nettsted en stund, slik at du slipper å laste ned statiske bilder og innhold om og om igjen. Dette kan øke hastigheten ganske mye under noen omstendigheter. Generelt sett er de fleste nettleserbuffer begrenset til en fast størrelse, og når den når denne grensen, vil den slette de eldste filene i hurtigbufferen.

Internett-leverandører har gjerne caching-servere som lagrer kopier av ofte besøkte nettsteder som ESPN og CNN. Dette sparer dem for bryet med å treffe disse nettstedene hver gang noen på nettverket deres går dit. Dette kan utgjøre en betydelig besparelse i antall dupliserte forespørsler til eksterne nettsteder til Internett-leverandøren.

Kommentarer (0)