Descargar una web completa con wget

“Wget” es una herramienta (para mi la mejor que existe) que permite la descarga no interactiva de contenidos desde servidores HTTP, HTTPS y FTP. Es una herramienta terriblemente potente para descargar de la Web, y con un poco de imaginación es posible utilizarla para descargar tanto sites completos como páginas individuales. Se utiliza con el Sistema Operativo Linux (en todas sus versiones). Vemos un ejemplo para el primer caso: (Escribir en el terminal….)

wget --recursive --level=50 -p http://www.cpr1.es/tic

Ese comando lo que hará es ejecutar wget de forma recursiva (para descargar la página y todas las páginas a las que enlaza), hasta el nivel 10 de profundidad (es decir, a lo que llegaríamos haciendo clic en máximo 10 enlaces), guardando los archivos auxiliares (para eso es el parámetro -p) y convirtiendo los enlaces a los de las descargas locales si se realizan (si no se mantienen las referencias a archivos remotos). Escribimos ese comando en la terminal, esperamos y… ya está. No se descargarán archivos de dominios distintos por defecto.

Si queremos hacer la copia de todo el sitio Web podemos poner inf como número de niveles a descargar, pero para evitar sobrecargar el servidor yo añadiría una opción extra: –wait=30 hará que wget espere 30 segundos entre descarga y descarga. wget puede ser usado para mucho más, pero para el propósito de ese artículo nos valdrá con esos parámetros.

(Fuente: Portal TIC del CPR 1 de Zaragoza)

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *