Esploratore

Esploratore

SCARICA FILE CON WGET

Posted on Author Yozshukora Posted in Internet


    Contents
  1. Comando wget per scaricare un file e salvare come nome file diverso
  2. A proposito di wget
  3. Wget - L'arte della copia
  4. Forum Ubuntu-it

wget "highcolonic.info". Il file verrà scaricato nella cartella corrente (​visualizzabile impartendo pwd su Linux oppure cd su Windows), con lo stesso. In questo articolo vedremo, nello specifico, come scaricare file da linea di comando con wget per Windows. Per la trattazione analoga in ambiente Linux. Wget e'un programma per lo scaricamento non-interattivo di file dal Web attraverso i protocolli HTTP, HTTPS, FTP, e proxy HTTP. La sintassi e'. #esempio: wget highcolonic.info per scaricare il file nella directory corrente. Scaricare un file con nome diverso.

Nome: file con wget
Formato:Fichier D’archive
Sistemi operativi: Android. Windows XP/7/10. iOS. MacOS.
Licenza:Solo per uso personale (acquista più tardi!)
Dimensione del file: 49.70 MB

Scarica wget per Windows I file che scarichi da TurboLab. Puoi estrarli con un gestore come 7-Zip. Negli ultimi giorni ho avuto gravi problemi di stabilità alla connessione Internet: disconnessioni frequenti e blocchi continui dei download rendevano impossibile scaricare le immagini ISO di Windows 10 circa 4 GB l'una che mi servivano per completare l'ebook : ad ogni tentativo, Google Chrome si arrendeva con l'errore Operazione non riuscita.

Errore di rete.. Armatomi di wget per Windows ed un po' di pazienza, ho trovato la sequenza di parametri giusta per raggiungere l'obbiettivo nonostante le condizioni avverse In questo articolo vedremo, nello specifico, come scaricare file da linea di comando con wget per Windows.

La ricchissima serie di parametri accettati consente di gestire un po' qualsiasi situazione o necessità. È importante aprire proprio il Prompt dei comandi "classico" e non PowerShell.

Comando wget per scaricare un file e salvare come nome file diverso

Facendo riferimento alla prima figura, potete immaginare l'url come un indicatore che si riferisce ad un nodo specifico dell'albero. Adesso guardiamo l'immagine in questra pagina, dove al centro è stato messo tale nodo: da quest'ultimo dipartono alcuni rami che rappresentano collegamenti ad altrettanti nodi dell'albero, e che rappresentano il "vicinato".

I nodi del vicinato sono caratterizzati dal fatto che sono tutti raggiungibili da quello centrale attraversando un solo ramo e per questo si dice che si trovano nel "primo livello". La "profondità" di attraversamento è il numero massimo di livelli che si possono attraversare per raggiungere un nodo periferico a partire da un nodo centrale.

Il concetto di profondità di livello è centrale in wget, perché rappresenta il fattore primario in grado di limitare l'attraversamento di un sito. Facciamo un esempio: se aggiungiamo alla precedente stringa il valore -l 1 wget -Sr -l 1 www. Ma davvero vogliamo scaricare tutto?

Potremmo anche incorrere in file inutili, come contatori, file di database o altri documenti, di cui non ci interessa nulla e che occupano solo banda e allungano i tempo di download.

Per evitare un tale spreco, possiamo fornire a wget una "accept list", o al contrario una "reject list", nella quale possiamo specificare le estensioni dei file che intendiamo scaricare. Se, ad esempio, volessimo prelevare tutti i file grafici in formato gif e jpg, collegati in primo livello con il documento doc In questo caso, ci conviene fornire una lista di domini sui quali è consentito prelevare file.

Introduciamo quindi l'opzione -D che indica il "domain acceptance", ovvero i domini dai quali è accettato il download, limitando il dowload dei file collegati al nostro documento, ai soli domini funnystuff.

Oltre che per livelli e per domini, c'è un terzo limite da considerare, che consente di specificare un quota, ovvero una dimensione massima oltre il quale non verrà scaricato più nulla.

Non solo, è anche possibile fare in modo che questa operazione non influisca negativamente sulle prestazioni del collegamento ad internet, grazie alla possibilità di diluire nel tempo il download. Possiamo, volendo, preparare un file di testo o html, contenente tutte le url da scaricare, passandolo poi al programma grazie allo switch -i, oppure evitare che l'hostname venga utilizzato per creare la directory che conterrà il sito, o ancora, possiamo tagliare dall'albero che ricreeremo un certo numero di direcotry --cut-dirs Ad esempio, il comando: wget -r -l 1 -A gif,jpg www.

A proposito di wget

Infine, cosa fare se un donwload si interrompe per qualsiasi ragione? Senza bisogno di usare getright, provate l'opzione -c e riprenderete li dove vi eravate fermati senza perdere tempo a prelevare di nuovo tutto.

Ultimo problema che vogliamo affrontare: diciamo che vogliamo scaricare un sito molto grosso, e che le operazioni dureranno almeno un giorno. Come fare per non tenere occupata una shell per 24 ore? Anche qui le cose non sono troppo difficili; basta usare aprire la stringa di comando con nohup e chiudere la serie delle opzioni con un -b background e vi ritroverete anche con un file di log. Facciamo un esempio: voglio scaricare tutto il sito di www.

In questo caso, per essere sicuro, introduciamo anche l'opzione -m mirror che consentirà di creare una copia fedele del sito e l'opzione -t tentativi seguita da 0, per consentire al programma di tentare un numero infinito di volte l'operazione di mirroring, nel caso questa dovesse interrompersi per qualche ragione: nohup wget -m -t0 -b www.

Per i siti anonimi non c'è problema: wget tenterà di default di collegarvisi passando dei dati di login anonimi standard. Per le aree protette da login e password particolari vi è il problema di passare sulla linea di comando i dati relativi all'account che si vuole utilizzare per accedere al sito. In questo caso, ipotizzando di volere accedere al server ftp ftp.

Wget - L'arte della copia

Quelle che noi abbiamo visto sono solo alcune delle decine e decine di opzioni che fanno di wget uno dei programmi più versatili per internet. Creiamo un file di testo semplice. Con il parametro —limit-rate potremo impostare un limite alla velocità di download dei nostri file, opzione molto utile per non sovraccaricare la rete.

È necessario abilitare JavaScript per vederlo. Siccome Wget è una utility stracolma di parametri, ne ho combinati alcuni per avvicinarci il più possibile al download dello stretto indispensabile per visualizzare correttamente un sito web.

Il comando è: wget -k -r -p -D dominio. Infine, per riprendere il download precedentemente interrotto di un sito web potremo inserire, oltre ai parametri precedenti, anche il parametro -nc che evita la sovrascrittura dei file già scaricati , ad esempio wget -k -r -p -nc -D chimerarevo. Abbiamo imparato che Wget è uno strumento estremamente potente e che permette di avviare download con un gran numero di parametri.

Forum Ubuntu-it

Per dovere di cronaca specifichiamo che Wget è disponibile anche su MacOS e su Windows, ma va scaricato ed installato a parte. Da questo momento potremo usare Wget dal prompt dei comandi! Recentemente ti ho mostrato come scaricare un sito nel computer utilizzando HTTrack, un software multipiattaforma gratuito.

Come sicuramente avrai visto sulla pagina di download del sito ufficiale , HTTtacks è disponibile anche per Linux, ma oggi vorrei proporti una soluzione diversa utilizzando Wget, un comando molto potente e versatile disponibile per tutte le distribuzioni Linux.


consigliata: