Linux – wget continue, abgebrochene Downloads fortsetzen

Mit wget kann man Daten auf der Konsole direkt von einem HTTP-Server oder FTP-Server herunter laden. Der Aufruf ist sehr einfach nach folgenden Schema:

wget <url>

Kommt es zu Verbindungsabbrüchen oder muss der Download manuell mit CTRL-C abgebrochen werden können wir mit dem Parameter –continue den Download wieder aufnehmen.

wget --continue http://buildlogs.centos.org/rolling/7/isos/x86_64/CentOS-7-x86_64-Minimal.iso
--2015-12-21 21:35:12--  http://buildlogs.centos.org/rolling/7/isos/x86_64/CentOS-7-x86_64-Minimal.iso
Auflösen des Hostnamen »buildlogs.centos.org (buildlogs.centos.org)«... 85.236.43.108, 66.241.106.181
Verbindungsaufbau zu buildlogs.centos.org (buildlogs.centos.org)|85.236.43.108|:80... verbunden.
HTTP-Anforderung gesendet, warte auf Antwort... 206 Partial Content
Länge: 632291328 (603M), 626366009 (597M) sind noch übrig [application/octet-stream]
In »»CentOS-7-x86_64-Minimal.iso«« speichern.

 4% [=>                                         ] 29.876.495  1,46MB/s  ETA 5m 54s

Wie man ander Zeile

HTTP-Anforderung gesendet, warte auf Antwort... 206 Partial Content

sieht wurde der Download an der Stelle wieder aufgenommen und weitergeführt. Andernfalls beginnt der komplette Download von Anfang an.

Hat man nun ein schlechtes WLAN oder aus einem anderen Grund ständig Abbrüche der Verbindung kann man dies auch automatisieren.

wget -c --tries=0 --read-timeout=10  <url>

Der Parameter -c steht für —continue, also die Wiederaufnahme des Downloads. –tries für die Versuche, bei Angabe von 0 werden unendlich viele Versuche unternommen. Und der Parameter –read-timeout=10 gibt die Sekunden nach dem der Download nochmals probiert wird, falls keine Daten mehr empfangen werden. Nun heist es warten :D

Der kleine Trick zeigt wie man auch unter ungünstigen Netzverbindungen größere Daen aus dem Netz laden kann.

Weiter Infos zu wget gibt es auf der Projektseite von wget und in den Manpages.

2 Kommentare

  1. Eine wirklich geniale Sache. Hatte einen Server, der alle paar Minuten eine Kernel-Panik geschoben hat, und so konnte ich Stück für Stück wenigstens noch die Daten sichern. Mit nginx hat das gut geklappt.

  2. Danke für den Tipp. Habe gleich meinen Alias wget -c um einen neuen Alias erweitert. Wenn es mal wieder länger dauert, brauche ich den Download nicht immer wieder von Hand anschieben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.