Herunterladen sehr großer Mengen an Dateien?
Hallo,
ich will alle Dateien runterladen, siehe unten. Wie geht das ohne sauviel Zeitaufwand & wer verwendet solche Websiten? Jeder Link stellt eine Datei dar.
4 Antworten
Dafür gibt es etliche Tools und Addons, wie z.B. den jDownloader, wo du dann einfach einen Link in den Linksammler werfen kannst und er analysiert die Seite nach runterladbaren Kram, seien es nun simple Dateien, Videos, Audio oder was auch immer.
Danke, mir lag soetwas auf der Zunge, nur stand absolut auf der Leitung :)
Man kann nichts erkennen. Für Firefox (und vermutlich auch andere Browser) gibts Add-ons, um Linklisten zwecks Download zu verarbeiten.
Man kann genug erkennen. Auf der linken Seite sind offensichtlich links, in ihrer Defaultfarbe. Rechts daneben sind in Spalten weitere Werte angeordnet. Offensichtlich handelt es sich um ein ganz normales Directory Listing, wie es so gut wie jeder Webserver bietet, ob nun Apache, Nginx oder ein IIS.
Wget mit input txt, eine url pro zeile
Für wget muss er trotzdem noch die Links extrahieren aus dem Quelltext bzw. jede Adresse einzeln kopieren oder? Klar kriegt man sowas auch geparst, ist nun aber eher was für Poweruser und Entwickler.
Eine Anleitung kannst du auf Google finden. Wget ist ein Command Line Programm. Du erstellst eine Textdatei mit einer URL pro Zeile und im terminal spezifizierst du die Textdatei als Input.
Alternativ AriaNg, das ist eine "normale" App
https://github.com/mayswind/AriaNg
Oder jdownloader2
Hm, Erklärung bitte, verstehe ich nicht.