Herunterladen sehr großer Mengen an Dateien?

4 Antworten

Dafür gibt es etliche Tools und Addons, wie z.B. den jDownloader, wo du dann einfach einen Link in den Linksammler werfen kannst und er analysiert die Seite nach runterladbaren Kram, seien es nun simple Dateien, Videos, Audio oder was auch immer.

Woher ich das weiß:Berufserfahrung – Softwareentwickler/Projektleiter seit 2012

Stefan17Kramer 
Beitragsersteller
 02.07.2021, 19:43

Danke, mir lag soetwas auf der Zunge, nur stand absolut auf der Leitung :)

0

Man kann nichts erkennen. Für Firefox (und vermutlich auch andere Browser) gibts Add-ons, um Linklisten zwecks Download zu verarbeiten.


apachy  02.07.2021, 19:47

Man kann genug erkennen. Auf der linken Seite sind offensichtlich links, in ihrer Defaultfarbe. Rechts daneben sind in Spalten weitere Werte angeordnet. Offensichtlich handelt es sich um ein ganz normales Directory Listing, wie es so gut wie jeder Webserver bietet, ob nun Apache, Nginx oder ein IIS.

0
Von Experte Roderic bestätigt

Wget mit input txt, eine url pro zeile


Stefan17Kramer 
Beitragsersteller
 02.07.2021, 19:40

Hm, Erklärung bitte, verstehe ich nicht.

0
mompf03231  02.07.2021, 19:42
@Stefan17Kramer

Eine Anleitung kannst du auf Google finden. Wget ist ein Command Line Programm. Du erstellst eine Textdatei mit einer URL pro Zeile und im terminal spezifizierst du die Textdatei als Input.

Alternativ AriaNg, das ist eine "normale" App

https://github.com/mayswind/AriaNg

Oder jdownloader2

0
apachy  02.07.2021, 19:48

Für wget muss er trotzdem noch die Links extrahieren aus dem Quelltext bzw. jede Adresse einzeln kopieren oder? Klar kriegt man sowas auch geparst, ist nun aber eher was für Poweruser und Entwickler.

0