Wer kennt sich mit Aufbau einer Webseite und Web-Archivierung aus?
Hallo.
Ich wollte diese Kleinanzeigen-Webseite (siehe unten) gerne archivieren, alle Anzeigen von der Kategorie: Alles mögliche.
Ich habe zur Archivierung das Tool HTTTRack verwendet.
Ich frage mich nun aber:
Wie kann ich herausfinden, wie viele Links das sind die es insgesamt zum downloaden bzw archivieren gibt also auch die gesamte Datengröße bis das ganze fertig ist, kann man das irgendwie herausfinden?
Insgesamt sind es, gehen wir davon aus von es sind 360 Seiten mit jeweils ~ 15 Anzeigen pro Seite. Ich möchte halt jede Seite kopieren und davon jede Anzeige.
Bei dem Tool steht der Vermerk dran
Links gescannt: 24.000
Files written: 9500
Müssten das dann nicht ca. 5400 Links sein bis alles kopiert ist?
So ist es im Originalen in der Kategorie: Alles mögliche
Willst Du die komplette Site archivieren oder nur die betreffende Seite - quasi als "html-Screenshot"?
Nur die betreffende Seite (.../anzeigen/alles-moegliche/) , sodass ich mir alle Anzeigen und alle Seiten von der Kategorie: Alles mögliche offline ansehen kann.
1 Antwort
Nur die betreffende Seite (.../anzeigen/alles-moegliche/) , sodass ich mir alle Anzeigen und alle Seiten von der Kategorie: Alles mögliche offline ansehen kann.
Für so was nutze ich in Firefox das PlugIn SingleFile.
Das speichert eine Seite mit allem Drum und Dran in eine html-Datei, die man dann jederzeit wieder aufrufen kann.
Alternativ kannst Du natürlich bei archive.org ein Nutzerkonto erstellen und dort jede (beliebige) Seite archivieren. Nur werden dort nicht unbedingt alle Elemente abgespeichert.
Danke für den Tipp mal.
Das mit Archive habe ich schon ausprobiert, das ist nicht das was ich suche.
Das speichert ja wie du schon erwähnt hast nur eine Ansicht ab bzw. ein Screenshot-HTML quasi. Aber mir geht es ja auch darum die Anzeigen dort aufzurufen nicht nur die Seiten mit den Anzeigen anzuschauen.