Internet Speichern/Downloaden (Theorie und Praxis)?

4 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Vögel – Wikipedia Simple Website, Wikipedia. Nehmen wir den HTML Code. Nur den HTML Code. CSS und JS außenvor.

Laut UTF-8 string length & byte counter (mothereff.in) sind wir bei 202,490 characters und 205,803 bytes. Jetzt ist das nur eine Seite. Wikipedia hat aber Millionen davon. Nehmen wir noch andere Hoster dazu, dann ist das eine Zahl der Unmöglichkeit. Das wird einfach zu groß und das ist nur der HTML Teil

nein. nicht mal ansatzweise möglich wegen Speicherplatzmangel. Noch dazu würde es ewig dauern. KIs wie chatgpt nutzen lediglich apis zu vorhandenen suchmaschinen. die offline versionen haben zwar viel wissen aber das ist nichtmal 1% der daten des internets.

Woher ich das weiß:Berufserfahrung – Backend Developer

Benny354912 
Beitragsersteller
 20.03.2024, 16:27

Okay, die nicht mal 1% reichen mir erstmal. Wäre es mit den 1% den schon möglich?

Jede Seite des Internets ist bereits gespeichert auf ihrem jeweiligem Server. Ein Privatnutzer alleine hat aber eher nicht die nötigen Mittel um alles noch einmal redundant zu speichern.


Benny354912 
Beitragsersteller
 20.03.2024, 16:20

Und wie sieht es aus, wenn mir das reicht, was ich als Output bekomme? Sprich einfach nur Statische Seiten raussuchen. Ich brauche keine Funktionen oder so, sondern nur die Möglichkeit, alle Seiten anzuschauen, wie ich sie auch aufrufen würde, ohne die Backend Technik.
(Hoffe es ist verständlich)

Destranix  20.03.2024, 16:21
@Benny354912

Auch dann nicht. Das ist unfassbar viel. Schon allein Youtube, Wikipedia, webarchive, etc. sind immens groß.

Benny354912 
Beitragsersteller
 20.03.2024, 16:24
@Destranix

Das stimmt, aber ist es auch nicht möglich mit genügend Server Ressourcen das wie mit den KI Modulen zu Komprimieren?

Destranix  20.03.2024, 16:25
@Benny354912

Ne. Die Informationen bleiben ja dieselben, irgendwann kannst du nicht mehr weiter komprimieren.

70% des Internets sind das Deep Web , damit ( Server Daten),sind schonmal nicht erreichbar.

Für Webseiten gibt es das schon. Nennt sich wayback machine


Benny354912 
Beitragsersteller
 20.03.2024, 16:14

Und ist es möglich nur die auf ein paar GB zu Komprimieren? So wie die Module von KIs? (Habe noch nicht so viel Ahnung davon)

nichtsagender  20.03.2024, 16:44
@Benny354912

Du kannst die Websites nicht auf kleinere Größen komprimieren, wenn sie 6GB groß ist , ist sie 6GB. Du kannst sie Indexieren dann hast du google.

Und KIs wurden mit Terra , wenn nicht sogar Petabyte Daten gefüttert.

Benny354912 
Beitragsersteller
 20.03.2024, 16:48
@nichtsagender

Wäre es möglich eine Art KI zu Trainieren, die aber nicht zum Chatten ist, sondern als Suchfunktion dient und die Seiten dann zeigt?

Benny354912 
Beitragsersteller
 20.03.2024, 17:23
@nichtsagender

Google selbst zeigt mir die Seite aber nicht, sie verlinkt die Seite nur. Vielleicht habe ich das ein bisschen blöd geschrieben.