Gibt es maximale Zeichenanzahl in Text Dateien?
ich lerne mich aktuell etwas im Bereich der Programmierung ein (html, CSS, XML, json, usw), bin neu auf dem Gebiet. Komme aber gut voran. ich arbeite mit ein paar Kumpels an einem eigenen kleinen technologie Service und für diesen kostenpflichtigen Service haben wir auch schon ein paar Kunden, die wir in einer Kundendatenbank pflegen (Name, Adresse usw). wenn wir jz ein Backup von dieser MySQL Datenbank machen schreibt mysqldump die Inhalte in eine gesonderte Text Datei. dabei werden die gesamten Daten aus jeder tabelle in jeweils EINE Zeile in die Text Datei geschrieben. Wenn ich nun diese Text Datei im emacs Editor öffnen ist zb die Zeile , in dem daten aus der Kunden Tabelle stehen, Kilometer lang, so das ich lange scrollen muss um ans Ende zu kommen.
ist das richtig so? Gibt es eine maximale Zeichen Begrenzung pro Zeile? Nicht das uns Kunden Daten verloren gehen. wir verwenden als Betriebssystem Linux red hat und die backup Text Datei ist insgesamt 3.5 Giga Byte gross, falls es relevant sein sollte.
11 Antworten
3,5 GB Datenbank Backup?
Arbeitest du für Facebook? XD
Klar gehe ich davon aus, dass einige dort auch nur ein paar GB groß sind, auch wenn sie weit aus größere haben ;-)
Aber jetzt wirst du mir sicher erklären, warum absolut JEDE Datenbank bei fb größer ist ^^
Absolut jede nicht, ich gehe allerdings davon aus, dass die meisten ein wenig grösser sind.
Nein, Normalerweise gibt es da keine Obergrenze. Warum auch, im Endeffekt ist das Format ja sogar streambar.
Allerdings scheint mir die Gesamtgröße absolut absurd.
Nein, das einzige Limist ist die Größe des Laufwerks.
Die langen Zeilen sind kein Problem, das passt schon. Irgendwie kann man emacs auch beibringen, das er die automatisch umbrechen und direkt anzeigen soll, nur habe ich leider von emacs keine Ahnung. Lasse dir die Datei ggfs. einfach per "less Dateiname" ausgeben (q zum beenden).
Um rauszufinden, wo die 3.5 GB Daten herkommen, kannst du im mySQL mal
SELECT table_schema, table_name, table_rows,
sum( data_length + index_length ) / 1024 / 1024 "table size in MB"
FROM information_schema.TABLES
ORDER BY table_rows desc;
ausführen und schauen, welche Tabelle da "schuld" ist. Evtl. gab es ja irgendwann mal einen Fehler, der für viele unnütze Einträge gesorgt hat.
3,5 GB Kundendaten? Bei 10 Millionen Kunden kommt das vielleicht hin.
Du glaubst nicht ernsthaft das facebook nur ein paar GB Datenbankdaten hat..?