MySQL maximale zugriffe pro sekunde

3 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Wenn du eine sehr schnelle Datenbank suchst ist Redis glaube ich gar nicht verkehrt. Hier der Wikipedialink zu: http://de.wikipedia.org/wiki/Redis

ich zitiere: "Bis zu ca. 100.000 Schreibvorgänge und ca. 80.000 Lesevorgänge pro Sekunde sind auf herkömmlicher Hardware möglich"

Hört sich doch mal vielversprechend an...;) Die technischen Daten deines Systems sind ja eigentlich ausreichend, daran sollte es nicht scheitern :)

Ich kenn mich mit MySQL nicht sonderlich gut aus, aber 20 neue Datensätze pro Sekunde sollte jedes Datenbanksystem problemlos hinkriegen.


Zorno 
Beitragsersteller
 26.03.2012, 11:22

Beim lesen würde ich da ohne mit der Wimper zu zucken zustimmen, da können es auch tausend pro sekunde sein, jedoch gibt sich MySQL beim schreiben und vor allem beim neu Erstellen recht langsam, daher fragte ich ;)

0
daCypher  26.03.2012, 11:35
@Zorno

Du kannst doch einfach mal probieren, was der Server so verarbeiten kann. Also eine Insert Into-Abfrage, bei der mehrere Tausend Datensätze auf einmal geschrieben werden, sind kein Problem. Wie es aussieht, wenn mehrere Datensätze in einzelnen Abfragen ankommen, weiß ich nicht.

Du kannst den Server aber mal mit mehreren einzelnen Abfragen füttern und gucken, was passiert. Ich hab bis jetzt nur über Plesk mit einer MySQL-Datenbank gearbeitet. Da kann man im SQL-Fenster mehrere Abfragen untereinander schreiben, die dann nacheinander ausgeführt werden.

0

Die Frage ist hier immer, wie die SQL-Syntax ausgenutzt wird. Wenn ich grundsätzlich meine Daten immer über ein 'SELECT * FROM blah;' hole und dann die benötigten Daten mit PHP zurecht rücke, bekommt man eher Performance-Probleme, als wenn man sich an Datenbank-Grundlagen hält.

Wenn man immer schön dafür sorgt, dass die Datenbank in der dritten Normalform ist, ist man schon auf dem richtigen weg. Über entsprechend formulierte SELECT-Ausdrücke mit entsprechenden WHERE's usw. bekommt man die Datenflut in der Regel sehr klein. Das hat auch den Vorteil, dass man mit PHP kaum noch etwas "analysieren" oder zurechtfrickeln muss. Dann sind auch mehrere tausend Anfragen pro Sekunde absolut kein Thema. Selbst wenn die Datenbank und der Webserver auf demselben Host laufen.

Nur bei zu großer Flut sollte man dann strikt Datenbank und Webserver trennen. RDBMS an sich haben aber den Vorteil, dass man einzelne Teile auch auf unterschiedlichen Hosts auslagern kann. Über entsprechende JOINs, kann man die Daten aber problemlos wieder zusammensetzen. Ich denke aber nicht, dass Du mit solchen "kleinen" Aufgaben aber irgendwelche komplizierteren Lösungen finden müsstest. Achte einfach darauf, nur genau die Daten abzurufen, die Du auch brauchst. Achte darauf, dass deine Daten in der 3NF sind und achte auf referenzielle Integrität. Dann wirst Du merken, wie leistungsfähig auch MySQL ist.